Logo Passei Direto
Buscar

[Cuminato] Discretização de Equações Diferenciais Parciais

Ferramentas de estudo

Material
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Prévia do material em texto

DISCRETIZAC¸A˜O DE EQUAC¸O˜ES
DIFERENCIAIS PARCIAIS
Te´cnicas de Diferenc¸as Finitas
Jose´ Alberto Cuminato
Instituto de Cieˆncias Matema´ticas e de Computac¸a˜o
Universidade de Sa˜o Paulo – Campus de Sa˜o Carlos
Messias Meneguette Junior
Faculdade de Cieˆncias e Tecnologia
Universidade Estadual Paulista – Presidente Prudente
13 de outubro de 2006
2
Suma´rio
1 Conceitos Fundamentais 7
1.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Aproximac¸o˜es de Derivadas por Diferenc¸as Finitas . . . . . . . . . . . . . . . 9
1.3 Problema de Valor Inicial em Equac¸o˜es Ordina´rias . . . . . . . . . . . . . . . 15
1.3.1 Convergeˆncia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.4 Problema de Valor de Fronteira em Equac¸o˜es Ordina´rias . . . . . . . . . . . . 29
1.4.1 Me´todos de Diferenc¸as Finitas . . . . . . . . . . . . . . . . . . . . . . 30
1.5 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2 Introduc¸a˜o a`s Equac¸o˜es Diferenciais Parciais 45
2.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.2 Classificac¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.3 Caracter´ısticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.4 Discretizac¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.5 Domı´nios Gene´ricos e Transformac¸a˜o de Varia´veis . . . . . . . . . . . . . . . . 53
2.5.1 Transformac¸a˜o de Coordenadas Cartesianas em Polares . . . . . . . . 55
2.5.2 Transformac¸a˜o de Coordenadas Cartesianas em Obl´ıquas . . . . . . . 57
2.5.3 Transformac¸a˜o de Coordenadas Cartesianas em Triangulares . . . . . 60
2.6 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3 Equac¸o˜es Parabo´licas 69
3.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.2 Me´todos de Diferenc¸as Finitas . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.3 Problemas Na˜o Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
3.4 Outros Me´todos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
3.5 Equac¸o˜es Parabo´licas em Duas Dimenso˜es . . . . . . . . . . . . . . . . . . . . 97
3.6 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
4 Equac¸o˜es El´ıpticas 113
4.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
4.2 Me´todos de Diferenc¸as Finitas . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
4.3 Erro de Truncamento Local . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
4.4 Condic¸o˜es de Fronteira em Domı´nios Gerais . . . . . . . . . . . . . . . . . . . 123
4.5 Condic¸a˜o de Fronteria de Neumann . . . . . . . . . . . . . . . . . . . . . . . . 128
3
4 SUMA´RIO
4.6 Diferenc¸as Finitas em Coordenadas Polares . . . . . . . . . . . . . . . . . . . 130
4.7 Me´todos Iterativos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
4.8 Convergeˆncia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
4.9 Me´todo dos Gradientes Conjugados . . . . . . . . . . . . . . . . . . . . . . . . 143
4.10 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
5 Equac¸o˜es Hiperbo´licas 157
5.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
5.1.1 Equac¸a˜o escalar de advecc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . 157
5.1.2 Equac¸a˜o da onda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
5.2 Diferenc¸as Finitas para a Equac¸a˜o de Advecc¸a˜o . . . . . . . . . . . . . . . . 190
5.3 Diferenc¸as Finitas para a Equac¸a˜o da Onda . . . . . . . . . . . . . . . . . . . 206
5.4 Me´todos Nume´ricos para Leis de Conservac¸a˜o . . . . . . . . . . . . . . . . . . 211
5.5 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
SUMA´RIO 5
PREFA´CIO
O universo de te´cnicas de soluc¸a˜o nume´rica de equac¸o˜es diferenciais parciais e´ bastante vari-
ado e inclue, entre outros, os me´todos de diferenc¸as finitas, volumes finitos, elementos finitos,
elementos de contorno, me´todos espectrais e me´todos de colocac¸a˜o. O objetivo deste texto
e´ apresentar uma introduc¸a˜o a` soluc¸a˜o nume´rica de equac¸o˜es diferenciais parciais, enfati-
zando os principais conceitos com vistas a`s aplicac¸o˜es pra´ticas, utilizando discretizac¸a˜o por
diferenc¸as finitas. O conteu´do sera´ desenvolvido atrave´s de exemplos-modelos de equac¸o˜es
parabo´licas, el´ıpticas e hiperbo´licas. Pretende-se introduzir de maneira bastante natural os
conceitos de estabilidade e convergeˆncia, dependeˆncia da discretizac¸a˜o das condic¸o˜es de fron-
teira, condic¸a˜o CFL e me´todo das caracter´ısticas. Incluimos, sempre que poss´ıvel, uma certa
dose de teoria e rigor no tratamento desses conceitos sem no entanto relegarmos o lado ex-
perimental, especialmente o lado ilustrativo atrave´s de exemplos e gra´ficos. Nosso objetivo e´
o de apresentar uma variedade de te´cnicas de soluc¸a˜o sobre as quais o leitor devera´ adquirir
conhecimentos teo´ricos e tambe´m experimental. Por essa raza˜o e´ imprescind´ıvel que o leitor
resolva os exerc´ıcios pra´ticos, que envolvem programac¸a˜o em MATLAB.
Na literatura e´ bastante popular a ide´ia, especialmente em equac¸o˜es parciais, de que
existem tantos me´todos nume´ricos quantos sa˜o os problemas a serem resolvidos. Em geral
entretanto, alguns conceitos e te´cnicas fundamentais esta˜o presentes em todos os me´todos.
O propo´sito deste texto e´ o de chamar a atenc¸a˜o para esses conceitos esclarecendo-os atrave´s
da ana´lise de exemplos. E´ quase sempre poss´ıvel classificar um problema em quatro grandes
tipos: Equac¸o˜es Parabo´licas, Equac¸o˜es El´ıpticas, Equac¸o˜es Hiperbo´licas e Problemas do
tipo misto. Do ponto de vista dida´tico esta divisa˜o parece ser recomendada para melhor
associac¸a˜o entre as te´cnicas nume´ricas e a natureza do problema a ser resolvido. O conteu´do
aqui desenvolvido segue essa lo´gica.
Este livro foi escrito com o propo´sito de servir como texto ba´sico de disciplinas de
ca´lculo nume´rico e matema´tica aplicada ministradas em cursos de graduac¸a˜o de engenharia,
matema´tica e a´reas afins em cieˆncias exatas. O material mais avanc¸ado pode ainda servir
para cursos introduto´rios de po´s-graduac¸a˜o nas a´reas acima citadas. Para cumprir esse ob-
jetivo foi introduzido uma lista bastante completa de exerc´ıcios que envolve desde a fixac¸a˜o
dos conceitos ba´sicos ate´ a implementac¸a˜o de projetos pra´ticos em computador. A maioria
dos me´todos nume´ricos apresentados foram programados em MATLAB e podem ser utiliza-
dos pelo professor para ilustrar os conceitos ministrados em sala de aula. A programac¸a˜o
em MATLAB inclue uma interface gra´fica padronizada que permite a soluc¸a˜o de problemas
razoavelmente complexos sem a necessidade de um grande esforc¸o de programac¸a˜o por parte
do aluno. Isto viabiliza a utilizac¸a˜o de exerc´ıcios pra´ticos para a ilustrac¸a˜o e reconhecimento
de conceitos como convergeˆncia, estabilidade, precisa˜o, etc.
O conteu´do foi dividido em 5 cap´ıtulos, os dois primeiros apresentando os conceitos
ba´sicos de discretizac¸a˜o de problemas de valor inicial e de contorno para equac¸o˜es diferenciais
ordina´rias e a teoria elementar das equac¸o˜es diferenciais parciais. Nos outros treˆs cap´ıtulos
apresentamos separadamente as te´cnicas de discretizac¸a˜o de cada um dos tipos de equac¸o˜es
parabo´licas, hiperbo´licas e el´ıpticas. Todos os cap´ıtulos inclue uma lista bastante extensa
de exerc´ıcios, muitos dos quais abordam temas mais avanc¸adosdo que aqueles tratados no
texto. Essa atitude tem o propo´sito de estimular o aluno que pretende aprofundar-se nessa
a´rea do conhecimento a pesquisar as refereˆnciais e aguc¸ar sua curiosidade. No entanto,
6 SUMA´RIO
alertamos os professores que pretendem utilizar o texto como guia de um curso, para o fato
de que uma selec¸a˜o dos exerc´ıcios pode ser recomendada para na˜o desestimular os estudantes
com problemas muito dif´ıceis. A ordem de apresentac¸a˜o dos exerc´ıcios na˜o segue um crite´rio
de dificuldade crescente e sim a ordem dos to´picos no texto.
O material deste livro deriva em boa parte de cursos de graduac¸a˜o que os autores teˆm
ministrado em suas respectivas unidades de ensino. Agradecimento especial nos e´ devido aos
autores da apostila [28], aos alunos do ICMC pela leitura dos originais e o apoio financeiro
do Instituto de Cieˆncias Matema´ticas e de Computac¸a˜o - USP Sa˜o Carlos, Faculdade de
Cieˆncias e Tecnologia - UNESP Presidente Prudente, CNPq e Pro´-Reitoria de Graduac¸a˜o
da USP atrave´s dos Programa SIAE 97 e SIAE 98.
Cap´ıtulo 1
Conceitos Fundamentais
1.1 Introduc¸a˜o
Um modelo matema´tico e´ uma representac¸a˜o, idealizada e muitas vezes simplificada,
da natureza. Quando derivado de maneira criteriosa, sua soluc¸a˜o simula propriedades dos
processos naturais envolvidos, tais como velocidade e pressa˜o no escoamento de um fluido,
temperatura, humidade, direc¸a˜o dos ventos e precipitac¸a˜o na previsa˜o do tempo, trajeto´ria
de um sate´lite artificial, entre outras muitas aplicac¸o˜es. Assim, as soluc¸o˜es das equac¸o˜es de
um modelo, devem captar os aspectos relevantes no comportamento do problema modelado,
na˜o sendo poss´ıvel, na maioria dos casos, justificar a utilizac¸a˜o de hipo´teses simplificado-
ras que modificam a natureza do problema (tal como linearidade) que tornariam poss´ıvel
a determinac¸a˜o de uma soluc¸a˜o exata. Em outra palavras, quando estamos resolvendo
um problema real, em geral, na˜o e´ poss´ıvel forc¸a´-lo a satisfazer hipo´teses que permitam a
obtenc¸a˜o de uma soluc¸a˜o exata. Da´ı a necessidade da procura de soluc¸o˜es nume´ricas, ou
aproximadas.
A importaˆncia da modelagem matema´tica cresceu muito nos u´ltimos anos porque a
ana´lise detalhada de um modelo e suas propriedades, viabilizada pelo avanc¸o tecnolo´gico
dos computadores, permite um melhor entendimento do evento modelado e, mais do que
isso, permite a simulac¸a˜o de mudanc¸as nos paraˆmetros do modelo e a ana´lise da respec-
tiva resposta, que na˜o seriam poss´ıveis na situac¸a˜o real. Por exemplo, no projeto de um
carro, alterac¸o˜es na forma resultam em modificac¸o˜es no comportamento aerodinaˆmico, de
cuja ana´lise obte´m-se um indicador dos ganhos e/ou perdas em performance; a localizac¸a˜o
ideal da asa de um avia˜o em relac¸a˜o ao casco pode ser obtida pela resposta a` simulac¸a˜o
matema´tica das equac¸o˜es da aerodinaˆmica, e ate´ a melhor pol´ıtica de vacinac¸a˜o contra
doenc¸as transmiss´ıveis, tipo sarampo, pode ser decidida com base em modelos matema´ticos.
A economia de tempo gerada por esta maneira de projetar um produto, ou tomar deciso˜es,
e´ clara, diminuindo sensivelmente o nu´mero de proto´tipos ou modelos em tamanho reduzido
a serem constru´ıdos e ensaiados. No projeto de equipamentos com tecnologia avanc¸ada, a
simulac¸a˜o atrave´s da modelagem matema´tica e´ uma ferramenta indispensa´vel a ser utilizada
na eliminac¸a˜o de casos triviais ou imposs´ıveis, fornecendo um guia seguro para a selec¸a˜o dos
casos a serem ensaiados em modelos de escala reduzida ou para a construc¸a˜o de proto´tipos.
Como virtualmente todas as a´reas em matema´tica aplicada, o principal objetivo das
7
8 CAPI´TULO 1. CONCEITOS FUNDAMENTAIS
equac¸e˜s diferenciais e´ o de modelar matematicamente eventos da natureza nas mais diversas
a´reas de aplicac¸a˜o. Um modelo com va´rias varia´veis independentes envolve necessariamente
derivadas com respeito a cada umas dessas varia´veis ou derivadas parciais, sendo portanto
denominado uma equac¸a˜o diferencial parcial ou um sistema de equac¸o˜es diferenciais parciais.
Resumindo as ide´ias apresentadas acima, o processo de simulac¸a˜o e´ considerado na lit-
eratura como sendo constitu´ıdo de treˆs partes nitidamente distintas. A fase de modelagem,
isto e´, a construc¸a˜o de um conjunto de equac¸o˜es matema´ticas que reputamos representar
os fenoˆmenos e os processos modelados. Uma segunda fase, de soluc¸a˜o desse conjunto de
equac¸o˜es, normalmente utilizando te´cnicas de discretizac¸a˜o nume´rica e um computador e
finalmente, a fase de interpretac¸a˜o dos resultados face a`s caracter´ısticas do problema origi-
nal. Esse e´ um processo complexo que exige do profissional um conjunto bastante amplo de
habilidades; como por exemplo: um bom conhecimento de engenharia, que sera´ necessa´rio
para os ajustes finos do modelo desprezando complicac¸o˜es que na˜o sa˜o fundamentais, um
bom conhecimento de me´todos nume´ricos para selecionar aquele que melhor se adapta ao
problema e finalmente um bom faro de detetive para analisar os resultados e interpreta´-los a`
luz das restric¸o˜es e caracter´ısticas do problema. Este texto trata exclusivamente da segunda
fase desse processo.
E´ claro portanto, que a soluc¸a˜o do modelo matema´tico, ou seja, das equac¸o˜es represen-
tantes desse modelo, e´ fundamental para a compreensa˜o do fenoˆmeno modelado. Este e´ o
papel da discretizac¸a˜o das equac¸o˜es parciais, uma vez que, como ja´ dissemos, uma soluc¸a˜o
anal´ıtica nem sempre esta´ dispon´ıvel: ou tem uma forma na˜o pra´tica ou e´ imposs´ıvel de
ser obtida. Assim os me´todos nume´ricos sa˜o amplamente usados para a aproximac¸a˜o dessas
soluc¸o˜es. A esseˆncia dos me´todos nume´ricos esta´ na representac¸a˜o discreta (finita) do prob-
lema que, em geral, e´ originalmente modelado como um cont´ınuo. Essa discretizac¸a˜o e´ que
viabiliza o uso dos computadores no tratamento nume´rico das equac¸o˜es diferenciais.
Na literatura, especialmente em equac¸o˜es parciais, e´ comum a ide´ia, de que existem tan-
tos me´todos nume´ricos quantos sa˜o os problemas a serem resolvidos. Em geral entretanto,
algumas te´cnicas e caracter´ısticas fundamentais esta˜o presentes em todos os me´todos. O
propo´sito deste texto e´ o de chamar a atenc¸a˜o para esses conceitos definindo-os precisamente
e ilustrando-os atrave´s da ana´lise de exemplos. E´ quase sempre poss´ıvel classificar um prob-
lema em equac¸o˜es diferenciais em quatro grandes classes: Equac¸o˜es Parabo´licas, Equac¸o˜es
El´ıpticas, Equac¸o˜es Hiperbo´licas e Problemas do tipo misto. Do ponto de vista dida´tico
esta divisa˜o parece ser recomendada para melhor associac¸a˜o entre as te´cnicas nume´ricas e a
natureza do problema a ser resolvido. Seguiremos neste texto essa premissa lo´gica.
O objetivo deste texto e´ o de desenvolver uma introduc¸a˜o a` soluc¸a˜o nume´rica de equac¸o˜es
diferenciais parciais, enfatizando os principais conceitos com vistas a`s aplicac¸o˜es pra´ticas,
atrave´s da discretizac¸a˜o por diferenc¸as finitas. O conteu´do sera´ desenvolvido por meio de
exemplos modelos de equac¸o˜es parabo´licas, el´ıpticas e hiperbo´licas. Pretende-se introduzir
de maneira bastante natural os conceitos de estabilidade e convergeˆncia, dependeˆncia da
discretizac¸a˜o das condic¸o˜es de fronteira, condic¸a˜o CFL e me´todo das caracter´ısticas.
Os conceitos fundamentais e as principais dificuldades, bem como a notac¸a˜o e nomen-
clatura ba´sicas sera˜o introduzidos o caso de problemas de uma dimensa˜o, ou seja, por meio
de equac¸o˜es diferenciais ordina´rias. Na sequeˆncia, sera˜o tratados cada um dos principais
tipos de equac¸o˜es parciais.
1.2. APROXIMAC¸O˜ES DE DERIVADAS POR DIFERENC¸AS FINITAS 9
1.2 Aproximac¸o˜es de Derivadas por Diferenc¸as Finitas
“A esseˆncia dos me´todos nume´ricos esta´ na discretizac¸a˜o do cont´ınuo. E´ esta
discretizac¸a˜o que torna finito o problemae portanto viabiliza sua soluc¸a˜o atrave´s
dos computadores [19].”
A ide´ia geral do me´todo de diferenc¸as finitas e´ a discretizac¸a˜o do domı´nio e a substi-
tuic¸a˜o das derivadas presentes na equac¸a˜o diferencial, por aproximac¸o˜es envolvendo somente
valores nume´ricos da func¸a˜o. Na pra´tica substitui-se as derivadas pela raza˜o incremental
que converge para o valor da derivada quando o incremento tende a zero. Dizemos enta˜o
que o problema foi discretizado. Quando o domı´nio tem mais de uma varia´vel, a ide´ia acima
e´ aplicada para cada uma das varia´veis separadamente.
Nesta sec¸a˜o trataremos apenas o problema unidimensional, pois isto facilita o entendi-
mento. No entanto, a generalizac¸a˜o para outras dimenso˜es pode ser obtida sem muitas
dificuldades, como veremos oportunamente. Seja x0 um nu´mero real qualquer, e h um
nu´mero positivo. Definimos malha de passo h associada a x0 como o conjunto de pontos
xi = x0 ± ih, i = 1, 2, . . . , N.
Nos pontos dessa malha sera˜o calculadas aproximac¸o˜es para uma func¸a˜o y(x) e suas
derivadas. A ferramenta matema´tica ba´sica no ca´lculo de aproximac¸o˜es para as derivadas e´
a se´rie de Taylor que relaciona valores da func¸a˜o e suas derivadas, num ponto x, com valores
dessa mesma func¸a˜o numa vizinhac¸a de x, ou seja, com y(x+ h). Se y(x) tem derivadas ate´
a ordem n+ 1 em x, podemos escrever:
y(x+ h) = y(x) + hy′(x) +
h2
2!
y′′(x) + · · ·+ h
n
n!
y(n)(x) +
+
hn+1
(n+ 1)!
y(n+1)(ξ), x < ξ < x+ h. (1.1)
O u´ltimo termo da expressa˜o (1.1) representa o erro da aproximac¸a˜o de y(x + h) pelo
polinoˆmio (na varia´vel h) de grau n:
Pn(h) = y(x) + y
′(x)h+
y′′(x)
2!
h2 + . . .+
y(n)(x)
n!
hn.
Se n = 1 em (1.1) obtemos uma aproximac¸a˜o para a derivada y′(x), conhecida como fo´rmula
progressiva, que e´ dada por:
y′(x) =
y(x+ h)− y(x)
h
− h
2
y′′(ξ).
Utilizaremos a notac¸a˜o:
∆y(x) = y(x+ h)− y(x)
para representar a diferenc¸a progressiva de y(x). O termo −hy′′(ξ)/2 representa o erro dessa
aproximac¸a˜o. Portanto teremos:
10 CAPI´TULO 1. CONCEITOS FUNDAMENTAIS
y′(x) =
1
h
∆y(x)− h
2
y′′(ξ).
De modo semelhante, tomando −h em (1.1), ainda com n = 1, obtemos a fo´rmula
regressiva que utiliza a diferenc¸a regressiva (∇y(x)) e seu erro, ou seja:
y′(x) =
y(x)− y(x− h)
h
+
h
2
y′′(ξ)
=
1
h
∇y(x) + h
2
y′′(ξ).
Tomando n = 2 em (1.1), e reescrevendo (1.1) para h e −h, respectivamente, obtemos
y(x+ h) = y(x) + hy′(x) +
h2
2!
y′′(x) +
h3
3!
y′′′(ξ1)
e
y(x− h) = y(x)− hy′(x) + h
2
2!
y′′(x) − h
3
3!
y′′′(ξ2).
Subtraindo a u´ltima expressa˜o da penu´ltima obtemos a fo´rmula centrada ou fo´rmula de
diferenc¸as centrais
y′(x) =
y(x+ h)− y(x− h)
2h
− h
2
3!
y′′′(ξ) (1.2)
onde ξ ∈ (x− h, x+ h) e foi utilizado o teorema do valor intermedia´rio va´lido para func¸o˜es
cont´ınuas:
1
2
(y′′′(ξ1) + y′′′(ξ2)) = y′′′(ξ), para algum ξ ∈ [min{ξ1, ξ2},min{ξ1, ξ2}].
A notac¸a˜o utilizada para denotar a diferenc¸a central e´ δhy(x) e a equac¸a˜o (1.2) nos fornece
tambe´m o erro dessa fo´rmula, ou seja:
y′(x) =
1
2h
δhy(x)− h
2
3!
y′′′(ξ).
Observac¸a˜o 1.2.1 Quando se fizer necessa´rio deixar claro a importaˆncia do passo h para
um operador que esta´ sendo utilizado, escreveremos: δh, δ
2
h,∆h,∇h, etc..
Erro e Ordem de Aproximac¸a˜o de Uma Fo´rmula de Diferenc¸a
Seja F(x, h) uma fo´rmula de diferenc¸a para aproximac¸a˜o da derivada de ordem q de uma
func¸a˜o y(x) com erro E(x, h). Enta˜o:
y(q)(x) = F(x, h) + E(x, h).
1.2. APROXIMAC¸O˜ES DE DERIVADAS POR DIFERENC¸AS FINITAS 11
Dizemos que a fo´rmula F(x, h) e´ de ordem p se E(x, h) = hpR(x), ondeR(x) na˜o depende de
h. Nesse caso usamos a notac¸a˜o E(x, h) = O(hp). Essa notac¸a˜o significa que limh→0 E(x,h)hp
e´ uma constante finita. Por exemplo no caso da fo´rmula centrada temos que:
F(x, h) = y(x+ h)− y(x− h)
2h
e E(x, h) = −h
2
3!
y′′′(ξ).
de forma que essa fo´rmula e´ de segunda ordem.
Seguindo as mesmas ide´ias podemos estabelecer uma expressa˜o para o ca´lculo aproxima-
do da segunda derivada.Tomando n = 3 em (1.1) com h e −h obtemos:
y(x+ h) = y(x) + hy′(x) +
h2
2!
y′′(x) +
h3
3!
y′′′(x) +
h4
4!
y(4)(ξ1)
e
y(x− h) = y(x)− hy′(x) + h
2
2!
y′′(x)− h
3
3!
y′′′(x) +
h4
4!
y(4)(ξ2).
Somando estas duas u´ltimas expresso˜es e isolando y′′(x) obtemos:
y′′(x) =
y(x+ h)− 2y(x) + y(x− h)
h2
− h
2
12
y(4)(ξ),
=
1
h2
δ2h
2
y(x)− h
2
12
y(4)(ξ).
onde ξ ∈ (x− h, x+ h). Neste caso,
F(x, h) = y(x+ h)− 2y(x) + y(x− h)
h2
, E(x, h) = −h
2
12
y(4)(ξ)
e a fo´rmula e´ de ordem 2.
Observac¸a˜o 1.2.2 O operador δ2h
2
deve ser interpretado como a composic¸a˜o do operador
δh
2
com ele mesmo. O leitor deve observar que nessa composic¸a˜o utilizamos o operador δ
com passo h2 . Isto e´ feito para evitar a utilizac¸a˜o de pontos muito distantes daquele em que a
derivada esta´ sendo aproximada. Observe tambe´m que δ2y(x) = ∆∇y(x), e que utilizaremos
as notac¸o˜es simplificadas δ2 = δ2h
2
e δ = δh
2
.
Outras expresso˜es podem ser obtidas considerando-se mais pontos. Por exemplo, a com-
binac¸a˜o linear
y′(x) = c1y(x+ h) + c2y(x) + c3y(x− h)
impo˜e, por expansa˜o em se´rie de Taylor em torno de x e por comparac¸a˜o dos termos de
mesma ordem em h, as seguintes condic¸o˜es sobre os coeficientes c1, c2 e c3:
c1 + c2 + c3 = 0
c1 − c3 = 1h
c1 + c3 = erro,
12 CAPI´TULO 1. CONCEITOS FUNDAMENTAIS
onde erro = coeficiente multiplicando a segunda derivada.
A soluc¸a˜o e´ simples quando c2 =
α
h , ou seja,
c1 = (1− α) 1
2h
, c3 = −(1 + α) 1
2h
, erro = −α
h
.
Assim
y′(x) =
1
2h
{(1− α)y(x + h) + 2αy(x) − (1 + α)y(x − h)} − αh
2
y′′(x)
− h
2
3!
y′′′(x) + 0(h3).
Note que apenas α = 0 fornece erro = O(h2), e nesse caso a fo´rmula resultante e´
a fo´rmula centrada. Os casos α = −1 e α = 1 , fornecem, respectivamente, as fo´rmulas
progressiva e regressiva. Essa te´cnica permite a construc¸a˜o das mais diversas fo´rmulas. Por
exemplo:
2hy′(x) = −3y(x) + 4y(x+ h)− y(x+ 2h) +O(h2).
2hy′(x) = 3y(x)− 4y(x− h) + y(x− 2h) +O(h2).
2hy′(x) = −y(x+ 2h) + 8y(x+ h)− 8y(x− h) + y(x− 2h) +O(h4).
O uso de operadores de diferenc¸as finitas e´ muito u´til para se obter aproximac¸o˜es de
ordem mais elevada para as derivadas. Com a intenc¸a˜o de ilustrar a importaˆncia dos op-
eradores na obtenc¸a˜o de fo´rmulas de diferenc¸as finitas, apresentamos a seguir a derivac¸a˜o
de algumas dessas fo´rmulas. Informac¸o˜es mais detalhadas podem ser obtidas, por exemplo,
em [Ames 1992] e [31].
Alguns desses operadores mais utilizados no contexto de diferenc¸as finitas sa˜o listados
abaixo:
Deslocamento Ey(x) = y(x+ h)
Derivada Dy(x) = y′(x)
Diferenc¸a Centrada δy(x) = y(x+ h2 )− y(x− h2 )
Operador Me´dia µy(x) = 12 (y(x +
h
2 ) + y(x− h2 ))
Diferenc¸a Progressiva ∆y(x) = y(x+ h)− y(x)
= (E − 1)y(x) =⇒ E = 1 +∆.
(1.3)
Pela fo´rmula de Taylor tem-se
Ey(x) = (1 + hD +
h2
2
D2 + · · ·)y(x) = ehDy(x) (1.4)
logo, formalmente podemos escrever:
hD = lnE = ln(1 + ∆). (1.5)
1.2. APROXIMAC¸O˜ES DE DERIVADAS POR DIFERENC¸AS FINITAS 13
Utilizando agora a expansa˜o em se´rie de Taylor da func¸a˜o ln(1+x) = x− 12x2+ 13x3−· · ·,
va´lida para |x| < 1, podemos definir o operador ln(1 + ∆) como:
ln(1 + ∆)y(x) = (∆− 1
2
∆2 +
1
3
∆3 − · · ·)y(x).
Assim a equac¸a˜o (1.5) pode ser reescrita na forma:
hy′(x) = (∆− 1
2
∆2 +
1
3
∆3 − · · ·)y(x)
constituindo-se numa fo´rmula que expressa a primeira derivada de uma func¸a˜o em termos
de suas diferenc¸as progressivas. Portanto, aproximac¸o˜es de qualquer ordem podem ser obti-
das considerando-se na se´rie acima o nu´mero adequado de termos, pagando-se o prec¸o do
aumento do nu´mero de pontos envolvidos na fo´rmula.Por exemplo uma aproximac¸a˜o de
ordem 2, que utiliza treˆs pontos, e´ obtida considerando-se apenas os 2 primeiros termos da
soma. Observe o desenvolvimento abaixo:
hy′(x) =
(
∆− 1
2
∆2
)
y(x)
= y(x+ h)− y(x)− 1
2
(y(x+ 2h)− y(x+ h)− y(x+ h) + y(x))
= −1
2
y(x+ 2h) + 2y(x+ h)− 3
2
y(x).
que utiliza treˆs pontos, para aproximar a derivada.
Outras fo´rmulas que podem ser obtidas pela manipulac¸a˜o de operadores sa˜o:
hy′(x+ h) = (∆ +
1
2
∆2 − 1
6
∆3 + · · ·)y(x) (1.6)
h2y′′(x) = (∆2 −∆3 + 11
12
∆4 − 5
6
∆5 + · · ·)y(x) (1.7)
h2y′′(x+ h) = (∆2 − 1
12
∆4 +
1
12
∆5 + · · ·)y(x) (1.8)
hy′(x) = µ(δ − 1
6
δ3 +
1
30
δ5 − · · ·)y(x) (1.9)
e
h2y′′(x) = (δ2 − 1
12
δ4 +
1
90
δ6 − 1
560
δ8 + · · ·)y(x). (1.10)
Observac¸a˜o 1.2.3 E´ importante notar que, na pra´tica, os valores da func¸a˜o efetivamente
utilizados numa fo´rmula, para cada ponto da malha, na˜o sera˜o os valores exatos e sim val-
ores calculados. Dessa forma ale´m do erro de truncamento dessa fo´rmula estara˜o tambe´m
presentes, os erros de arredondamento do computador. Consequentemente, quando aprox-
imamos uma equac¸a˜o diferencial, as derivadas sa˜o substitu´ıdas por aproximac¸o˜es como as
14 CAPI´TULO 1. CONCEITOS FUNDAMENTAIS
que podem ser deduzidas a partir de (1.6), (1.7), (1.8), (1.9) e (1.10) mas com os valores
efetivamente calculados, ou seja,
hy′(xi) ≃ yi+1 − yi
hy′(xi) ≃ yi − yi−1
2hy′(xi) ≃ yi+1 − yi−1
e
h2y′′(xi) ≃ yi+1 − 2yi + yi−1,
onde yi e´ uma aproximac¸a˜o de y(xi).
Generalizac¸a˜o Para Duas Varia´veis
A generalizac¸a˜o para mais de uma varia´vel e´ bastante simples. Como ilustrac¸a˜o vamos
tratar o caso de duas varia´veis x e t. Considere uma malha no plano x − t como sendo o
conjunto de pontos (xi, tj) = (x0+ ih, t0+ jk), portanto com espac¸amento h em x e k em t.
As diferenc¸as finitas ja´ obtidas em uma dimensa˜o podem agora ser utilizadas em cada
varia´vel para gerar aproximac¸o˜es para as derivadas parciais de uma func¸a˜o de va´rias varia´veis.
Assim, temos as seguintes fo´rmulas: progressiva
ut(x, t) =
u(x, t+ k)− u(x, t)
k
− k
2
utt(x, ζ)
=
1
k
∆tu(x, t)− k
2
utt(x, ζ) (t < ζ < t+ k) (1.11)
regressiva
ut(x, t) =
u(x, t)− u(x, t− k)
k
+
k
2
utt(x, ζ)
=
1
k
∇tu(x, t) + k
2
utt(x, ζ), (t− k < ζ < t) (1.12)
central
ux(x, t) =
u(x+ h, t)− u(x− h, t)
2h
− h
2
6
uxxx(ξ, t)
=
1
2h
δxu(x, t)− h
2
6
uxxx(ξ, t), (x − h < ξ < x+ h)
uxx(x, t) =
u(x+ h, t)− 2u(x, t) + u(x− h, t)
h2
− h
2
12
uxxxx(ξ, t)
=
1
h2
δ2xu(x, t)−
h2
12
uxxxx(ξ, t), (x− h < ξ < x+ h) (1.13)
1.3. PROBLEMA DE VALOR INICIAL EM EQUAC¸O˜ES ORDINA´RIAS 15
utt(x, t) =
u(x, t+ k)− 2u(x, t) + u(x, t− k)
k2
− k
2
12
utttt(x, ζ)
=
1
k2
δ2t u(x, t)−
k2
12
utttt(x, ζ), (t− h < ζ < t+ h)
uxt(x, t) =
u(x+ h, t+ k)− u(x+ h, t− k)− u(x− h, t+ k) + u(x− h, t− k)
4hk
− h
2
6
uxxxt(ξ1, ζ1)− k
2
6
uxttt(ξ2,ζ2) x− h < ξ1,ξ2 < x+ h, e
t− k < ζ1,ζ2 < t+ k,
onde denotamos por ut(x, t) a derivada parcial da func¸a˜o u com relac¸a˜o a t e por ∆tu(x, t)
a diferenc¸a progressiva de u na varia´vel t.
1.3 Problema de Valor Inicial em Equac¸o˜es Ordina´rias
Uma equac¸a˜o diferencial na qual a varia´vel dependente e´ func¸a˜o de apenas uma varia´vel, e´
dita equac¸a˜o diferencial ordina´ria. Se mais de uma varia´vel independente esta´ presente enta˜o
teremos uma equac¸a˜o diferencial parcial, como ja´ haviamos dito oportunamente. A teoria
das equac¸o˜es parciais e´ consideravelmente mais complexa do que a das equac¸o˜es ordina´rias.
Essa observac¸a˜o e´ um tanto mais verdadeira no contexto do tratamento nume´rico, uma vez
que a presenc¸a de um nu´mero maior de varia´veis introduz maior chance de erro. O tema
principal deste texto e´ o estudo das equac¸o˜es parciais, no entanto, por razo˜es dida´ticas, os
conceitos fundamentais sera˜o apresentados no contexto das equac¸o˜es diferenciais ordina´rias.
Um problema de valor inicial (PVI) e´ um problema de evoluc¸a˜o, no qual a informac¸a˜o
inicial (conhecida), e´ propagada para o interior do domı´nio pela equac¸a˜o diferencial.
Matematicamente, o mais simples dos problemas de valor inicial pode ser apresentado
na forma:
y′ = f(x, y) (1.14)
y(a) = α,
onde f : IR2 → IR e´ uma func¸a˜o cont´ınua. A func¸a˜o y = y(x) (x ≥ a) e´ a soluc¸a˜o e α e´ o
valor inicial em a. Equac¸o˜es ordina´rias de ordem mais alta podem sempre ser transformadas
nessa forma, desde que estejamos preparados para admitir que y seja um vetor. Por exemplo,
a equac¸a˜o de segunda ordem,
y′′ = f(x, y, y′) (1.15)
y(a) = α, y′(a) = β,
com soluc¸a˜o y(x) e os valores iniciais α e β dados no ponto a, pode ser reescrita na forma
vetorial fazendo:
y′ = v, y(a) = α
v′ = f(x, y, v), v(a) = β.
16 CAPI´TULO 1. CONCEITOS FUNDAMENTAIS
Considerando Y =
(
y
v
)
e γ =
(
α
β
)
o problema acima transforma-se na equac¸a˜o
vetorial de primeira ordem
Y ′ = F (x, Y ),
Y (a) = γ
onde
F (x, Y ) =
(
v
f(x, y, v)
)
.
Um ponto fundamental na resoluc¸a˜o de uma equac¸a˜o diferencial, diz respeito a` existeˆncia
e unicidade de soluc¸o˜es. Por princ´ıpio, so´ tem sentido a soluc¸a˜o nume´rica de um problema
quando este tem soluc¸a˜o. Pode-se ainda argumentar que para determinarmos a soluc¸a˜o
nume´rica de um problema esta deveria ser u´nica, pois caso contra´rio o processo nume´rico
poderia ficar indeciso sobre qual soluc¸a˜o perseguir. No caso de um problema de valor inicial
de equac¸o˜es ordina´rias esta dificuldade esta´ bem resolvida.
Vamos supor que a func¸a˜o f(x, y) satisfaz as seguintes condic¸o˜es:
1. f : E → IRn e´ cont´ınua, onde E = {(x, y), x ∈ [a, b], y ∈ IRn};
2. existe uma constante L tal que para todo x ∈ [a, b] e quaisquer dois vetores y e y∗ em
IRn
|f(x, y)− f(x, y∗)| ≤ L|y − y∗|. (1.16)
Neste caso dizemos que a func¸a˜o f satisfaz a condic¸a˜o de Lipschitz na varia´vel y.
Teorema 1.1 (Existeˆncia e Unicidade-Teorema de Picard) Seja f(x, y) satisfazendo
as condic¸o˜es acima e seja α um vetor dado. Enta˜o, existe exatamente uma func¸a˜o y(x) com
as seguintes propriedades:
i) y = y(x) e´ cont´ınua e diferencia´vel para x em [a, b];
ii) y′(x) = f(x, y(x)), x ∈ [a, b];
iii) y(a) = α.
Para a prova ver [Coddington 1955].
Exemplos de Me´todos Nume´ricos
Euler em 1768, usando diferenc¸as progressivas, desenvolveu uma aproximac¸a˜o para (1.14),
que posteriormente descobriu-se tratar-se de um me´todo nume´rico pertencente a` classe dos
me´todos de passo mu´ltiplo. Esse me´todo e´ hoje conhecido como Me´todo de Euler. Sua
deduc¸a˜o segue os passos abaixo, acompanhe: O intervalo [a, b] e´ dividido em N partes
iguais, cada uma de comprimento h, formando um conjunto discreto, com x0 = a e xN = b,
Rh = {xi = a+ ih, i = 0, 1, 2, . . . , N}. Aqui h = (b − a)/N .
Sejam yi ≈ y(xi) aproximac¸o˜es para y(xi), i = 1, 2, . . .N e y0 = α. Em cada um dos
pontos x0, x1, . . . , xN−1, aproximamos a equac¸a˜o diferencial (1.14) por
1.3. PROBLEMA DE VALOR INICIAL EM EQUAC¸O˜ES ORDINA´RIAS 17
∆yi =
yi+1 − yi
h
= f(xi, yi), i = 0, 1, . . . , N − 1
ou,
yi+1 − yi = hf(xi, yi), i = 0, 1, . . . , N − 1.
Este e´ o me´todo de Euler que e´ um me´todo expl´ıcito. Note que o valor de yi+1 e´ calculado
explicitamente em func¸a˜o de yi, mesmo quando a func¸a˜o f e´ na˜o linear. Se no lugar de ∆
fosse usado ∇ ter´ıamos a versa˜o impl´ıcita do Me´todo de Euler:
∇yi = yi − yi−1
h
= f(xi, yi), i = 1, . . . , N
ou,
yi+1 − yi = hf(xi+1, yi+1), i = 0, 1, . . . , N − 1. (1.17)
Note que no caso em que f e´ na˜o linear, a equac¸a˜o (1.17) define o vetor yi+1 implicitamente
e portanto seu ca´lculo exige a utilizac¸a˜o de me´todos para a soluc¸a˜o de sistemas de equac¸o˜es
alge´bricas na˜o lineares, como por exemplo, o me´todo das aproximac¸o˜essucessivas ou o
me´todo de Newton.
Observe tambe´m que a equac¸a˜o diferencial no processo de discretizac¸a˜o, foi substitu´ıda
por uma outra equac¸a˜o chamada equac¸a˜o de diferenc¸as que tem sua pro´pria soluc¸a˜o inde-
pendente daquela da equac¸a˜o diferencial. Assim o me´todo nume´rico sera´ considerado eficaz
se a soluc¸a˜o da equac¸a˜o de diferenc¸as tiver comportamento similar ao da soluc¸a˜o da equac¸a˜o
diferencial. Para mais informac¸o˜es sobre equac¸o˜es de diferenc¸as, ver [18].
Exemplo 1.3.1 Considere o PVI,
y′ = −y + x
y(0) = 1 (1.18)
cuja soluc¸a˜o exata e´ y(x) = x− 1 + 2e−x, de onde obtemos:
y(0.1) = 0.9097 y(0.3) = 0.7816 y(0.5) = 0.7131 y(0.7) = 0.6932 y(0.9) = 0.7131
y(0.2) = 0.8375 y(0.4) = 0.7406 y(0.6) = 0.6976 y(0.8) = 0.6986 y(1.0) = 0.7357.
A func¸a˜o f e´ dada por: f(x, y) = −y+ x e, portanto o me´todo de Euler expl´ıcito toma
a forma:
yi+1 = yi + h(−yi + xi).
Tomando h = 0.2, encontraremos uma soluc¸a˜o aproximada em [0, 1] resolvendo a equac¸a˜o
de diferenc¸as:
yi+1 = yi − 0.2yi + 0.2xi ou seja yi+1 = 0.8yi + 0.2xi,
cuja soluc¸a˜o para n = 1, 2, . . . , 5 e´:
y0 = 1.0 = y(0.0) (condic¸a˜o inicial)
y1 = 0.8y0 + 0.2x0 = 0.8000 ≃ y(0.2)
y2 = 0.8y1 + 0.2x1 = 0.6800 ≃ y(0.4)
y3 = 0.8y2 + 0.2x2 = 0.6240 ≃ y(0.6)
y4 = 0.8y3 + 0.2x3 = 0.6192 ≃ y(0.8)
y5 = 0.8y4 + 0.2x4 = 0.6554 ≃ y(1.0).
18 CAPI´TULO 1. CONCEITOS FUNDAMENTAIS
Tomando h = 0.1, obtemos um problema semelhante, mas com 10 valores de y para serem
calculados. Um procedimento ana´logo produz as aproximac¸o˜es:
y1 = 0.9000 y3 = 0.7580 y5 = 0.6810 y7 = 0.6570 y9 = 0.6748
y2 = 0.8200 y4 = 0.7122 y6 = 0.6629 y8 = 0.6609 y10 = 0.6974.
Note que quando h = 0.1 calculamos a aproximac¸a˜o em um nu´mero maior de pontos e
portanto devemos tomar o cuidado de comparar as aproximac¸o˜es para h = 0.2 e h = 0.1 nos
mesmos pontos, por exemplo a aproximac¸a˜o y1 obtida com h = 0.2 deve ser comparada com
a aproximac¸a˜o y2 do passo h = 0.1 e assim por diante. Vemos assim que a soluc¸a˜o obtida
com h = 0.1 e´ melhor que aquela para h = 0.2, isto ocorre porque a equac¸a˜o de diferenc¸as
para h = 0.1 representa a equac¸a˜o diferencial de maneira mais fiel do que para h = 0.2.
O me´todo de Euler impl´ıcito para o problema (1.18) e´ dado pela equac¸a˜o de diferenc¸as:
yi+1 = yi + h(−yi+1 + xi+1),
donde yi+1 =
1
1+h (yi + hxi+1) fornece os seguintes valores para h = 0.1,
y1 = 0.9182 y3 = 0.8026 y5 = 0.7418 y7 = 0.7263 y9 = 0.7482
y2 = 0.8529 y4 = 0.7660 y6 = 0.7289 y8 = 0.7330 y10 = 0.7711.
A figura 1.1 ilustra o comportamento dos me´todos de Euler expl´ıcito e impl´ıcito compara-
dos com a soluc¸a˜o exata. Observamos que o me´todo expl´ıcito erra por falta, ja´ o impl´ıcito o
faz por excesso.
E´ natural, portanto, considerarmos a combinac¸a˜o linear desses dois me´todos, com o ob-
jetivo de que os erros se cancelem e possamos obter uma melhor aproximac¸a˜o. Por exemplo,
uma combinac¸a˜o linear e´ a me´dia aritme´tica, que fornece o Me´todo dos Trape´zios, tambe´m
conhecido como Regra dos Trape´zios:
yi+1 − yi = h
2
(f(xi, yi) + f(xi+1, yi+1)), i = 0, 1, . . . , N − 1.
tambe´m impl´ıcito e que, para o PVI em questa˜o, produz:
y1 = 0.9095 y3 = 0.7816 y5 = 0.7130 y7 = 0.6926 y9 = 0.7125
y2 = 0.8372 y4 = 0.7402 y6 = 0.6970 y8 = 0.6981 y10 = 0.7351.
O me´todo dos trape´zios e´ claramente mais preciso que ambos os me´todos anteriores,
conforme pode ser observado na figura 1.2.
1.3.1 Convergeˆncia
Seja y(xn) a soluc¸a˜o exata do PVI (1.14) no ponto xn e yn uma aproximac¸a˜o obtida
por um me´todo nume´rico para essa soluc¸a˜o.
Definic¸a˜o 1.1 O erro global no ponto xn e´ definido por:
en = y(xn)− yn.
1.3. PROBLEMA DE VALOR INICIAL EM EQUAC¸O˜ES ORDINA´RIAS 19
0 0.2 0.4 0.6 0.8 1
0.4
0.6
0.8
1
1.2
* Euler Implicito
x Solucao Exata
+ Euler Explicito
 x
 
y
Figura 1.1: Soluc¸a˜o do problema (1.18) pelos me´todos de Euler Expl´ıcito e
Impl´ıcito com h = 0.1
A ana´lise do erro global nos permite estabelecer a convergeˆncia de um me´todo. Esta e´
uma propriedade muito deseja´vel para um me´todo nume´rico, pois ela ira´ nos garantir que
ao refinarmos a malha o resultado nume´rico se torna mais pro´ximo do resultado exato. A
definic¸a˜o formal de convergeˆncia e´ a seguinte:
Definic¸a˜o 1.2 Dizemos que um me´todo nume´rico e´ convergente se o erro global en converge
para zero quando n tende para infinito de maneira que o ponto xn permanec¸a fixo.
Isto quer dizer que a convergeˆncia esta´ sendo analisada no ponto xn = a+nh e para que
este ponto permanec¸a fixo, a quantidade nh deve permanecer fixa, portanto se n tende para
infinito necessariamente h deve tender a zero, ou seja, a malha esta´ sendo refinada para cada
novo valor de n da sequeˆncia. E´ poss´ıvel verificar a convergeˆncia de um me´todo nume´rico
diretamente a partir de sua definic¸a˜o, como faremos a seguir para o me´todo dos trape´zios.
No entanto esta e´ uma maneira muito trabalhosa e e´ enta˜o prefer´ıvel fazeˆ-lo indiretamente
utilizando os conceitos de consisteˆncia e zero-estabilidade.
Ana´lise da convergeˆncia do me´todo dos trape´zios
A equac¸a˜o de diferenc¸as para o me´todo dos trape´zios e´:
yn+1 = yn +
h
2
[f(xn, yn) + f(xn+1, yn+1)]
20 CAPI´TULO 1. CONCEITOS FUNDAMENTAIS
0 0.2 0.4 0.6 0.8 1
0.4
0.6
0.8
1
1.2
x Solucao Exata
+ Regra dos Trapezios
x
y
Figura 1.2: Soluc¸a˜o do problema (1.18) pelo me´todo dos trape´zios com h = 0.1
e a equac¸a˜o de diferenc¸as para a soluc¸a˜o exata, utilizando a se´rie de Taylor e´:
y(xn+1) = y(xn) +
h
2
[f(xn, y(xn)) + f(xn+1, y(xn+1))]− h
3
12
y′′′(ξ).
Subtraindo a primeira equac¸a˜o da segunda obtemos a seguinte relac¸a˜o para o erro global
en:
en+1 = en +
h
2
[f(xn, y(xn))− f(xn, yn) + f(xn+1, y(xn+1))− f(xn+1, yn+1)]− h
3
12
y′′′(ξ).
Tomando o valor absoluto e utilizando a condic¸a˜o de Lipschitz de f , equac¸a˜o (1.16), obtemos
a desigualdade:
|en+1| ≤ |en|+ h
2
(L|en|+ L|en+1|) + h
3
12
|y′′′(ξ)|.
Supondo agora que |y′′′(x)| e´ limitada por 12M no intervalo de interesse, a desigualdade
acima transforma-se em:
(1− hL
2
)|en+1| ≤ (1 + hL
2
)|en|+ h3M.
Admitindo que h seja suficientemente pequeno de forma que (1−hL2 ) > 0, podemos reescrever
1.3. PROBLEMA DE VALOR INICIAL EM EQUAC¸O˜ES ORDINA´RIAS 21
a expressa˜o acima como:
|en+1| ≤
(
1 + hL2
1− hL2
)
|en|+ h
3M
1− hL2
.
E´ poss´ıvel mostrar por induc¸a˜o sobre n (ver exerc´ıcio (1.8)) que a soluc¸a˜o ξn da equac¸a˜o de
diferenc¸as
ξn+1 = Aξn +B, com A =
1 + hL2
1− hL2
e B =
h3M
1− hL2
(1.19)
domina o erro |en|, isto e´ |en| ≤ ξn.
A soluc¸a˜o geral de (1.19) e´:
ξn =
h2M
L
[(
1 + hL2
1− hL2
)n
− 1
]
. (1.20)
Reescrevendo o termo 1+hL2 na forma 1−hL2 +hL, substituindo no quociente entre pareˆnteses
da expressa˜o (1.20) e simplificando os fatores comuns, esse quociente transforma-se em:
1 + h
(
L
1− hL2
)
.
Utilizando agora o fato que 1 + x ≤ ex para x ≥ 0, podemos escrever:(
1 + hL2
1− hL2
)n
=
(
1 + h
(
L
1− hL2
))n
≤ enh
(
L
1−hL
2
)
e portanto a expressa˜o (1.20) transforma-se na desigualdade:
ξn ≤ h
2M
L
(
e
nh
(
L
1−hL
2
)
− 1
)
.
Lembrando que xn = a+ nh e portanto nh = xn − a a expressa˜o acima torna-se:
ξn ≤ h
2M
L
(
e
(xn−a)
(
L
1−hL
2
)
− 1
)
.
Como |en| ≤ ξn obtemos o resultado final na forma:
|en| ≤ h
2M
L
(
e
(xn−a)
(
L
1−hL
2
)
− 1
)
. (1.21)
22 CAPI´TULO 1. CONCEITOS FUNDAMENTAIS
Tomando n tendendo para infinito, ou equivalentemente h tendendo para zero, vemos que
|en| tende para zero com ordem O(h2), pois o termo entre pareˆnteses tende para eL(x−a)−1
quando h → 0, onde x (fixo) e´ o ponto onde estamos analisando a convergeˆncia. Agora, o
termo eL(x−a) − 1 e´ limitadoindependentemente de h, o que demonstra a convergeˆncia da
regra dos trape´zios.
Exemplo 1.3.2 Apresentamos a seguir um exemplo ilustrando o fato de que o limitante
para o erro global obtido em (1.21) e´ em geral bastante conservador. Consideremos o PVI:
y′ = −2y, y(0) = 1 , 0 ≤ x ≤ 1.
cuja soluc¸a˜o e´: y(x) = e−2x. Resolvendo esse problema pela regra dos trape´zios com
h = 0.1 e com h = 0.01 obtemos os seguintes valores para o erro global ma´ximo: emax =
0.00123160912 no primeiro caso e emax = 0.0000122631795 no segundo. Por outro lado, cal-
culando o limitante do erro global atrave´s da fo´rmula (1.21), obtemos os valores 0.005727606
e 0.00005727606 respectivamente para h = 0.1 e h = 0.01. Comparando esses valores, vemos
que o limitante e´ 5 vezes o erro verdadeiro.
Note que o conceito de convergeˆncia aqui definido na˜o e´ de aplicac¸a˜o pra´tica direta, pois
para calcular o erro global precisamos da soluc¸a˜o exata que na˜o esta´ dispon´ıvel. Portanto
para testar na pra´tica a convergeˆncia de um me´todo nume´rico, resolve-se o problema para
va´rios valores decrescentes de h e observa-se se a sequeˆncia assim obtida esta´ se aproxi-
mando de algum valor fixado, ou seja testa-se, de maneira emp´ırica, se essa sequeˆncia e´ de
Cauchy e portanto convergente. No entanto, o fato da sequeˆncia ser convergente na˜o implica
que ela converge para um limite que e´ a soluc¸a˜o da equac¸a˜o diferencial. Assim, algumas
questo˜es pra´ticas relacionadas ao conceito de convergeˆncia merecem ser salientadas, como
por exemplo:
• Havendo convergeˆncia no sentido pra´tico, a soluc¸a˜o nume´rica obtida representa a
soluc¸a˜o do problema?
• A discretizac¸a˜o nume´rica introduz alguma caracter´ıstica (“ru´ıdo”) que na˜o esta´ pre-
sente na equac¸a˜o original? Neste caso e´ este ru´ıdo controla´vel ou na˜o?
• Qua˜o ra´pida e´ a convergeˆncia?
As respostas a essas perguntas esta˜o associadas aos conceitos de Consisteˆncia, Zero
Estabilidade e Ordem de Convergeˆncia que estudaremos logo a seguir.
Consisteˆncia
Parece natural admitir-se que a soluc¸a˜o nume´rica aproxime a soluc¸a˜o teo´rica do problema
em estudo. No entanto, este na˜o e´ sempre o caso pois a equac¸a˜o de diferenc¸as tem vida
pro´pria e portanto sua pro´pria soluc¸a˜o, que na˜o necessariamente guarda relac¸a˜o alguma com
a soluc¸a˜o do problema original, a menos que assim seja explicitamente exigido desta equac¸a˜o
de diferenc¸as. Essa propriedade, chamada consisteˆncia, e´ imposta a` equac¸a˜o de diferenc¸as e
“amarra-a” a` equac¸a˜o diferencial. Inversamente, a soluc¸a˜o do problema cont´ınuo na˜o e´, em
geral, soluc¸a˜o da equac¸a˜o de diferenc¸as e o erro cometido ao substituirmos a soluc¸a˜o exata
na equac¸a˜o de diferenc¸as e´ chamado de erro de truncamento local. Se o erro de truncamento
1.3. PROBLEMA DE VALOR INICIAL EM EQUAC¸O˜ES ORDINA´RIAS 23
local e´ de O(hp), com p ≥ 1 dizemos que esse me´todo tem ordem de consisteˆncia p, ou
simplesmente que esse me´todo e´ de ordem p.
O erro de truncamento local pode tambe´m ser interpretado como o erro cometido ao
calcularmos a soluc¸a˜o num ponto xi+1 sem levar em considerac¸a˜o os erros dos passos ante-
riores, isto e´, levando em conta somente o erro cometido no passo atual. Para o me´todo de
Euler, suponha que ate´ o ponto xi todos os ca´lculos foram executados exatamente e que o
valor em xi+1 devera´ ser aproximado atrave´s do me´todo nume´rico. Essa aproximac¸a˜o tera´
enta˜o erro de truncamento local τi+1, dado por:
y(xi+1)− y(xi)
h
= f(xi, y(xi)) + τi+1
m
y′(xi)− h
2
y′′(ξ) = f(xi, y(xi)) + τi+1
Podemos interpretar ainda o erro de truncamento local como aquele erro introduzido ao
substituirmos a equac¸a˜o diferencial por uma equac¸a˜o de diferenc¸as. Portanto, para o me´todo
de Euler com h → 0 a equac¸a˜o de diferenc¸as aproxima-se da equac¸a˜o diferencial com erro
de truncamento local τi+1 = −h2 y′′(ξ), ou seja, com ordem O(h). Dizemos que o me´todo
de Euler e´ consistente de ordem 1. Analogamente, o me´todo dos trape´zios e´ consistente de
ordem 2, porque o seu erro e´ O(h2).
O erro global e´ formado pela acumulac¸a˜o dos erros de truncamento local a cada passo
juntamente com os erros de arredondamento. Portanto a ordem de consisteˆncia de um
me´todo esta´ relacionada com sua ordem de convergeˆncia. Essa ordem e´ um indicativo da
velocidade com que se da´ a convergeˆncia. Assim um me´todo com erro O(h2) deve convergir
mais rapidamente que outro com erro O(h). Isso significa, pelo menos teoricamente, que
para o mesmo tamanho de passo h um me´todo com ordem mais alta produz aproximac¸o˜es
mais precisas.
Zero Estabilidade
E´ poss´ıvel melhorar a ordem de consisteˆncia de um me´todo simplesmente aumentando-se
a quantidade de informac¸o˜es nas quais esse me´todo esta´ baseado. Por exemplo a fo´rmula
do ponto me´dio que utiliza 3 pontos,
yi+1 − yi−1 = 2hf(xi, yi), i = 1, 2, . . . , N − 1
ou equivalentemente,
yi+2 − yi = 2hf(xi+1, yi+1), i = 0, 1, . . . , N − 2
tem ordem de consisteˆncia 2, e a fo´rmula impl´ıcita
3yi+2 − 4yi+1 + yi = 2hf(xi+2, yi+2), i = 0, 1, . . . , N − 2. (1.22)
tambe´m tem ordem de consisteˆncia 2.
No entanto, como veremos, ao aumentarmos a quantidade de informac¸a˜o utilizada au-
mentamos tambe´m a possibilidade de algo dar errado. Na argumentac¸a˜o abaixo, tentare-
mos convencer o leitor da necessidade de uma ana´lise mais detalhada das propriedades das
24 CAPI´TULO 1. CONCEITOS FUNDAMENTAIS
equac¸o˜es de diferenc¸as com o objetivo de esclarecer onde e como esse “algo” pode dar er-
rado. Acompanhe a ana´lise dos exemplos acima, onde estamos aproximando uma equac¸a˜o
diferencial de primeira ordem por uma equac¸a˜o de diferenc¸as de segunda ordem, ou seja,
uma equac¸a˜o que relaciona 3 valores consecutivos. Similarmente a`s equac¸o˜es diferenciais,
uma soluc¸a˜o da equac¸a˜o de diferenc¸as de segunda ordem e´ uma combinac¸a˜o linear de duas
soluc¸o˜es ba´sicas. De forma que, enquanto a equac¸a˜o diferencial tem apenas uma soluc¸a˜o
ba´sica (no caso em que y ∈ IR) a equac¸a˜o de diferenc¸as tem duas distintas. Assim, essas duas
soluc¸o˜es na˜o podem convergir para a soluc¸a˜o do problema, ao mesmo tempo. A soluc¸a˜o que
na˜o converge para a soluc¸a˜o exata e´ denominada soluc¸a˜o espu´ria a` qual na˜o e´ permitido
crescer de maneira ilimitada, sob pena de inviabiliziar a aplicac¸a˜o do me´todo. O efeito das
soluc¸o˜es espu´rias na soluc¸a˜o nume´rica e´, comumente, o aparecimento de oscilac¸o˜es. Quando
o me´todo e´ razoa´vel essas oscilac¸o˜es decrescem com a evoluc¸a˜o, o que significa que as soluc¸o˜es
espu´rias decaem para zero a` medida que i cresce. Um primeiro teste para esta condic¸a˜o de
decaimento e´ feito para o caso em que f(x, y) = 0, impondo que a soluc¸a˜o do me´todo deva
oscilar em torno de uma constante. Se o me´todo e´ razoa´vel, as oscilac¸o˜es se dissipam e o
me´todo e´ dito ser zero-esta´vel; caso contra´rio as oscilac¸o˜es sa˜o amplificadas prejudicando a
convergeˆncia.
Definic¸a˜o 1.3 A condic¸a˜o necessa´ria para um me´todo ser zero-esta´vel e´ que as soluc¸o˜es
ba´sicas da equac¸a˜o de diferenc¸as associada, considerando f(x, y) = 0, sejam limitadas.
As soluc¸o˜es ba´sicas da equac¸a˜o de diferenc¸as sa˜o dadas pelas ra´ızes do polinoˆmio caracte-
r´ıstico a ela associado. Por exemplo, a fo´rmula do ponto me´dio, yi+2−yi = 0 tem polinoˆmio
caracter´ıstico ρ(z) = z2 − 1 = 0, cujas ra´ızes sa˜o 1 e −1, e as soluc¸o˜es ba´sicas, ϕ e ψ, dadas
por ϕn = (1)
n e ψn = (−1)n, n = 1, 2, . . . Ja´ a fo´rmula 3yi+2−4yi+1+yi = 0 tem polinoˆmio
caracter´ıstico ρ(z) = 3z2 − 4z + 1 = 0, cujas ra´ızes sa˜o 1 e 13 , e as soluc¸o˜es ba´sicas, ϕ e ψ,
dadas por ϕn = (1)
n e ψn = (
1
3 )
n, n = 1, 2, . . ..
Note que o comportamento dos dois me´todos e´ distinto; enquanto a fo´rmula do ponto
me´dio conserva a amplitude das oscilac¸o˜es, a fo´rmula (1.22) amortece-as. Como em nenhum
dos dois casos,as oscilac¸o˜es sa˜o amplificadas, isto e´, nenhuma das soluc¸o˜es ba´sicas cresce,
ambos os me´todos sa˜o zero-esta´veis.
As condic¸o˜es: consisteˆncia e zero-estabilidade sa˜o necessa´rias e suficientes para a con-
vergeˆncia de um me´todo [20].
Teorema 1.2 (Equivaleˆncia de Lax) No contexto de problema de valor inicial para
equac¸o˜es ordina´rias, um me´todo baseado em diferenc¸as finitas e´ convergente se e somente
se ele e´ consistente e zero-esta´vel.
E´ importante notar entretanto, que no caso de equac¸o˜es parciais, apesar de existir de-
terminada analogia, os resultados na˜o sa˜o suficientemente abrangentes, ou seja, sa˜o va´lidos
somente em alguns casos particulares. O teorema acima garante a convergeˆncia, mas na˜o
especifica a ordem de convergeˆncia. Como regra, pode-se dizer que a ordem de convergeˆncia
e´ a mesma da consisteˆncia.
Estabilidade
Os conceitos estudados ate´ aqui dizem respeito a h → 0. No entanto, quanto menor o
valor de h, tanto maior sera´ o nu´mero de ca´lculos que devera˜o ser efetuados para produzir
1.3. PROBLEMA DE VALOR INICIAL EM EQUAC¸O˜ES ORDINA´RIAS 25
uma soluc¸a˜o aproximada em determinado ponto x, fixado. Isto pode levar a um acu´mulo,
na˜o controlado, de erros e nesse caso dizemos que esse me´todo e´ na˜o esta´vel ou insta´vel.
A estabilidade (h fixo) e´ muito importante para problemas que exigem um nu´mero muito
grande de aplicac¸o˜es repetidas de um me´todo para obter a soluc¸a˜o em um dado intervalo.
Como em geral na˜o e´ poss´ıvel predizer o nu´mero de passos necessa´rios para obtenc¸a˜o da
soluc¸a˜o, e´ aconselha´vel que, por precauc¸a˜o, tenhamos um controle do comportamento do
erro, isto e´, um controle da propagac¸a˜o do erro. Na verdade, a escolha do tamanho h da
malha esta´ intimamente ligada a` estabilidade do me´todo, e e´ o paraˆmetro atrave´s do qual e´
poss´ıvel exercer esse controle. Podemos interpretar um me´todo nume´rico como uma ma´quina
de produzir nu´meros a partir de dados iniciais. Como esses dados iniciais conte´m sempre
erro (de arredondamento do computador por exemplo), se essa ma´quina tiver o defeito
de amplifica´-los, em pouco tempo o crescimento do erro dominara´ a soluc¸a˜o produzida pela
ma´quina e esta perdera´ seu significado. Vamos ilustrar essas ide´ias pela ana´lise, em paralelo,
de dois me´todos nume´ricos.
Considere os me´todos do ponto me´dio e do trape´zio
yi+2 − yi = 2hf(xi+1, yi+1), i = 0, 1, . . . , N − 2 (1.23)
yi+1 − yi = h
2
(f(xi, yi) + f(xi+1, yi+1)), i = 0, 1, . . . , N − 1. (1.24)
Substituindo a soluc¸a˜o exata nas expresso˜es (1.23-1.24) e considerando a definic¸a˜o de erro
de truncamento local obtemos:
y(xi+2)− y(xi) = 2hf(xi+1, y(xi+1)) + τi+2, i = 0, 1, . . . , N − 2 (1.25)
y(xi+1)− y(xi) = h
2
(f(xi, y(xi)) + f(xi+1, y(xi+1))) + τi+1, i = 0, 1, . . . , N − 1.
(1.26)
Considerando o erro global ei = y(xi)−yi podemos analisar seu comportamento derivando
uma equac¸a˜o que o represente. Na verdade, o erro global esta´ intimamente relacionado com
o erro de truncamento local, e em geral satisfaz uma equac¸a˜o de diferenc¸as obtida a partir
da expressa˜o do me´todo nume´rico. Por exemplo, subtraindo (1.25) de (1.23), tem-se, para
o me´todo do ponto me´dio:
ei+2 − ei = 2h(f(xi+1, y(xi+1))− f(xi+1, yi+1)) + τi+2
= 2hfy(xi+1, ζ)ei+1 + τi+2, i = 0, 1, . . . , N − 2. (1.27)
Aqui foi usado o teorema do valor me´dio e a notac¸a˜o ∂f/∂y = fy.
Analogamente, no caso do me´todo do Trape´zio, subtraindo-se (1.26) de (1.24) obte´m-se:
ei+1 − ei = h
2
(fy(xi, ζ1)ei + fy(xi+1, ζ2)ei+1) + τi+1, i = 0, 1, . . . , N − 1. (1.28)
As equac¸o˜es (1.27)-(1.28) sa˜o aquelas que determinam o erro global como func¸a˜o do erro
de trucamento local para os exemplos da regra do ponto me´dio e trape´zios.
Dessas considerac¸o˜es derivamos a motivac¸a˜o para o uso de uma equac¸a˜o teste para a
verificac¸a˜o da estabilidade. As equac¸o˜es (1.27) e (1.28) sugerem que o erro deve satisfazer
26 CAPI´TULO 1. CONCEITOS FUNDAMENTAIS
uma equac¸a˜o do tipo e′ = λe+ g, onde λ = 2hfy(xi+1, ζ) em (1.27) e λ tem uma expressa˜o
um pouco mais complicada no caso (1.28). Obviamente λ na˜o sera´ sempre constante, mas
essas expresso˜es nos motivam a definir a estabilidade, baseada no problema teste y′ = λy,
pois nesse caso, assumindo que o erro de truncamento local satisfaz τi = T , as equac¸o˜es
(1.27) e (1.28) se transformam, respectivamente, em:
ei+2 = 2hλei+1 + ei + T (1.29)
ei+1 = ei +
hλ
2
(ei+1 + ei) + T
que podem ser solucionadas, permitindo uma ana´lise detalhada do seu comportamento.
Essa ana´lise e´ feita para cada me´todo em separado, assim, por exemplo, no caso da regra
do ponto me´dio, como (1.29) e´ uma equac¸a˜o para o erro global, deseja-se que suas soluc¸o˜es
sejam decrescentes para que na˜o haja acu´mulo desse erro. Como ja´ sabemos as soluc¸o˜es
sera˜o combinac¸o˜es lineares de (ξ1)
n e (ξ2)
n onde ξ1 e ξ2 sa˜o as duas ra´ızes do polinoˆmio
π(r, hλ) = r2−2hλr−1 = 0, que e´ chamado de polinoˆmio de estabilidade da regra do ponto
me´dio. Portanto para que o erro seja decrescente precisamos impor a condic¸a˜o de que as
ra´ızes ξ1 e ξ2 tenham mo´dulo menor que 1. Observe que essas ra´ızes sa˜o func¸o˜es de hλ e
portanto a regia˜o do plano complexo h¯ = hλ para a qual essas ra´ızes esta˜o no disco unita´rio
e´ chamada de regia˜o de estabilidade absoluta do me´todo.
O estudo da estabilidade esta´ relacionado com o crescimento ou na˜o do erro global
quando o nu´mero de aplicac¸o˜es do me´todo nume´rico aumenta, mantendo-se o passo h fixo.
Para simplificar a ana´lise, a estabilidade e´ verificada por meio da aplicac¸a˜o do me´todo a`
equac¸a˜o teste y′ = λy. Note que isso significa consideramos T = 0 em (1.29, termo que na˜o
influencia no crescimento de ei. A seguir apresentamos uma breve ana´lise da estabilidade
para os me´todos mais populares.
• Euler expl´ıcito ei+1 − ei = hλei ⇒ ei+1 = (1 + hλ)ei ⇒ estabilidade para
−2 ≤ hλ ≤ 0. Este me´todo e´ enta˜o condicionalmente esta´vel.
• Euler impl´ıcito ei+1 − ei = hλei+1 ⇒ ei+1 = 1(1−hλ)ei ⇒ estabilidade para hλ ≤ 0.
Este me´todo e´ considerado absolutamente esta´vel.
• Trape´zio ei+1 − ei = hλ2 (ei+1 + ei) ⇒ ei+1 =
(1+hλ
2
)
(1−hλ
2
)
ei ⇒ estabilidade para hλ ≤ 0.
Este me´todo e´ considerado absolutamente esta´vel.
• Ponto me´dio ei+2 − 2hλei+1 − ei = 0 ⇒ as ra´ızes sa˜o: ζ1,2 = hλ ±
√
1 + (hλ)2 e
teremos estabilidade para | ζ1,2 |< 1.
• Fo´rmula 3(1 + 2λh)ei+2 − 4ei+1 + ei = 0⇒ as ra´ızes sa˜o: ζ1,2 = 2±
√
1−6hλ
3+6hλ e teremos
estabilidade para | ζ1,2 |< 1.
Observac¸a˜o 1.3.1 Um me´todo absolutamente esta´vel permite qualquer tamanho de passo
h, enquanto um condicionalmente esta´vel impo˜e restric¸a˜o ao passo h.
Observac¸a˜o 1.3.2 Para -hλ crescente, o me´todo de Euler impl´ıcito apresenta amorteci-
mento e o do Trape´zio apresenta oscilac¸a˜o, pois o fator de amplificac¸a˜o do me´todo de Euler
1.3. PROBLEMA DE VALOR INICIAL EM EQUAC¸O˜ES ORDINA´RIAS 27
impl´ıcito e´
(1 − hλ)−1 → 0 e o do trape´zio e´ (1+hλ2 )
(1−hλ
2
)
→ −1 quando −hλ → ∞. Portanto, esses
me´todos sa˜o mais indicados, respectivamente, para problemas que apresentam soluc¸a˜o com
decaimento e para problemas com soluc¸a˜o perio´dica. No contexto das equac¸o˜es parciais, um
me´todo similar ao de Euler impl´ıcito seria adequado para equac¸o˜es parabo´licas e um similar
ao Trape´zio, mais adequado para equac¸o˜es hiperbo´licas (na forma de conservac¸a˜o).
Em resumo, nesta sec¸a˜o apresentamos os principais conceitos e delineamos as maiores
dificuldades dos me´todos nume´ricos e quais as ferramentas para diagnostica´-las. Na pra´tica
pore´m, podem acontecer dificuldades extras que sa˜o inerentes ao problema. Nesse caso,
me´todos esta´veis gerais podem na˜o ser robustos o suficiente para fazer frente ao problema
e e´ recomenda´vel a construc¸a˜o de me´todos especiais, produzidos sob encomenda, que levemem conta a natureza do problema.
Exemplos
Nesta sec¸a˜o apresentamos exemplos nume´ricos ilustrando o efeito pra´tico de cada um dos
conceitos de consisteˆncia, zero-estabilidade e estabilidade.
Seja o PVI:
y′ = 4x
√
y, y(0) = 1, 0 ≤ x ≤ 2.
cuja soluc¸a˜o exata e´ y(x) = (1 + x2)2. Consideremos primeiramente a soluc¸a˜o desse PVI
pelo seguinte me´todo expl´ıcito de 2 passos:
yn+2 = yn+1 +
h
3
(3fn+1 − 2fn) (1.30)
que e´ zero-esta´vel, mas na˜o e´ consistente, como pode ser facilmente testado, ver exerc´ıcio
(1.10).
Ilustrac¸a˜o da Consisteˆncia
x |Erro| |Erro| |Erro|
h = 0.1 h = 0.05 h = 0.025
0 0 0 0
0.1 0 5.07E-03 8.82E-03
0.2 2.11E-02 3.61E-02 4.50E-02
0.3 7.21E-02 9.76E-02 1.12E-01
0.4 1.57E-01 1.95E-01 2.15E-01
0.5 2.85E-01 3.34E-01 3.61E-01
...
...
...
...
2.0 1.82E+01 1.89E+01 1.92E+01
Como o me´todo e´ de dois passos necessitamos duas condic¸o˜es iniciais para comec¸ar o processo
de ca´lculo, tomamos y0 = 1 e y1 = y(h) = (1 + h
2)2. Note que quando o passo diminui o
erro em y(2) aumenta mas na˜o de maneira explosiva. A sequeˆncia de soluc¸o˜es nume´ricas
converge para uma func¸a˜o y(x) a` medida que h→ 0, mas como o me´todo na˜o e´ consistente,
essa func¸a˜o na˜o e´ soluc¸a˜o do PVI dado, e sim de um outro problema.
28 CAPI´TULO 1. CONCEITOS FUNDAMENTAIS
Nosso pro´ximo exemplo ilustra as consequeˆncias desastrosas da falta da zero-estabilidade.
Seja o me´todo nume´rico expl´ıcito de dois passos:
yn+2 = (1 + a)yn+1 − ayn + h
2
((3− a)fn+1 − (1 + a)fn) (1.31)
Veja o exerc´ıcio (1.10) para concluir que esse me´todo e´ zero-esta´vel para a = 0, mas na˜o o
e´ quando a = −5. Assim:
Ilustrac¸a˜o da Zero-Estabilidade
x |Erro| |Erro| |Erro| |Erro| |Erro| |Erro|
a = 0 a = −5 a = 0 a = −5 a = 0 a = −5
h = 0.1 h = 0.1 h = 0.05 h = 0.05 h = 0.025 h = 0.025
0 0 0 0 0 0 0
0.1 0 0 5.63E-05 2.50E-05 2.23E-05 2.8E-05
0.2 9.00E-04 4.00E-04 3.61E-04 4.42E-04 1.09E-04 1.65E-02
0.3 2.85E-03 1.14E-03 9.38E-04 1.03E-02 2.64E-04 1.01E+02
0.4 5.97E-0.3 6.73E-3 1.82E-03 2.50E-01 4.95E-04 6.29E+3
0.5 1.04E-02 3.04E-02 3.05E-03 5.99E+00 8.17E-04 3.93E+6
...
...
...
...
...
...
...
2.0 3.67E-01 6.96E+08 9.63E-02 5.46E+21 4.26E-02 3.41E+48
Observe que no caso a = 0 ao refinarmos a malha as aproximac¸o˜es produzidas ficam mel-
hores, mas o mesmo na˜o acontece com a = −5. No primeiro caso o me´todo e´ convergente e
no segundo na˜o.
Finalmente vamos exemplificar o efeito da estabilidade absoluta no comportamento da
soluc¸a˜o nume´rica de longo prazo. Para isso consideremos o PVI y′ = −10(y− 1)2 y(0) = 2
cuja soluc¸a˜o exata e´ y(x) = 1+1/(1+ 10x). Resolvemos esse problema utilizando o me´todo
de Simpson
yn+2 − yn = h
3
(fn+2 + 4fn+1 + fn)
com h = 0.1 que e´ impl´ıcito de dois passos, mas na˜o e´ absolutamente esta´vel, veja o exerc´ıcio
(1.10).
Observe o crescimento do erro ao longo do processo.
Ilustrac¸a˜o dos efeitos da estabilidade
x 0.5 1.0 1.5 2.0 2.5
|Erro| 2.96E-02 5.64E-02 4.58E-02 9.59E-02 2.68E-01
x 3.0 3.5 4.0 4.8 4.9
|Erro| 1.28E-01 3.02E-01 1.73E-01 9.79E-01 Complexo
Estamos utilizando a palavra complexo na u´ltima coluna significando que o resultado pro-
duzido pelo me´todo de Simpson e´ complexo. Isto ocorre porque, sendo o me´todo de Simpson
impl´ıcito, devemos resolver uma equac¸a˜o do segundo grau para determinar a soluc¸a˜o. Essa
equac¸a˜o e´ resolvida exatamente, resultando em ra´ızes complexas. Na pra´tica, a resoluc¸a˜o
exata, na˜o seria poss´ıvel e ter´ıamos que resolveˆ-la por um me´todo iterativo, que teria se´rios
problemas de convergeˆncia, dado que a equac¸a˜o na˜o possui soluc¸a˜o real.
1.4. PROBLEMA DE VALOR DE FRONTEIRA EM EQUAC¸O˜ES ORDINA´RIAS 29
1.4 Problema de Valor de Fronteira em Equac¸o˜es Or-
dina´rias
No problema de valor inicial (PVI), como visto, uma condic¸a˜o inicial se propaga passo
a passo. No caso do problema de segunda ordem, foi preciso fixarmos uma condic¸a˜o inicial
e tambe´m uma inclinac¸a˜o (a derivada da soluc¸a˜o), ambas no mesmo ponto veja (1.15).
Para um problema de valor de fronteira (PVF) em equac¸o˜es ordina´rias e´ preciso fixar
valores da soluc¸a˜o em 2 pontos distintos, o que significa que a soluc¸a˜o propaga a condic¸a˜o
inicial em x = a, na direc¸a˜o do valor fixado em x = b, e vice-versa. E´ intuitivo que isso nem
sempre e´ poss´ıvel, ou seja, a condic¸a˜o de existeˆncia e unicidade de soluc¸a˜o e´ mais complicada
nestes casos. Por exemplo,
y′′ + π2y = 0, y(0) = 0, y(1) = 1 na˜o tem soluc¸a˜o,
y′′ + π2y = 0, y(0) = 0, y(1) = 0 tem infinitas soluc¸o˜es.
Um dos PVFs mais simples e de alguma importaˆncia pra´tica pode ser colocado como:
Sejam quatro constantes a, b, α e β, com a < b, e uma equac¸a˜o diferencial de segunda
ordem
y′′ = f(x, y, y′), (1.32)
o problema consiste em encontrar uma func¸a˜o y(x) ∈ C2[a, b], satisfazendo (1.32) em
a < x < b, e as duas condic¸o˜es de fronteira:
y(a) = α y(b) = β. (1.33)
Teorema 1.3 (Existeˆncia e Unicidade) Se o PVF (1.32) com as condic¸o˜es de fronteira
(1.33) e´ tal que, para −∞ < a < b < ∞, com α e β constantes arbitra´rias; a func¸a˜o f e´
Lipschitziana com relac¸a˜o a`s varia´veis y e y′, fy e´ cont´ınua e satisfaz fy > 0 e ainda fy′ e´
limitada para a ≤ x ≤ b e −∞ < y <∞, enta˜o ele tem soluc¸a˜o u´nica. [4]
O problema a ser resolvido pode apresentar dificuldades inerentes se ele for mal condi-
cionado. Por exemplo, considere o problema:
y′′ + k2y = 2k2x, y(0) = 0, y(1) = 1,
cuja soluc¸a˜o geral e´: y(x) = c1 sen kx+ c2cos kx + 2x. Das condic¸o˜es de contorno tem-se
c2 = 0 e c1 = −2/ sen k. Para k = π, o problema na˜o tem soluc¸a˜o. Para k = π + ε, ε
pequeno, c1 = −2/ sen ε ≃ 2ε−1, ou seja, uma pequena variac¸a˜o nos dados do problema
implica em grande variac¸a˜o na soluc¸a˜o que passou a existir. O problema acima constitui um
exemplo de um problema mal posto, ou mal condicionado.
Note que instabilidade e´ uma dificuldade do me´todo nume´rico, enquanto mal condiciona-
mento diz respeito ao problema.
A soluc¸a˜o do problema (1.32) pode ser obtida via me´todos para problema de valor inicial,
(Me´todo Shooting), que usa a condic¸a˜o dada em x = a e escolhe um valor para a derivada
(inclinac¸a˜o) tambe´m em x = a, calcula a soluc¸a˜o ate´ x = b e, de acordo com o resultado,
ajusta o valor da derivada em x = a e resolve novamente, repetindo estes passos ate´ que a
30 CAPI´TULO 1. CONCEITOS FUNDAMENTAIS
soluc¸a˜o propagando-se a partir de a encontre o valor de fronteira fixado em b. Na˜o vamos
detalhar este me´todo aqui, vide [Ames 1992]. Outra abordagem procura resolver o problema,
como problema de contorno; o me´todo, didaticamente mais recomendado e´ aquele que utiliza
diferenc¸as finitas, o qual detalharemos a seguir.
1.4.1 Me´todos de Diferenc¸as Finitas
Consideraremos aqui, Me´todos de Diferenc¸as Finitas para soluc¸a˜o de PVF que na˜o sa˜o
baseados na resoluc¸a˜o de problemas de valor inicial. O objetivo e´ fornecer um apanhado
geral, enfatizando os conceitos e dificuldades mais frequentes, como e´ o caso da restric¸a˜o do
tamanho h da malha e do tratamento da condic¸a˜o de fronteira com derivadas.
Seja o PVF
y′′(x) − p(x)y′(x)− q(x)y(x) = r(x)
y(a) = α, y(b) = β
que sera´ rescrito usando-se o operador L, como
L[y(x)] ≡ y′′(x) − p(x)y′(x)− q(x)y(x) = r(x), (1.34)
y(a) = α, y(b) = β.
Impomos a restric¸a˜o q(x) ≥ Q∗ > 0, a ≤ x ≤ b que e´ mais restritiva do que Q∗ ≥ 0
requerida para a prova de existeˆncia e unicidade de soluc¸a˜o .
Supomos no que segue, que o PVF objeto de estudo possui uma u´nica soluc¸a˜o com quatro
derivadas cont´ınuas em a ≤ x ≤ b. Usaremos uma malha uniforme com h = b−aN+1 e diferenc¸as
centradas para aproximar L[y(x)] para obter:
Lh[yj ] ≡ yj+1 − 2yj + yj−1
h2
−p(xj)yj+1 − yj−1
2h
−q(xj)yj = r(xj), j = 1, 2, . . . , N. (1.35)
As condic¸o˜es de fronteira sa˜o substitu´ıdas por:
y0 = α, yN+1 = β. (1.36)Multiplicando (1.35) por −h22 , obtemos:
−h
2
2
Lh[yj ] ≡ −1
2
{yj+1 − 2yj + yj−1}+ p(xj)h
4
{yj+1 − yj−1}+
q(xj)
h2
2
yj = −h
2
2
r(xj), j = 1, 2, . . . , N.
Rearranjando os termos de mesmo ı´ndice:
−h
2
2
Lh[yj ] ≡ −1
2
{
1 +
h
2
p(xj)
}
yj−1 +
{
1 +
h2
2
q(xj)
}
yj
1.4. PROBLEMA DE VALOR DE FRONTEIRA EM EQUAC¸O˜ES ORDINA´RIAS 31
−1
2
{
1− h
2
p(xj)
}
yj+1 = −h
2
2
r(xj), j = 1, 2, . . .N.
Fazendo:
aj ≡ 1 + h
2
2
q(xj),
bj ≡ 1
2
{
1 +
h
2
p(xj)
}
,
cj ≡ 1
2
{
1− h
2
p(xj)
}
,
chegamos a` equac¸a˜o
−h
2
2
Lh[yj ] ≡ −bjyj−1 + ajyj − cjyj+1 = −h
2
2
r(xj), j = 1, 2, . . .N.
que em notac¸a˜o vetorial, juntamente com as condic¸o˜es de fronteira (1.36), pode ser escrita
na forma:
Ay = r (1.37)
onde
A ≡


a1 −c1 0 · · · 0
−b2 a2 −c2 · · · 0
...
...
...
...
...
0 · · · −bN−1 aN−1 −cN−1
0 · · · 0 −bN aN

 , (1.38)
y ≡


y1
y2
...
yN−1
yN

 e r ≡ −
h2
2


r(x1)− 2b1αh2
r(x2)
...
r(xN−1)
r(xN )− 2cNβh2

 .
Assim, resolvendo o sistema linear de ordem N (1.37), cuja matriz dos coeficientes,
A, e´ tridiagonal, determinamos os valores de yj, j = 1, 2, . . . , N , que desejamos sejam
aproximac¸o˜es da soluc¸a˜o exata, y(xj), onde xj = x0 + jh.
Tendo constru´ıdo o me´todo, deve-se procurar conhecer a consisteˆncia e convergeˆncia do
mesmo. Um ponto novo aqui e´ que deve-se tambe´m cuidar da existeˆncia e unicidade da
soluc¸a˜o nume´rica. Se A e´ invers´ıvel tem-se soluc¸a˜o u´nica. Se A for quase singular, o me´todo
sera´ na˜o esta´vel. Note que isso pode ocorrer quando h → 0 e a dimensa˜o de A cresce.
Quando A e´ quase singular, os elementos de A−1 crescem com o aumento da ordem de
A, deteriorando o erro e consequentemente a convergeˆncia. Mais uma vez, estabilidade e
consisteˆncia equivalem a convergeˆncia.
32 CAPI´TULO 1. CONCEITOS FUNDAMENTAIS
Um crite´rio a ser considerado, e´ criar condic¸o˜es para que A seja diagonalmente domi-
nante. Vamos exigir que o espac¸amento h seja ta˜o pequeno que
h
2
|p(xj)| ≤ 1, j = 1, 2, . . . , N. (1.39)
Enta˜o, segue que
|bj|+ |cj | = bj + cj = 1 e aj > 1.
Logo,
|a1| > |c1|;
|aj | > |bj|+ |cj |, j = 2, 3, . . . , N − 1;
|aN | > |bN |;
e, portanto, a matriz A e´ diagonalmente dominante, por conseguinte invers´ıvel e o problema
discreto tem soluc¸a˜o u´nica. Na linguagem dos me´todos nume´ricos para problemas de valor
inicial a condic¸a˜o (1.39) representa uma condic¸a˜o de estabilidade. Note que quanto mais
acentuada for a dominaˆncia da diagonal de A, mais esta´vel sera´ o me´todo.
A soluc¸a˜o de (1.37) pode, assim, ser obtida por simples fatorac¸a˜o de A (Gauss, por
exemplo). Sendo A diagonalmente dominante, a fatorac¸a˜o e´ esta´vel e na˜o e´ necessa´rio
pivotamento. E´ claro que isto fornece uma prova da existeˆncia e unicidade da soluc¸a˜o
nume´rica de (1.37), desde que (1.39) seja satisfeita.
Vamos, agora, estimar o erro na aproximac¸a˜o nume´rica definida em (1.35). O erro
de truncamento local e´ obtido substituindo-se a soluc¸a˜o exata na equac¸a˜o (1.35), assim
definimos τj , o erro de truncamento local, por:
Lh[y(xj)] − r(xj) = τj , j = 1, 2, . . . , N. (1.40)
Como y(x) e´ soluc¸a˜o de (1.34) temos,
τj = Lh[y(xj)]− L[y(xj)]
=
y(xj − h)− 2y(xj) + y(xj + h)
h2
− p(xj)y(xj + h)− y(xj − h)
2h
−q(xj)y(xj)− [y′′(xj)− p(xj)y′(xj)− q(xj)y(xj)]
=
[
y(xj − h)− 2y(xj) + y(xj + h)
h2
− y′′(xj)
]
−p(xj)
[
y(xj + h)− y(xj − h)
2h
− y′(xj)
]
, j = 1, 2, . . . , N. (1.41)
Supondo que y(4)(x) e´ cont´ınua e usando a expressa˜o do erro nas fo´rmulas centradas
obtemos:
1.4. PROBLEMA DE VALOR DE FRONTEIRA EM EQUAC¸O˜ES ORDINA´RIAS 33
τj =
h2
12
[y(4)(ξj)− 2p(xj)y′′′(ηj)], j = 1, 2, . . . , N, (1.42)
onde ξj ,ηj ∈ [xj−1, xj+1]. Assim o erro de truncamento local e´ O(h2) e quando h → 0
o me´todo tende para a equac¸a˜o diferencial com ordem O(h2). Dizemos que o me´todo e´
consistente de ordem 2.
A estimativa de erro global e´ obtida do seguinte resultado:
Teorema 1.4 Se o espac¸amento h da malha satisfaz (1.39) enta˜o,
|y(xj)− yj | ≤ h2
(
M4 + 2P
∗M3
12Q∗
)
, j = 0, 1, . . . , N + 1,
onde y(x) e´ a soluc¸a˜o exata de (1.34), yi e´ a soluc¸a˜o calculada de (1.35) e
P ∗ ≡ maxx∈[a,b] |p(x)|, M3 ≡ maxx∈[a,b] |y′′′(x)|, M4 ≡ maxx∈[a,b]
∣∣y(4)(x)∣∣.
Prova: Sejam ej = y(xj)− yj , j = 0, 1, . . . , N + 1, ve: vetor dos erros ej e vτ : vetor
dos erros τj . Subtraindo (1.35) de (1.40) obtemos:
Lh[y(xj)]− Lh[yj ] = r(xj)− r(xj) + τj = τj , j = 1, 2, . . . , N.
Logo,
Lh[y(xj)− yj] = τj , ou Lh[ej ] = τj .
Esta u´ltima expressa˜o nos diz que o erro global satisfaz a mesma equac¸a˜o de diferenc¸as que
define o me´todo, tendo como lado direito o erro de truncamento local.
Multiplicando ambos os membros da expressa˜o acima por −h22 obtemos:
−h
2
2
Lh[ej] = −h
2
2
τj , j = 1, 2, . . . , N, (1.43)
que utilizando a mesma notac¸a˜o matricial de (1.37) produz, Ave = −h22 vτ , donde segue
que ve = −h22 A−1vτ , e mais uma vez observa-se a necessidade dos elementos de A−1 na˜o
crescerem (estabilidade). Os vetores ve e vτ sa˜o formados respectivamente pelas compo-
nentes do erro global e do erro de truncamento local.
Escrevendo individualmente cada equac¸a˜o de (1.43) obtemos
−bjej−1 + ajej − cjej+1 = −h
2
2
τj , j = 1, 2, . . . , N.
Da´ı,
ajej = bjej−1 + cjej+1 − h
2
2
τj , j = 1, 2, . . . , N
|ajej | ≤ |bjej−1|+ |cjej+1|+ h
2
2
|τj |, j = 1, 2, . . . , N
|ajej | ≤ (|bj |+ |cj |)e+ h
2
2
|τj |, j = 1, 2, . . . , N
34 CAPI´TULO 1. CONCEITOS FUNDAMENTAIS
e usando (1.39)
|ajej | ≤ e+ h
2
2
τ,
onde:
e ≡ max
0≤j≤N+1
|ej | e τ ≡ max
1≤j≤N
|τj |.
Entretanto, tambe´m pela condic¸a˜o (1.39) segue que,
|aj | = aj ≥ 1 + h
2
2
Q∗.
Logo, (
1 +
h2
2
Q∗
)
|ej| ≤ |ajej | ≤ e+ h
2
2
τ, j = 1, 2, . . . , N.
De (1.36) temos e0 = eN+1 = 0. Portanto, a desigualdade acima vale para todo j em
0 ≤ j ≤ N + 1.
Assim, conclu´ımos que (
1 +
h2
2
Q∗
)
e ≤ e+ h
2
2
τ
ou seja,
h2
2
Q∗e ≤ h
2
2
τ.
Da´ı,
e ≤ 1
Q∗
τ.
Finalmente, usando as hipo´teses do teorema em (1.42) encontramos que,
|τj | ≤ h
2
12
(M4 + 2P
∗M3) , j = 1, 2, . . . , N.
Logo,
τ ≤ h
2
12
(M4 + 2P
∗M3) ,
e portanto,
e ≤ h2
(
M4 + 2P
∗M3
12Q∗
)
.2
Do teorema 1.4 vemos que, sob a condic¸a˜o (1.39), a soluc¸a˜o discreta converge para a
soluc¸a˜o exata quando h→ 0, e ainda, que o erro e´ O(h2).
Muitas vezes, na pra´tica, esta ana´lise e´ dif´ıcil ou imposs´ıvel, calcula-se enta˜o a soluc¸a˜o
com va´rios tamanhos de h, observando-se o comportamento das soluc¸o˜es obtidas. Isto
permite-nos ter uma ide´ia da convergeˆncia e precisa˜o dos resultados (nu´mero de d´ıgitos
fixados) e tambe´m da taxa de convergeˆncia. Por exemplo, se o erro e´ O(h2), recalcular o
problema com nova malha de espac¸amento h2 deve resultar na duplicac¸a˜o da precisa˜o.
Alguns aspectos interessantes podem ainda ser considerados. Por exemplo:
1.4. PROBLEMA DE VALOR DE FRONTEIRA EM EQUAC¸O˜ES ORDINA´RIAS 35
i. outro tipo de condic¸a˜o de fronteira impo˜e alguma dificuldade?
ii. e´ poss´ıvel relaxar a condic¸a˜o (1.39) permitindo o uso de h maior?
iii. e´ possivel obter me´todos mais precisos?
iv. ocorre alguma dificuldade no caso da equac¸a˜o ser na˜o linear?
Vamos tratar de alguns desses aspectos a seguir. Considere que no lugar de y(a) = α em
(1.36), a condic¸a˜o dada seja y′(a) + γy(a) = 0. Essa nova condic¸a˜o tem consequeˆncias no
sistema (1.37) que passamos a analisar.
Uma primeira abordagem e´ tomar uma aproximac¸a˜o progressiva (de ordem O(h)) para
a derivada, ou seja,
y′(a) ≃ y(a+ h)− y(a)
h=
y1 − y0
h
donde
y1 − y0 + hγy0 = 0⇒ y0 = y1
1− hγ
que incorporada ao sistema, modifica apenas a primeira equac¸a˜o para
(a1 − b1
1− hγ )y1 − c1y2 = −
h2
2
r(x0)
deixando o restante inalterado. O inconveniente aqui e´ o fato de introduzirmos um erro
local de O(h) que deteriora um pouco o resultado final.
Uma outra abordagem, que recupera a ordem 2, se da´ pelo uso de uma aproximac¸a˜o
central
y′(a) ≃ y(a+ h)− y(a− h)
2h
=
y1 − y−1
2h
onde y−1 e´ introduzido artificialmente.
Assim,
y1 − y−1 + 2hγy0 = 0.
Como uma nova inco´gnita foi introduzida, nova equac¸a˜o e´ necessa´ria. Esta pode ser
providenciada considerando-se como primeira equac¸a˜o em (1.37), a equac¸a˜o obtida para
j = 0
−b0y−1 + a0y0 − c0y1 = −h
2
2
r(x0),
que por substituic¸a˜o de y−1 fica
(a0 − b02hγ)y0 − (b0 + c0)y1 = −h
2
2
r(x0).
36 CAPI´TULO 1. CONCEITOS FUNDAMENTAIS
O sistema (1.37) fica agora com uma equac¸a˜o extra, entrando y0 como inco´gnita. Apesar
de pequeno acre´scimo no esforc¸o computacional, o resultado final e´ O(h2), conservando-se a
ordem anterior.
Com relac¸a˜o a` utilizac¸a˜o de tamanhos de passo maiores, e´ poss´ıvel a construc¸a˜o de
um me´todo menos restritivo. Esse me´todo denominado upwind, tem bastante aplicac¸a˜o na
pra´tica, principalmente em equac¸o˜es hiperbo´licas e consiste em combinarmos as diferenc¸as
progressiva e regressiva conforme o sinal de p(x). Isto reduz a ordem do me´todo, mas a
restric¸a˜o sobre h e´ relaxada.
Assim, o me´todo upwind e´ baseado na seguinte aproximac¸a˜o para a primeira derivada:
y′(xj) ≃ η yj+1 − yj
h
+ (1− η)yj − yj−1
h
. (1.44)
Portanto para η = 1, 12 e −1 tem-se as aproximac¸o˜es progressiva, central e regressiva, re-
spectivamente.
Usando (1.44) em (1.35) temos
−h
2
2
Lh[yj ] ≡ −1
2
{yj+1 − 2yj + yj−1}+
p(xj)h {η(yj+1 − yj) + (1− η)(yj − yj−1)}+
q(xj)
h2
2
yj = −h
2
2
r(xj), j = 1, 2, . . . , N
donde
−bjyj−1 + ajyj − cjyj+1 = −h
2
2
r(xj), j = 1, 2, . . .N
com
aj ≡ 1− (1 − 2η)hp(xj)− h2q(xj),
bj ≡ 1
2
{1− (1− η)hp(xj)} ,
cj ≡ 1
2
{1 + hηp(xj)} .
No me´todo upwind, η vai assumir valores 0 ou 1 , conforme p(xj) < 0 ou p(xj) > 0,
respectivamente. Isso mante´m a dominaˆncia da diagonal de A sem a restric¸a˜o (1.39). A
ordem do me´todo diminui um pouco, mas o esforc¸o computacional pode diminuir significa-
tivamente, porque a malha pode ser menos fina, ou seja, h pode ser maior.
Foi visto anteriormente que e´ poss´ıvel a melhoria da ordem de aproximac¸a˜o, aumentando
os pontos na aproximac¸a˜o da derivada. Esta abordagem acarreta um aumento na banda da
matriz do sistema e o esforc¸o computacional cresce. Para ilustrar uma outra maneira de se
melhorar a ordem, vamos considerar o problema
y′′ = f(x, y), y(0) = α y(1) = β.
1.5. EXERCI´CIOS 37
A discretizac¸a˜o convencional fornece:
yj+1 − 2yj + yj−1 = h2f(xj , yj)
que e´ consistente de ordem O(h2). Como esta˜o envolvidos yj+1, yj e yj−1, pode-se usa´-los
para se obter uma aproximac¸a˜o melhor para f(xj , yj) da seguinte maneira:
yj+1 − 2yj + yj−1 = h2{c1f(xj−1, yj−1) + c2f(xj , yj) + c3f(xj+1, yj+1)}
onde c1, c2 e c3 sa˜o calculados para aumentar a precisa˜o. O me´todo mais conhecido, assim
obtido, e´ o me´todo de Numerov
yj+1 − 2yj + yj−1 = h
2
12
{f(xj−1, yj−1) + 10f(xj, yj) + f(xj+1, yj+1)}
que e´ consistente de ordem O(h4).
Quando f e´ na˜o linear e c3 6= 0, esse me´todo requer a soluc¸a˜o de uma equac¸a˜o (ou
um sistema) na˜o-linear. Isto pode ser resolvido por iterac¸o˜es sucessivas ou pelo me´todo de
Newton, mas claramente o esforc¸o computacional e´ bem maior.
Em geral, um problema na˜o-linear de segunda ordem pode ser colocado como
y′′ = f(x, y, y′), y(0) = α y(1) = β
e a construc¸a˜o do me´todo segue o mesmo procedimento
yj+1 − 2yj + yj−1 = h2f(xj , yj , yj+1 − yj−1
2h
), j = 1, 2, . . . , N
com a necessidade de soluc¸a˜o de um sistema na˜o linear.
1.5 Exerc´ıcios
1.1 Utilizando propriedades dos operadores e expansa˜o formal em se´rie de poteˆncias das
func¸o˜es envolvidas prove as relac¸o˜es abaixo:
∇ = E−1∆, ∆∇ = ∇∆ = ∆−∇ = δ2, µδ = 1
2
(∆ +∇), µ2 = 1 + 1
4
δ2
∇ = 1− E−1, µ = 1
2
(
E
1
2 + E−
1
2
)
, δ = E
1
2 − E− 12 ,
1 = µµ−1 = µ
(
1 +
1
4
δ2
)− 1
2
= µ
(
1− 1
8
δ2 +
3
128
δ4 + · · ·
)
hD = ln(1 + ∆) = − ln(1−∇) = 2 sinh−1
(
δ
2
)
= 2 ln
(√
1 +
1
4
δ2 +
1
2
δ
)
38 CAPI´TULO 1. CONCEITOS FUNDAMENTAIS
(hD)k = [ln(1 + ∆)]
k
= ∆k − k
2
∆k+1 +
k(3k + 5)
24
∆k+2
− k(k + 2)(k + 3)
48
∆k+3 + · · ·
(hD)k = (−1)k [ln(1 −∇)]k = ∇k + k
2
∇k+1 + k(3k + 5)
24
∇k+2
+
k(k + 2)(k + 3)
48
∇k+3 + · · ·
hD =
2µ sinh−1
(
δ
2
)
(
1 + δ
2
4
) 1
2
= µ
[
δ − 1
2
3!
δ3 +
12.22
5!
δ5 − · · ·
]
(hD)2n =
[
2 sinh−1
(
δ
2
)]2n
=
[
δ − 1
2
22.3!
δ3 +
12.32
24.5!
δ5 − 1
2.32.52
26.7!
δ7 + · · ·
]2n
(hD)2n =
µ√
1 + δ
2
4
[
2 sinh−1
(
δ
2
)]2n
= µ
[
δ − 1
2
3!
δ3 +
12.22
5!
δ5 − · · ·
]2n
(hD)2n+1 =
[
2 sinh−1
(
δ
2
)]2n+1
=
[
δ − 1
24
δ3 +
3
640
δ5 − 5
7168
δ7 + · · ·
]2n+1
.
Sugesta˜o: Utilize as expanso˜es em se´rie:
sinh−1 (x) =
∞∑
k=0
(−1)k (2k)!
22k(k!)2(2k + 1)
x2k+1
(1 + x)
q
= 1 + qx+
q(q − 1)
2!
x2 + · · ·+ q(q − 1)(q − 2) · · · (q − k + 1)
k!
xk + · · ·
1.2 Utilizando expansa˜o em se´rie de Taylor de y′(xn+1) e comparando com a expansa˜o de
y(xn+1) deduza que:
y(xn+1) = y(xn) +
h
2
[f(xn, y(xn)) + f(xn+1, y(xn+1))]− h
3
12
y′′′(ξ).
1.3 As relac¸o˜es (1.6-1.10) sa˜o casos especiais das expanso˜es do exerc´ıcio (1.1), prove-as.
1.4 Deduzir a partir da expansa˜o em se´rie de Taylor de y(x), fo´rmulas de ordem 1 e de
ordem 2 para aproximar as derivadas y(3)(x) e y(4)(x).
1.5 Mostrar, usando a equac¸a˜o teste y′ = λy, que a regra do ponto me´dio e´ insta´vel.
1.6 a. Construa o me´todo de maior ordem poss´ıvel da forma:
a1yi+1 + a2yi + a3yi−1 + a4yi−2 = f(xi, yi)
para soluc¸a˜o de um PVI.
1.5. EXERCI´CIOS 39
b. Mostre que esse me´todo na˜o e´ convergente.
1.7 Utilizando MATLAB resolva o PVI abaixo pelo me´todo do ponto me´dio, Euler expl´ıcito,
impl´ıcito e regra dos trape´zios, no intervalo [0, 2], usando h = 0.1.
y′ = 5y − 1, y(0) = 1.2.
Explique o comportamento de cada um desses me´todos a` luz das propriedades discutidas
neste cap´ıtulo. Soluc¸a˜o exata: y(x) = exp(5x) + 0.2.
1.8 Mostre por induc¸a˜o sobre n que |en| ≤ ξn onde ξn e´ a soluc¸a˜o da equac¸a˜o (1.19), com
ξ0 = |e0|. Prove que (1.20) e´ realmente soluc¸a˜o de (1.19), com ξ0 = 0. A soluc¸a˜o (1.20) e´
va´lida se e somente se A e B forem constantes, no entanto tomamos n → ∞ em (1.21) o
que certamente faz com que h → 0 e portanto A e B na˜o sa˜o constantes. Como explicar
enta˜o a passagem ao limite em (1.21)?
1.9 Deduza a fo´rmula (1.28).
1.10 Mostre que o me´todo (1.30) e´ zero-esta´vel mas na˜o e´ consistente e que o me´todo
(1.31) e´ consistente para todo valor de a; zero-esta´vel e de ordem 2 se a = 0 e zero-insta´vel
e de ordem 3 se a = −5. (Veja [20] pa´gina 41). Mostre que o me´todo de Simpson na˜o e´
esta´vel.
1.11 a. Seja o problema de valor de fronteira de segunda ordem definido no intervalo
[a, b]:
y′′ − q(x)y = r(x) y(a) = y(b) = 0
Determinar os paraˆmetros α2, α1, α0 de modo que o me´todo nume´rico:
yi+1 − 2yi + yi−1
h2
− [α2q(xi+1)yi+1 + α1q(xi)yi + α0q(xi−1)yi−1] =
α2r(xi+1) + α1r(xi) + α0r(xi−1), i = 1, 2, . . . , N
com y0 = yN+1 = 0, e h =
b−a
N+1 , seja de ordem 4.
b. Se q(x) > Q∗ > 0 mostre que a expressa˜o
h4(2M + 5N + 5R)
720Q∗
e´ um limitante superior para o erro global do me´todo em (a) onde M e R sa˜o limitantes
superiores para a derivada deordem 6 de y e derivada de ordem 4 de r respectivamente
e N e´ um limitante superior para a derivada de ordem 4 da func¸a˜o q(x)y(x).
1.12 Encontre a soluc¸a˜o geral para a equac¸a˜o de diferenc¸as
yn+2 − yn+1 + 4yn = 2n.
Sugesta˜o: Existe uma soluc¸a˜o particular da forma an+ b.
40 CAPI´TULO 1. CONCEITOS FUNDAMENTAIS
1.13 Considere o seguinte PVF definido no intervalo [a, b]:
y′′(x) − p(x)y′(x) − q(x)y(x) = r(x), y′(a) + γy(a) = 0 y′(b) + ζy(b) = 0
Derivar um me´todo nume´rico de segunda ordem para aproximar esse problema. Montar o
sistema linear resultante.
1.14 Construa um me´todo de segunda ordem para resolver o seguinte PVF:
y′′ + xy′ + y = 2x y(0) = 1, y(1) = 0.
Tomando h = 0.1 construa o sistema linear associado e resolva-o por eliminac¸a˜o de Gauss.
1.15 Deduza a expressa˜o (1.42) para o erro de truncamento local.
1.16 Construa o me´todo de Numerov, mostre que esse me´todo e´ de fato de O(h4) e construa
seu erro de truncamento local.
1.17 Prove que o me´todo
yj+1 − 2yj + yj−1 = h2f(xj , yj, yj+1 − yj−1
2h
), j = 1, 2, . . . , N
quando utilizado para aproximar a soluc¸a˜o do PVF
y′′ = f(x, y, y′), y(0) = α, y(1) = β
e´ de ordem O(h2). Calcule seu erro de truncamento local.
1.18 Fac¸a um programa MATLAB para implementar o me´todo de diferenc¸as centrais para
a soluc¸a˜o do PVF:
y′′ − p(x)y′ − q(x)y = r(x), y(a) = α, y(b) = β.
Prove que se um me´todo e´ de ordem s enta˜o uma estimativa para o valor de s pode ser
obtida de:
s =
ln
(
eh1
eh2
)
ln
(
h1
h2
)
onde eh1 e eh2 sa˜o os erros globais ma´ximos para os passos h1 e h2.
Utilizando a estimativa acima, o programa MATLAB que implementa a soluc¸a˜o do PVF
e um problema para o qual a soluc¸a˜o exata seja conhecida, comprove que de fato esse me´todo
e´ de ordem 2.
Sugesta˜o: Resolva o problema no intervalo [a, b] para va´rios valores de h, digamos, h1, h2, h3, · · ·
e depois utilize a estimativa de s para obter uma sequeˆncia de aproximac¸o˜es da ordem que
devem aproximar-se de 2.
Deˆ uma sugesta˜o de como proceder no caso de na˜o conhecermos a soluc¸a˜o exata.
1.5. EXERCI´CIOS 41
1.19 Considere o problema de determinar a deflecc¸a˜o de uma viga apoiada nos dois ex-
tremos x = 0 e x = L quando sujeita a uma carga w uniformemente distribu´ıda ao longo de
seu comprimento. De acordo com ( [Ames 1992]) a equac¸a˜o que modela essa deflecc¸a˜o e´:
EI
∂4y
∂x4
= w − ky
onde y e´ a deflecc¸a˜o da viga, EI e´ o coeficiente de rigidez e k e´ um coeficiente relacionado
com a rigidez da fundac¸a˜o. As condic¸o˜es de fronteira sa˜o:
y = 0 em x = 0 e x = L,
∂2y
∂x2
= 0 em x = 0 e x = L.
a. Considerando EI = kL4, ξ = x/L e ψ = yEIwL4 mostre que na forma adimensional a
equac¸a˜o acima transforma-se em:
∂4ψ
∂ξ4
= 1− ψ
ψ = 0 em ξ = 0 e ξ = 1,
∂2ψ
∂ξ2
= 0 em ξ = 0 e ξ = 1.
b. Usando diferenc¸as finitas e MATLAB determine uma aproximac¸a˜o para ψ(ξ), em pon-
tos ξi = i ∗ h ao longo da viga. Use h = 0.1.
1.20 A tensa˜o numa membrana esfe´rica suportada num aro e´ modelada pelo seguinte PVF:
y′′ =
λ2
8
− x
2
32y2
, y(0) = 0, 2y′(1)− (1 + ν)y(1) = 0.
Determine y(1), para ν = 0.3 e λ = 0.991, usando MATLAB e discretizac¸a˜o por diferenc¸as
finitas com h = 0.1.
1.21 Um reator tubular isote´rmico e´ constitu´ıdo de um condutor cil´ındrico, no interior do
qual flui uma mistura de substaˆncias que reagem quimicamente entre si. Considere a reac¸a˜o
qu´ımica isote´rmica de primeira ordem A → B, cuja lei de transformac¸a˜o e´ dada por kC,
onde k e´ a taxa da reac¸a˜o e C e´ a concentrac¸a˜o da espe´cie A. Seja agora N a dispersa˜o
axial ao longo do eixo x (ao longo do cilindro), cujo coeficiente de difusa˜o e´ E, resultando
em um fluxo difusivo descrito pela equac¸a˜o:
N = E(−dC
dx
).
O balanceamento de fluxo da espe´cie A entrando e saindo de um volume infinitesimal fornece:
Fluxo total entrando na face esquerda = vC +N
Fluxo total saindo na face direita = N + dN
Raza˜o de desaparecimento da espe´cie A = kCdx,
42 CAPI´TULO 1. CONCEITOS FUNDAMENTAIS
onde v e´ a velocidade axial de A. Assumimos que ambos v e k sa˜o constantes.
A conservac¸a˜o da espe´cie A exige que:
(vC +N) = (vC + d(vC)) + (N + dN) + kCdx.
Simplificando a expressa˜o acima e substituindo o valor de N , obte´m-se:
EC′′ − vC′ − kC = 0.
Se a concentrac¸a˜o de A na entrada do tubo e´ C0, enta˜o o fluxo nessa mesma posic¸a˜o sera´
vC0, de onde ele e´ transportado ao longo deste por convecc¸a˜o e difusa˜o, isto e´:
vC0 = vC(0) +N(0) = vC(0)− EC′(0).
Sendo L o comprimento do tubo, que supo˜e-se longo o suficiente para que a reac¸a˜o se
complete, a condic¸a˜o de fronteira e´ obtida assumindo-se que a reac¸a˜o esta´ em equil´ıbrio; na˜o
ha´ mais variac¸a˜o na concentrac¸a˜o C, ou seja, C′(L) = 0. Utilizando
y = C/C0, z = x/L Npe = vL/E R = kL/v,
obtenha a equac¸a˜o e condic¸o˜es de fronteira na forma adimensional. Tomando Npe = 1 e
R = 1 calcule a soluc¸a˜o aproximada no intervalo [0, 1], utilizando h = 0.1. Fac¸a o gra´fico
de y. Utilizar o MATLAB.
1.22 Considere o problema de encontrar a deflecc¸a˜o de uma viga apoiada nos extremos
com carregamento pontual como na figura 1.3.
a b
x
y
P
L
Figura 1.3: Diagrama da viga com carregamento pontual
A equac¸a˜o diferencial que modela o problema descrito na figura 1.3 e´ dada por:
EIy′′1 =
Pb
L x para x ≤ a
EIy′′2 =
Pb
L x− P (x− a) para x ≥ a,
onde y1 e y2 representam as deflecc¸o˜es da viga nos intervalos [0, a] e [a, L] respectivamente.
Como a viga esta´ apoiada nos extremos x = 0 e x = L, temos que as deflecc¸o˜es nesses
pontos devem ser nulas, ou seja, temos as condic¸o˜es de fronteira, y1(0) = 0 e y2(L) = 0.
No ponto x = a a deflecc¸a˜o e sua derivada devem ser cont´ınuas pois a viga na˜o se rompe
e fisicamente na˜o observa-se a formac¸a˜o de cantos vivos. As condic¸o˜es de fronteira em
1.5. EXERCI´CIOS 43
x = a sa˜o enta˜o dadas por y1(a) = y2(a) e y
′
1(a) = y
′
2(a). Tomando s = x/L, z1 =
βy1, z2 = βy2 onde β = EI/(PbL
2) obtenha as equac¸o˜es e condic¸o˜es de fronteira na
forma adimensional. Obtenha a soluc¸a˜o exata desse problema. Utilizando diferenc¸as centrais
derive uma aproximac¸a˜o de ordem 4 para a segunda derivada. Discretize o problema acima
usando a fo´rmula rece´m deduzida, para obter um sistema linear com 5 diagonais. Fac¸a
um programa MATLAB para implementar a soluc¸a˜o desse problema e resolva-o tomando
β = 1.0 e h = 0.05. Compare seus resultados nume´ricos com os resultados exatos.
44 CAPI´TULO 1. CONCEITOS FUNDAMENTAIS
Cap´ıtulo 2
Introduc¸a˜o a`s Equac¸o˜es
Diferenciais Parciais
2.1 Introduc¸a˜o
Este cap´ıtulo tem o objetivo de apresentar rapidamente a notac¸a˜o ba´sica e os principais
resultados sobre a teoria das equac¸o˜es diferenciais parciais e gerac¸a˜o de malhas, necessa´rios
para a compreensa˜o do material a ser desenvolvido no restante do texto. Na˜o temos a
menor intenc¸a˜o de apresentar material suficiente para o estudo da teoria das equac¸o˜es difer-
enciais parciais muito menos para o estudo de gerac¸a˜o de malhas. O leitor interessado em
aprofundar-se nesses assuntos e´ fortemente encorajado a procurar outras fontes onde eles
sa˜o tratados com o rigor necessa´rio. Por exemplo os livros Ockendon [15] e Williams [14]
trazem material suficiente para uma boa visa˜o da teoria cla´ssica das equac¸o˜es diferenciais
parciais, enquanto o livro do Thompson [40] constitui um tratado sobre gerac¸a˜o de malhas.
O modelamento matema´tico de problemas em cieˆncias aplicadas resulta frequentemente
na formulac¸a˜o de uma Equac¸a˜o Diferencial Parcial (EDP), (ou sistema de equac¸o˜es difer-
enciais parciais), que e´ uma equac¸a˜o envolvendo duas ou mais varia´veis independentes
x1, x2, . . . , xn e derivadas parciais de uma func¸a˜o real u = u(x1, x2, . . . , xn). A forma mais
geral de uma EDP de ordem k e´:
ϕ(
x1, x2, . . . , xn, u,
∂u
∂x1
, . . . ,
∂u
∂xn
, ∂
2u
∂x2
1
, ∂
2u
∂x1∂x2
, . . . , ∂
ku
∂xkn
)
= 0.
No caso de um sistema de equac¸o˜es ϕ e´ uma func¸a˜o vetorial e u um vetor das varia´veis
independentes. Por simplicidade, vamos considerar nesta cap´ıtulo somente equac¸o˜es em
duas varia´veis x e y. E´ bastante comum o caso de problemas pra´ticos importantes onde a
func¸a˜o f e´ linear nas derivadas de mais alta ordem e nesse caso podemos explicitar essas
derivadas, como no exemplo, para k = 2,
a
∂2u
∂x2
+ b
∂2u
∂x∂y
+ c
∂2u
∂y2
= ϕ
(
x, y, u,
∂u
∂x
,
∂u
∂y
)
45
46 CAPI´TULO 2. INTRODUC¸A˜O A`S EQUAC¸O˜ES DIFERENCIAIS PARCIAIS
ou em notac¸a˜o mais simples,
L[u] = auxx + buxy + cuyy = ϕ(x, y, u, ux, uy) (2.1)
onde a, b e c sa˜o func¸o˜es de x, y, u, ux e uy apenas, com ux =
∂u
∂x , . . . , uxy =
∂2u
∂x∂y e u(x, y) a
soluc¸a˜o da equac¸a˜o (2.1).
Se a ≡ b ≡ c ≡ 0, enta˜o a equac¸a˜o (2.1) e´ de primeira ordem. Quando na equac¸a˜o
(2.1) a, b e c sa˜o func¸o˜es de x, y e u apenas ela e´ dita quase–linear. Se, em adic¸a˜o, ϕ na˜o
depende de ux e uy, enta˜o e´ dita semi–linear. Sera´ linear se a, b, c e ϕ sa˜o func¸o˜es de x e y
apenas e finalmente, quando na˜o for nenhum dos casos acima sera´ chamada na˜o–linear.
Em geral, uma equac¸a˜o diferencial parcial como (2.1), tera´ uma famı´lia de soluc¸o˜es. No
entanto, uma equac¸a˜o representando um modelo de um problema f´ısico, tera´ adicionalmente
condic¸o˜es auxiliares que caracterizam melhor a situac¸a˜o modelada. Essas sa˜o as chamadas
condic¸o˜es iniciais e condic¸o˜es de fronteira. As condic¸o˜es de fronteira, especificam o que
acontece no limiar da regia˜o de definic¸a˜o, enquanto que as condic¸o˜es iniciais fornecem in-
formac¸o˜es sobre o estado inicial do sistema, ou a partir de onde e com qual valor a soluc¸a˜o
vai se propagar. Quando a regia˜o e´ fechada e condic¸o˜es de fronteira sa˜o fixadas em todo o
entorno da regia˜o, usa-se tambe´m a expressa˜o condic¸o˜es de contorno.
Dizemos que os coeficientes, a func¸a˜o ϕ e as condic¸o˜es iniciais e de fronteira sa˜o os dados
do problema e que a soluc¸a˜o depende continuamente dos dados, se a` pequenas perturbac¸o˜es
nos dados, correspondem pequenas mudanc¸as na soluc¸a˜o.
Definic¸a˜o 2.1 Um problema e´ dito bem-posto se ele tem uma u´nica soluc¸a˜o que depende
continuamente dos dados iniciais e de fronteira.
Note que se condic¸o˜es auxiliares sa˜o prescritas em excesso, pode haver incompatibilidade
entre elas e o problema na˜o tera´ soluc¸a˜o; se, por outro lado, na˜o forem suficientes, o problema
tera´ muitas soluc¸o˜es. Somente na medida certa, teremos um problema bem posto.
Apresentamos acima a definic¸a˜o matema´tica de um problema bem posto. Daremos a
seguir uma explicac¸a˜o suscinta do seu significado. Acreditamos que o leitor na˜o tera´ prob-
lemas com a questa˜o de existeˆncia e unicidade de soluc¸a˜o. Talvez um conceito que na˜o seja
ta˜o popular e´ o de dependeˆncia cont´ınua dos dados. Vamos ilustrar esse conceito atrave´s de
um exemplo.
Considere a equac¸a˜o el´ıptica
uxx + uyy = 0 na regia˜o R = {(x, y), y > 0}.
com condic¸o˜es iniciais e de fronteira dadas sobre a reta y = 0 por:
u(x, 0) =
sen (nx)
n
, uy(x, 0) = 0,
onde n e´ um inteiro fixo, mas a na˜o ser por isso, arbitra´rio. Uma soluc¸a˜o desse prob-
lema, como pode ser facilmente comprovado por substituic¸a˜o direta da soluc¸a˜o na equac¸a˜o
e condic¸o˜es de fronteira, e´
u(x, y) =
sen (nx) cosh(ny)
n
.
2.2. CLASSIFICAC¸A˜O 47
Note que u(x, 0) = sen (nx)n → 0, quando n→∞. Ja´ a soluc¸a˜o
u(x, y) =
sen (nx) cosh(ny)
n
,
cresce indefinidamente com n, em consequeˆncia do termo cosh(ny), que conte´m um fator
exponencial. Dessa forma a` pequenas perturbac¸o˜es nos dados iniciais correspondem enormes
variac¸o˜es na soluc¸a˜o, o que implica que esse problema na˜o e´ bem posto.
Alguns problemas requerem somente condic¸o˜es de fronteira e nesse caso sa˜o chamados
problema de valor de fronteira ou em estado de equil´ıbrio. Se sa˜o fixadas condic¸o˜es iniciais
e de fronteira teremos problemas de evoluc¸a˜o ou propagac¸a˜o.
2.2 Classificac¸a˜o
Amaioria dos problemas pra´ticos classificam-se naturalmente em uma das treˆs categorias:
– problemas de auto-valores.
– problemas de equil´ıbrio,
– problemas de propagac¸a˜o.
Problemas de auto-valores podem ser entendidos como uma extensa˜o dos problemas de
equil´ıbrio. Matematicamente, o problema e´ encontrar uma ou mais constantes λ, e as func¸o˜es
correspondentes u tais que a equac¸a˜o diferencial
L[u] = λMu
e´ satisfeita no domı´nio D e as condic¸o˜es
Biu = λEiu
valem na fronteira de D. Aqui o operador M e´ em geral um operador que na˜o envolve
derivadas. No caso mais simples do problema de autovalores M = I (identidade). Ja´ os
operadores Bi e Ei representam as condic¸o˜es de fronteira. Novamente no caso mais simples
de condic¸o˜es de fronteira de Dirichlet homogeˆneas, temos Bi = I e Ei = Θ (operador nulo).
Exemplos t´ıpicos e cla´ssicos sa˜o os problemas de resisteˆncia e estabilidade de estruturas,
ressonaˆncia de circuitos ele´tricos e acu´sticos, etc. Esses tipos de problemas na˜o sera˜o tratados
neste trabalho.
Problemas de equil´ıbrio sa˜o aqueles caracterizados por um estado estaciona´rio (indepen-
dente do tempo) em que a configurac¸a˜o de equil´ıbrio u num domı´nio D e´ determinada pela
soluc¸a˜o da equac¸a˜o diferencial
L[u] = ϕ
no interior de D, sujeita a`s condic¸o˜es Biu = gi sobre a fronteira de D. Frequentemente, o
domı´nio de soluc¸a˜o D e´ fechado e limitado. Exemplos t´ıpicos e cla´ssicos incluem: pel´ıcula de
saba˜o sobre um anel, distribuic¸a˜o de tensa˜o em estruturas ela´sticas, distribuic¸a˜o uniforme
de temperatura num corpo, escoamento uniforme de um fluido viscoso, etc.
Problemas de propagac¸a˜o apresentam um comportamento caracterizado por instabilidade
ou transiente (dependeˆncia do tempo) que evolue a partir das condic¸o˜es iniciais, e e´ “guiado”
48 CAPI´TULO 2. INTRODUC¸A˜O A`S EQUAC¸O˜ES DIFERENCIAIS PARCIAIS
pelas condic¸o˜es de fronteira quando presentes. Em problemas de propagac¸a˜o pretende-se
predizer o estado subsequente de um sistema dado que ele satisfaz a equac¸a˜o diferencial
L[u] = ϕ
no domı´nio D, que o estado inicial e´ representado pelo dado inicial Iiu = hi e sobre a
fronteira ele e´ guiado pelas condic¸o˜es de fronteira Biu = gi. Exemplos t´ıpicos e cla´ssicos
incluem a propagac¸a˜o de ondas, a propagac¸a˜o da tensa˜o num sistema ele´trico, a propagac¸a˜o
de calor, o aparecimento e evoluc¸a˜o de vibrac¸o˜es, etc.
Considerando a equac¸a˜o (2.1), podemos classificar uma EDP da seguinte forma:
- el´ıptica se b2 − 4ac < 0,
- parabo´lica se b2 − 4ac = 0,
- hiperbo´lica se b2 − 4ac > 0.
Obviamente que a classificac¸a˜o acima na˜o e´ exaustiva uma vez que os coeficientes a, b e
c dependem de x e y. A equac¸a˜o pode, portanto, ser de um determinado tipo em uma parte
do domı´nio e de outro tipo em outra, nesse caso chamaremos esse problema de problema do
tipo misto. No entanto, em muitas aplicac¸o˜es reais importantes essa mudanc¸a na˜o ocorre,
por exemplo, problemas de equil´ıbrio sa˜o frequentemente do tipo el´ıptico, enquanto proble-
mas de propagac¸a˜o sa˜o na maioria das vezes hiperbo´licos ou parabo´licos. De maneira que
a classificac¸a˜o responde, no mais das vezes, a uma exigeˆncia do lado pra´tico das aplicac¸o˜es
em problemas reais, uma vez que problemas el´ıpticos teˆm um comportamento caracter´ıstico
distinto daquele dos problemas hiperbo´licos ou parabo´licos. Matematicamente, essa classi-
ficac¸a˜o e´ feita tomando-se emprestado a nomenclatura utilizada na classificac¸a˜o das coˆnicas.
Seja a equac¸a˜o linear de segunda ordem, com coeficientes constantes
auxx + 2buxy + cuyy + dux + euy + fu = g
fazendo uxx = α
2, uyy = β
2, uxy = αβ,ux = α e uy = β, obtemos o polinoˆmio nas varia´veis
α, β.
P (α, β) = aα2 + 2bαβ + cβ2 + dα+ eβ + f
cujo discriminante b2 − ac = 0, < 0 ou > 0 define a coˆnica P (α, β) como parabo´lica,
el´ıptica ou hiperbo´lica.
Note que o tipo da equac¸a˜o e´ determinado pelas derivadas de mais alta ordem e pode
variar conforme os coeficientes variam. Por exemplo, a equac¸a˜o de Tricomi para escoamento
transoˆnico
uxx + yuyy = 0
tem o polinoˆmio caracter´ıstico P (α, β) = α2 + yβ2 cujo discriminante e´:
b2 − ac = −y,
sendo portanto: parabo´lica para y = 0, el´ıptica para y > 0 e hiperbo´lica para y < 0.
No caso mais geral uma equac¸a˜o linear de segunda ordem em va´rias varia´veis tem a
forma:
n∑
i,j=1
aijuxixj +
n∑
i=1
biuxi + cu = g. (2.2)
2.2. CLASSIFICAC¸A˜O 49
Sem perda de generalidade, podemos assumir que aij = aji, uma vez que uxixj = uxjxi ,
ou seja a matriz dos coeficientes de mais alta ordem e´ sime´trica. Nesse caso a classificac¸a˜o
e´ baseada nos auto-valores da matriz A = {aij}. (Ver [16], pa´gina 4).
Se A tem algum autovalor nulo a equac¸a˜o e´ parabo´lica. Se A na˜o tem autovalores nulos
e os seus autovalores sa˜o todos positivos ou todos negativos, a equac¸a˜o e´ el´ıptica. Se A na˜o
tem autovalores nulos, mas tem autovalores positivos e negativos, a equac¸a˜o sera´ hiperbo´lica.
No caso de sistemas de equac¸o˜es quasi-lineares de primeira ordem em duas varia´veis x e
y da forma:
N∑
j=1
aij
∂uj
∂x
+
N∑
j=1
bij
∂uj
∂y
= ci, para i = 1, 2, . . .N
que vetorialmente por ser expresso por:
Aux +Buy = c (2.3)
a classificac¸a˜o e´ feita, no caso em que B e´ na˜o singular, escrevendo
P (λ) ≡ det(A− λB)
e considerando o sistema: [16]
• parabo´lico: se P (λ) = 0 tem somente ra´ızes reais com pelo menos uma repetida mas
sem autovetores linearmente independentes.
• el´ıptico: se P (λ) = 0 tem todas as ra´ızes complexas.
• hiperbo´lico: se P (λ) = 0 tem as ra´ızes reais e distintas, ou quando repetidas tem
autovetores linearmente independentes.
Novamente, se os coeficientes na˜o sa˜o constantes, pode-se ter variac¸a˜o de tipo dependendo
da posic¸a˜o (x, y).
Observac¸a˜o 2.2.1 Quando B = I teremos λ como autovalor de A. No caso (2.3) λ e´
autovalor de AB−1.
Similarmente ao caso de equac¸o˜es ordina´rias, uma equac¸a˜o quase-linear de ordem maior
que 1 pode ser facilmente transformada em um sistema de primeira ordem e enta˜o a classi-
ficac¸a˜o acima pode ser aplicada, por exemplo:
A equac¸a˜o de segunda ordem (2.1) pode ser escrita na forma vetorial (2.3) fazendo-se a
mudanc¸a de varia´veis v = ux e w = uy, para obter:
avx + bvy + cwy = f(x, y, u, v, w) e vy − wx = 0.
Essas duas equac¸o˜es podem ser reescritas na forma vetorial como:(
a 0
0 −1
)(
vx
wx
)
+
(
b c
1 0
)(
vy
wy
)
=
(
f(x, y, u, v, w)
0
)
. (2.4)
50 CAPI´TULO 2. INTRODUC¸A˜O A`S EQUAC¸O˜ES DIFERENCIAIS PARCIAIS
Pondo V = (v, w)T a equac¸a˜o (2.4) pode ser escrita na forma (2.3) com
A =
(
a 0
0 −1
)
e B =
(
b c
1 0
)
e portanto P (λ) = det(A − λB) = cλ2 − bλ+ a, que resultara´ numa equac¸a˜o parabo´lica se
∆ = b2 − 4ac = 0, numa equac¸a˜o el´ıptica se ∆ < 0 e numa equac¸a˜o hiperbo´lica se ∆ > 0.
Observac¸a˜o 2.2.2 Sistemas nas formas
∂u
∂x
+
∂f(u)
∂y
= 0 e
∂G(u)
∂x
+
∂F (u)
∂y
= 0
sa˜o chamados, respectivamente, de sistemas na forma de conservac¸a˜o e sistema na forma
de divergente.
E´ claro que o primeiro e´ um caso particular do segundo, tomando G(u) = u. Os sistemas
da observac¸a˜o (2.2.2) sa˜o sistemas muito importantes na pra´tica, sendo o primeiro muito
utilizado para formulac¸a˜o de me´todos para equac¸o˜es hiperbo´licas. Para mais informac¸a˜o
vide [23].
2.3 Caracter´ısticas
Apresentamos um estudo bastante simplificado das caracter´ısticas de um sitema hiperbo´lico.
Esse estudo sera´ apresentado apenas para o sistema de primeira ordem (2.3). O objetivo aqui
e´ dar uma ide´ia geome´trica do significado das caracter´ısticas. Um estudo tecnicamente mais
detalhado [Courant 1962], [14] mostra que os autovalores λ, ra´ızes reais de det(A−λB) = 0,
sa˜o direc¸o˜es especiais, chamadas direc¸o˜es caracter´ısticas, ao longo das quais o problema (2.3)
reduz-se a uma equac¸a˜o diferencial ordina´ria. A equac¸a˜o
dx
dy
= λ(x, y, u)
define essas curvas especiais chamadas curvas caracter´ısticas.
De maneira bastante intuitiva, as curvas caracter´ısticas podem ser interpretadas como
direc¸o˜es preferenciais ao longo das quais informac¸o˜es sa˜o transportadas. Com essa inter-
pretac¸a˜o podemos dizer que uma equac¸a˜o el´ıptica na˜o possui direc¸o˜es preferenciais, isto e´
todas as direc¸o˜es sa˜o igualmente importantes e portanto sua soluc¸a˜o depende igualmente
de todos os dados sobre a fronteira dando origem a um problema tipicamente de fronteira.
Ja´ nas equac¸o˜es parabo´licas as informac¸o˜es propagam-se em uma direc¸a˜o preferencial e
isto implica que precisamos prescrever uma condic¸a˜o inicial. Nas hiperbo´licas a informac¸a˜o
propaga-se em duas direc¸o˜es preferenciais exigindo a prescric¸a˜o de uma condic¸a˜o inicial e
uma de fronteira. Para o caso da equac¸a˜o (2.1), quando esta for parabo´lica, as informac¸o˜es
propagam-se em uma direc¸a˜o preferencial e isto significa que precisamos prescrever uma
condic¸a˜o inicial que sera´ transportada de maneira harmoniosa com uma fronteira especifi-
cada; havera´ regularizac¸a˜o e suavizac¸a˜o da soluc¸a˜o . Por outro lado se a equac¸a˜o (2.1) for
2.3. CARACTERI´STICAS 51
hiperbo´lica as informac¸o˜es propagam-se em duas direc¸o˜es preferenciais causando o trans-
porte de uma condic¸a˜o inicial em duas direc¸o˜es podendo acontecer incompatibilidades nas
fronteiras; na˜o havera´ interac¸a˜o harmoniosa e automa´tica com a fronteira. Pode acontecer
que a equac¸a˜o ordina´ria que define uma famı´lia de curvas caracter´ısticas (um mesmo λ) na˜o
seja continuamente dependente dos dados iniciais. Na pra´tica isto significa que para dois
valores iniciais distintos pode haver cruzamento da curva soluc¸a˜o . Se os valores em cada
uma das soluc¸o˜es, no ponto de cruzamento, forem iguais dizemos que os valores iniciais sa˜o
compat´ıveis. Se forem distintos estaremos produzindo uma descontinuidade na soluc¸a˜o da
equac¸a˜o hiperbo´lica, cuja propagac¸a˜o e´ conhecida como choque.
Pode ainda ser demonstrado que descontinuidades, tanto da condic¸a˜o inicial como das
suas derivadas sa˜o transportadas ao longo das caracter´ısticas, de maneira que a soluc¸a˜o
de uma equac¸a˜o hiperbo´lica pode apresentar este tipo de dificuldade. Dizemos que os op-
eradores el´ıptico ou parabo´lico teˆm uma ac¸a˜o de suavizac¸a˜o (regularizac¸a˜o) das soluc¸o˜es
enquanto o mesmo na˜o ocorre com o operador hiperbo´lico que, na verdade, pode ate´ dete-
riorar as condic¸o˜es iniciais como no caso dos choques. As equac¸o˜es el´ıpticas e parabo´licas
possuem soluc¸o˜es suaves na˜o permitindo descontinuidades, quer na soluc¸a˜o quer nas suas
derivadas.
Como ja´ dissemos, no choque as informac¸o˜es trazidas separadamente por mais de uma
caracter´ıstica, sa˜o contradito´rias, havendo assim a formac¸a˜o de uma descontinuidade. Isto
e´ bastante comum na pra´tica e importante em problemas reais. E´ poss´ıvel suavizar o efeito
do choque, “parabolizando” a equac¸a˜o hiperbo´lica, com a adic¸a˜o no modelo, de um termo
artificial multiplicado por ε > 0 (ε pequeno).
E´ importante notar ainda que, no caso das equac¸o˜es hiperbo´licas, a curva Γ sobre a qual
sa˜o especificadas as condic¸o˜es iniciais na˜o pode ser uma caracter´ıstica (ver [14]).
E´ poss´ıvel ainda a utilizac¸a˜o das curvas caracter´ısticas φ(x, y) e ψ(x, y) para uma mu-
danc¸a de varia´veis ε = φ(x, y), η = ψ(x, y) na equac¸a˜o linear de segunda ordem de maneira
a obtermos as equac¸o˜es lineares canoˆnicas, ou seja,
Parabo´lica : uεε
El´ıptica : uεε + uηη
Hiperbo´lica : uεη ouuεε − uηη,
donde temos os modelos ba´sicos representados pelas equac¸o˜es:
Parabo´lica : equac¸a˜o do calor ut − uxx = 0
El´ıptica : equac¸a˜o de Laplace uxx + uyy = 0
Hiperbo´lica : equac¸a˜o da onda utt − a2uxx = 0,
(2.5)
que sera˜o usadas nos pro´ximos cap´ıtulos, para o estudo da soluc¸a˜o nume´rica das equac¸o˜es
diferenciais parciais por te´cnicas de diferenc¸as finitas.
Na pra´tica tambe´m aparecem problemas em outras dimenso˜es cujos exemplos mais sig-
nificativos sa˜o, em duas dimenso˜es espaciais:
equac¸a˜o de advecc¸a˜o ut + aux + buy = 0,
equac¸a˜o do calor ut − uxx − uyy = 0,
equac¸a˜o de Laplace uxx + uyy = 0,
equac¸a˜o da onda utt − a2uxx − b2uyy = 0.
(2.6)
52 CAPI´TULO 2. INTRODUC¸A˜O A`S EQUAC¸O˜ES DIFERENCIAIS PARCIAIS
2.4 Discretizac¸a˜o
A aproximac¸a˜o nume´rica da soluc¸a˜o de uma equac¸a˜o a derivadas parciais e´ obtida pela
transformac¸a˜o do problema cont´ınuo num problema discreto finito, exatamente como no caso
das equac¸o˜es ordina´rias, brevemente descrito, no primeiro cap´ıtulo. No caso de equac¸o˜es
parciais o problema tem a dificuldade adicional do nu´mero de varia´veis independentes ser
maior que 1, isto e´, o domı´nio deixa de ser um intervalo e passa a ser uma regia˜o do plano
ou do espac¸o. A transformac¸a˜o acima referida, e´ realizada tanto na func¸a˜o inco´gnita e na
equac¸a˜o quanto no domı´nio de soluc¸a˜o. No domı´nio ela e´ obtida pela subdivisa˜o deste em um
conjunto de pontos (discretizac¸a˜o), em geral igualmente espac¸ados, ao qual damos o nome de
malha. A transformac¸a˜o da func¸a˜o inco´gnita e da equac¸a˜o sa˜o obtidas, respectivamente pela
avaliac¸a˜o desta nos pontos da malha e pela aproximac¸a˜o das derivadas por diferenc¸as finitas.
Apresentamos a seguir um exemplo completo do processo de discretizac¸a˜o para ilustrar os
conceitos de transformac¸a˜o do domı´nio e da equac¸a˜o.
Exemplo 2.4.1 Seja a equac¸a˜o de difusa˜o:
ut = uxx, 0 ≤ x ≤ 1, t ≥ 0
u(x, 0) = 100 sen πx 0 < x < 1
u(0, t) = u(1, t) = 0, t > 0,
cuja soluc¸a˜o exata e´: u(x, t) = 100e−π
2t sen πx.
Discretizando o intervalo [0, 1] por pontos com espac¸amento h = 0.1 e a varia´vel tempo
com espac¸amento k = 1/600 = 0.0016667 obtemos uma malha para o domı´nio [0, 1]× [0, 0.5].
x
t=0.5
0.1 0.2 0.8 0.9 1.0
1/600
2/600
t
Figura 2.1: Representac¸a˜o da malha do exemplo
Por outro lado, discretizando, a func¸a˜o u(x, t) nos pontos dessa malha e aproximando
ut(xi, tj) e uxx(xi, tj) por diferenc¸as finitas como em (1.11) e (1.13), obtemos:
Ui,j+1 = Ui,j +
k
h2
(Ui+1,j − 2Ui,j + Ui−1,j), para i = 0, 1, · · ·N, j = 0, 1, · · · (2.7)
2.5. DOMI´NIOS GENE´RICOS E TRANSFORMAC¸A˜O DE VARIA´VEIS 53
onde Ui,j e´ uma aproximac¸a˜o para u(xi, tj). Das condic¸o˜es iniciais temos que:
U0,0 = 0, U1,0 = 100 sen 0.1π = 30.901699, · · · , U10,0 = 100 sen 1.0π = 0.
Das condic¸o˜es de fronteira obtemos:
U0,j = UN,j = 0, para j = 0, 1, · · ·
A equac¸a˜o de diferenc¸as finitas (2.7), juntamente com as condic¸o˜es de fronteira pode ser
resolvida para cada j e i = 1, 2, · · · , N − 1. Assim procedendo obtemos as seguintes aprox-
imac¸o˜es para u(xi, 0.5) = u(xi, 300 ∗ k) = Ui,300, i = 1, 2, · · · , N − 1.
(x, y) Aproximada Exata
(0.0, 0.5) 0.0 0.0
(0.1, 0.5) 0.222262 0.222242
(0.2, 0.5) 0.422767 0.422730
(0.3, 0.5) 0.581889 0.581838
(0.4, 0.5) 0.684051 0.683992
(0.5, 0.5) 0.719254 0.719192
(0.6, 0.5) 0.684051 0.683992
(0.7, 0.5) 0.581889 0.581838
(0.8, 0.5) 0.422767 0.422730
(0.9, 0.5) 0.222262 0.222243
(1.0, 0.5) 0.0 0.0
Como podemos observar da tabela acima, esse me´todo nume´rico e´ bastante eficiente
na tarefa de aproximar a soluc¸a˜o teo´rica, apesar de sua simplicidade. Esse fato encoraja o
estudo de outras te´cnicas mais elaboradas, pois se com uma aproximac¸a˜o ta˜o simples e o´bvia
pode-se produzir resultados ta˜o bons e´ de se esperar que com um pouco mais de empenho
seja poss´ıvel melhora´-los. Este de fato e´ o caso, como teremos oportunidade de discutir nos
cap´ıtulos a seguir.
Antes de prosseguirmos com o estudo de novos me´todos vamos comentar brevemente
que os conceitos de Estabilidade, Consisteˆncia e Convergeˆncia, ja´ introduzidos no primeiro
cap´ıtulo no contexto da soluc¸a˜o nume´rica de equac¸o˜es diferenciais ordina´rias, sa˜o essencial-
mente os mesmos com as devidas adaptac¸o˜es que levem em conta as dimenso˜es do prob-
lema. Esses conceitos sera˜o melhor trabalhados dentro de cada classe de equac¸a˜o estudada
nos cap´ıtulos subsequentes. Como e´ usual, esses conceitos servira˜o de paraˆmetro para com-
parac¸a˜o e avaliac¸a˜o de novos me´todos nume´ricos. Novamente, em linha com a teoria dos
me´todos nume´ricos para equac¸o˜es ordina´rias temos a equivaleˆncia “Consisteˆncia + Esta-
bilidade = Convergeˆncia”, que e´ conhecido como Teorema de Equivaleˆncia de Lax; ver por
exemplo ( [Cryer 1983]).
Na pro´xima sec¸a˜o discutiremos um pouco mais detalhadamente a questa˜o da aproximac¸a˜o
do domı´nio, ja´ que nos cap´ıtulos subsequentes, dedicados especificamente a cada uma das
classes de equac¸o˜es, discutiremos longamente a discretizac¸a˜o da equac¸a˜o.
2.5 Domı´nios Gene´ricos e Transformac¸a˜o de Varia´veis
Na maioria das vezes o modelo matema´tico de um problema pra´tico e´ constru´ıdo para
o sistema cartesiano de coordenadas. Para o problema discreto derivado desse modelo,
54 CAPI´TULO 2. INTRODUC¸A˜O A`S EQUAC¸O˜ES DIFERENCIAIS PARCIAIS
recomenda-se a utilizac¸a˜o desse mesmo sistema desde que a geometria do domı´nio na˜o
imponha dificuldades ou apresente aspectos simplificadores, como por exemplo simetrias.
Entretanto, existem situac¸o˜es em que a geometria do domı´nio sugere a utilizac¸a˜o de uma
malha na˜o cartesiana. E´ o caso, por exemplo, quando desejamos calcular a distribuic¸a˜o
de calor num disco circular; a malha mais adequada e´ dada em coordenadas polares. Na
pra´tica, as vezes tem-se sistemas constru´ıdos para reproduzir, ou que melhor se ajustam a`
geometria do problema em estudo, e´ o caso por exemplo do escoamento de ga´s pelo bocal
de uma turbina, ver figura 2.2
ξ
η
x
y
Figura 2.2: Malha do sitema ξ, η
No caso de domı´nios irregulares outras dificuldades sa˜o introduzidas, pois raramente,
nesse caso, um ponto da malha retangular situa-se exatamente sobre a fronteira; em geral e´
preciso o uso de interpolac¸o˜es, em pontos junto a` fronteira. Vamos apresentar treˆs exemplos,
de maneira bastante sumarizada, para ilustrac¸a˜o da te´cnica que transforma as varia´veis para
um novo sistema, com consequente mudanc¸as na equac¸a˜o em questa˜o. No novo sistema
de varia´veis, a aproximac¸a˜o por diferenc¸as se faz de maneira similar aos casos anteriores.
Mais informac¸o˜es podem ser encontradas em [17]. Exemplos de diferentes domı´nios e suas
respectivas malhas sa˜o apresentados na figura 2.3.
(a) malha retangular (d) malha triangular(c) malha inclinada(b) malha circular
Figura 2.3: Diferentes domı´nios e respectivas malhas
2.5. DOMI´NIOS GENE´RICOS E TRANSFORMAC¸A˜O DE VARIA´VEIS 55
2.5.1 Transformac¸a˜o de Coordenadas Cartesianas em Polares
Esse tipo de transformac¸a˜o de coordenadas e´ u´til quando o domı´nio apresenta algum tipo
de simetria circular. Por exemplo quando o domı´nio for um disco de raio a ou parte dele.
A transformac¸a˜o de coordenadas cartesianas para polares transforma um disco no plano
cartesiano em um retaˆngulo no plano polar, e portanto uma discretizac¸a˜o desse retaˆngulo
pode ser facilmente realizada com uma malha retaˆngular como aquela da figura 2.1. Se
por um lado a transformac¸a˜o simplifica a discretizac¸a˜o do domı´nio por outro ela complica
a equac¸a˜o diferencial, que deve ser reescrita no novo sistema de coordenadas. Para o caso
bi-dimensional de uma equac¸a˜o de segunda ordem, precisamos das derivadas parciais de u
na forma polar, ate´ segunda ordem. Ilustramos na figura 2.4 como cada ponto de uma curva
ω(x, y) no planocartesiano pode ser expresso em func¸a˜o do raio r e do aˆngulo θ.
r
ω
θ
ω
(x,y)
x
y
(r, θ)
x
y
Figura 2.4: Representac¸a˜o de uma func¸a˜o nos sistemas cartesiano e polar
A func¸a˜o u(x, y), no novo sistema passa a ser u(r, θ), onde r = r(x, y) e θ = θ(x, y).
No caso de coordenadas polares
x = r cos θ e y = r sen θ
donde
r2 = x2 + y2 e θ = arctan
y
x
.
Podemos enta˜o ilustrar a transformac¸a˜o do disco no retaˆngulo, com a respectiva trans-
formac¸a˜o de uma malha polar em uma cartesiana como na figura 2.5.
r
Θ
pi
pi
−
x
y
1−1 1
Figura 2.5: Tranformac¸a˜o do disco no quadrado por coordenadas polares
56 CAPI´TULO 2. INTRODUC¸A˜O A`S EQUAC¸O˜ES DIFERENCIAIS PARCIAIS
Utilizando a regra da cadeia podemos obter as derivadas de u com relac¸a˜o a x e y como
func¸a˜o do novo sistema de coordenadas. Acompanhe o desenvolvimento abaixo:
∂u
∂x
=
∂u
∂r
∂r
∂x
+
∂u
∂θ
∂θ
∂x
e
∂u
∂y
=
∂u
∂r
∂r
∂y
+
∂u
∂θ
∂θ
∂y
. (2.8)
Derivando r em relac¸a˜o a x e y obtemos:
2r
∂r
∂x
= 2x ⇒ ∂r
∂x
=
x
r
= cos θ
2r
∂r
∂y
= 2y ⇒ ∂r
∂y
=
y
r
= sen θ
e derivando θ tambe´m em relac¸a˜o a x e y obtemos:
∂θ
∂x
=
−y/x2
1 + (y/x)2
=
−y
x2 + y2
= −1
r
sen θ
e
∂θ
∂y
=
1/x
1 + (y/x)2
=
x
x2 + y2
=
1
r
cos θ.
Substituindo em (2.8) determina-se as derivadas parciais de u com relac¸a˜o a x e y na forma
polar:
∂u
∂x
= cos θ
∂u
∂r
− 1
r
cos θ
∂u
∂θ
(2.9)
∂u
∂y
= sen θ
∂u
∂r
+
1
r
cos θ
∂u
∂θ
. (2.10)
As derivadas parciais de ordem 2 sa˜o determinadas usando-se (2.9-2.10) e a regra da
cadeia. Apo´s uma quantidade considera´vel de ca´lculos obte´m-se:
∂2u
∂x2
= cos θ
∂
∂r
(
∂u
∂x
)
− 1
r
sen θ
∂
∂θ
(
∂u
∂x
)
= cos2 θ
∂2u
∂r2
+
sen 2θ
r2
∂2u
∂θ2
− 2 sen θ cos θ
r
∂2u
∂r∂θ
+
sen 2θ
r
∂u
∂r
+ 2
sen θ cos θ
r2
∂u
∂θ
;
∂2u
∂y2
= sen 2θ
∂2u
∂r2
+
cos2 θ
r2
∂2u
∂θ2
+ 2
sen θ cos θ
r
∂2u
∂r∂θ
+
cos2 θ
r
∂u
∂r
− 2 sen θ cos θ
r2
∂u
∂θ
;
e
2.5. DOMI´NIOS GENE´RICOS E TRANSFORMAC¸A˜O DE VARIA´VEIS 57
∂2u
∂x∂y
= sen θ cos θ
∂2u
∂r2
+
sen θ cos θ
r2
∂2u
∂θ2
+
cos2 θ − sen 2θ
r
∂2u
∂r∂θ
− sen θ cos θ
r
∂u
∂r
+
sen 2θ − cos2 θ
r2
∂u
∂θ
.
Exemplo 2.5.1 Transformar a Equac¸a˜o de Laplace em coordenadas cartesianas
∂2u
∂x2
+
∂2u
∂y2
= 0,
para sua forma equivalente em coordenadas polares.
Soluc¸a˜o: Substituindo as expresso˜es para as derivadas ∂
2u
∂x2 e
∂2u
∂y2 obtidas acima, na equac¸a˜o
de Laplace obtemos:
0 =
∂2u
∂x2
+
∂2u
∂y2
= (cos2 θ + sen 2θ)
∂2u
∂r2
+
sen 2θ + cos2 θ
r2
∂2u
∂θ2
+
sen 2θ + cos2 θ
r
∂u
∂r
=
∂2u
∂r2
+
1
r2
∂2u
∂θ2
+
1
r
∂u
∂r
,
que e´ a equac¸a˜o de Laplace em coordenadas polares.
Agora, se Ui,j representa uma aproximac¸a˜o para u(ri, θj) a equac¸a˜o
∂2u
∂r2
+
1
r2
∂2u
∂θ2
+
1
r
∂u
∂r
= 0
pode ser discretizada normalmente nesse novo sistema, com ordem O(h2 + k2), onde k2 =
(δθ)2, como
Ui+1,j − 2Ui,j + Ui−1,j
h2
+
1
(ih)2
Ui,j+1 − 2Ui,j + Ui,j−1
k2
+
1
ih
Ui+1,j − Ui−1,j
2h
= 0,
onde h e k sa˜o respectivamente, os espac¸amentos nos eixos r e θ e ri = i ∗ h, como ilustrado
na figura 2.6.
2.5.2 Transformac¸a˜o de Coordenadas Cartesianas em Obl´ıquas
Um outro sistema relativamente comum e u´til de transformac¸a˜o de coordenadas e´ o
sistema de coordenadas obl´ıquas. Aqui u(x, y) se transforma em u(q, r), com θ um aˆngulo
fixo, como ilustrado na figura 2.7.
Temos assim,
x = q + r cos θ
y = r sen θ.
58 CAPI´TULO 2. INTRODUC¸A˜O A`S EQUAC¸O˜ES DIFERENCIAIS PARCIAIS
h
ij
i
j
δθ
Figura 2.6: Malha para discretizac¸a˜o da equac¸a˜o de Laplace em coordenadas
polares
(x,y)ω
r
θ
ω
y
x,q
(q,r)
xq
y
Figura 2.7: Representac¸a˜o de uma func¸a˜o em coordenadas cartersianas e obl´ıquas
Vamos abordar este problema de uma maneira um pouco diferente: ao inve´s de encon-
trarmos as derivadas parciais no sistema cartesiano, as determinaremos, primeiro, no sistema
de coordenadas obl´ıquas. Isto e´,
∂u
∂r
=
∂u
∂x
∂x
∂r
+
∂u
∂y
∂y
∂r
∂u
∂q
=
∂u
∂x
∂x
∂q
+
∂u
∂y
∂y
∂q
.
Mas
∂x
∂r
= cos θ,
∂x
∂q
= 1,
∂y
∂r
= sen θ e
∂y
∂q
= 0.
2.5. DOMI´NIOS GENE´RICOS E TRANSFORMAC¸A˜O DE VARIA´VEIS 59
Por substituic¸a˜o,
∂u
∂q
=
∂u
∂x
⇒ ∂
2u
∂q2
=
∂2u
∂x2
,
∂u
∂r
= cos θ
∂u
∂x
+ sen θ
∂u
∂y
∂2u
∂r2
= cos2 θ
∂2u
∂x2
+ 2 sen θ cos θ
∂2u
∂x∂y
+ sen 2θ
∂2u
∂y2
.
e
∂2u
∂q∂r
= cos θ
∂2u
∂x2
+ sen θ
∂2u
∂x∂y
.
Note que: (
∂u
∂q
∂u
∂r
)
=
(
1 0
cos θ sen θ
)( ∂u
∂x
∂u
∂y
)
e 

∂2u
∂q2
∂2u
∂q∂r
∂2u
∂r2

 =
(
1 0 0
cos θ sen θ 0
cos2 θ 2 sen θ cos θ sen 2θ
)
∂2u
∂x2
∂2u
∂x∂y
∂2u
∂y2

 . (2.11)
Podemos determinar
∂2u
∂x2
,
∂2u
∂x∂y
e
∂2u
∂y2
, em termos de
∂2u
∂q2
,
∂2u
∂q∂r
e
∂2u
∂r2
, resolvendo o
sistema (2.11) por substituic¸a˜o direta.
Exemplo 2.5.2 Transformar a equac¸a˜o de Laplace
∂2u
∂x2
+
∂2u
∂y2
= 0,
do sistema cartesiano para o sistema de coordenadas obl´ıquas usando θ = 45o.
Soluc¸a˜o: Fazendo θ = 45o no sistema acima, obte´m-se:

∂2u
∂q2
∂2u
∂q∂r
∂2u
∂r2

 =

 1 0 0√2
2
√
2
2 0
1
2 1
1
2




∂2u
∂x2
∂2u
∂x∂y
∂2u
∂y2

 .
Portanto
∂2u
∂x2
=
∂2u
∂q2
60 CAPI´TULO 2. INTRODUC¸A˜O A`S EQUAC¸O˜ES DIFERENCIAIS PARCIAIS
∂2u
∂x∂y
=
∂2u
∂q2
+
√
2
∂2u
∂q∂r
e
∂2u
∂y2
=
∂2u
∂q2
− 2
√
2
∂2u
∂q∂r
+
∂2u
∂r2
.
Assim
∂2u
∂x2
+
∂2u
∂y2
=
∂2u
∂r2
−
√
2
∂2u
∂q∂r
+
∂2u
∂q2
= 0
que e´ a Equac¸a˜o de Laplace no sistema de coordenadas obl´ıquas com θ = 45o.
Note que a discretizac¸a˜o nesse caso, exige tambe´m uma aproximac¸a˜o para ∂
2u
∂q∂r . Para
mantermos ordem 2, e´ preciso utilizar diferenc¸a central em q e em r; assim teremosO(h2+k2)
com h = δr e k = δq.
Se Ui,j representa uma aproximac¸a˜o para u(qi, rj), temos:
∂2u
∂r∂q
=
∂
∂r
(
∂u
∂q
)
=
∂
∂r
(
Ui+1,j − Ui−1,j
2h
)
=
1
2h
(
Ui+1,j+1 − Ui−1,j+1 − Ui+1,j−1 + Ui−1,j−1
2k
)
.
Portanto a discretizac¸a˜o da equac¸a˜o de Laplace em coordenadas obl´ıquas, para θ = 450
e com ordem O(h2 + k2) e´ dada por:
Ui+1,j − 2Ui,j + Ui−1,j
h2
−
√
2
4hk
(Ui+1,j+1 − Ui−1,j+1 − Ui+1,j−1 + Ui−1,j−1)
+
Ui,j+1 − 2Ui,j + Ui,j−1
k2
= 0.
A presenc¸a da derivada mista exige que um nu´mero maior de pontos da malha este-
jam envolvidos nessa discretizac¸a˜o. Sera˜o necessa´rios 9 pontos no lugar da ja´ conhecida
discretizac¸a˜o de 5 pontos. Observe atentamente a figura 2.8.
2.5.3 Transformac¸a˜o de Coordenadas Cartesianas em Triangulares
Este sistema de coordenadas e´ muito u´til, nos permitindo tratar com mais facilidade
problemas que envolvem regio˜es irregulares. Aqui u(x, y) se transforma em u(q, r, s), com θ
e β aˆngulos fixos, de conformidade com a figura 2.9 e as relac¸o˜es abaixo.
Da figura 2.9 vemos que:
x = q + r cos θ + s cosβ,
y = r sen θ + s senβ.
2.5. DOMI´NIOS GENE´RICOS E TRANSFORMAC¸A˜O DE VARIA´VEIS 61
i,j
q
r
δr
δq
Figura 2.8: Malha para a discretizac¸a˜o da equac¸a˜o de Laplace em coordenadas
obl´ıquas
ω
ω
,q
s
r
β
θ
(q, )=(q,(r,s))
v
v
y
xq
(x,y)
x
y
Figura 2.9: Representac¸a˜o de uma func¸a˜o nossistemas cartesiano e triangular
e notemos que x e y sa˜o expressos em termos de treˆs varia´veis. Portanto, por substituic¸a˜o:
∂u
∂q
=
∂u
∂x
∂x
∂q
+
∂u
∂y
∂y
∂q
=
∂u
∂x
,
∂u
∂r
=
∂u
∂x
∂x
∂r
+
∂u
∂y
∂y
∂r
= cos θ
∂u
∂x
+ sen θ
∂u
∂y
,
∂u
∂s
=
∂u
∂x
∂x
∂s
+
∂u
∂y
∂y
∂s
= cosβ
∂u
∂x
+ senβ
∂u
∂y
.
As segundas derivadas parciais, calculadas como fizemos nas secc¸o˜es anteriores, sa˜o dadas
por:
∂2u
∂q2
=
∂2u
∂x2
,
∂2u
∂r2
= cos2 θ
∂2u
∂x2
+ 2 sen θ cos θ
∂2u
∂x∂y
+ sen 2θ
∂2u
∂y2
,
∂2u
∂s2
= cos2 β
∂2u
∂x2
+ 2 senβ cosβ
∂2u
∂x∂y
+ sen 2β
∂2u
∂y2
.
62 CAPI´TULO 2. INTRODUC¸A˜O A`S EQUAC¸O˜ES DIFERENCIAIS PARCIAIS
Na forma matricial:

∂2u
∂q2
∂2u
∂r2
∂2u
∂s2

 =

 1 0 0cos2 θ 2 sen θ cos θ sen 2θ
cos2 β 2 senβ cosβ sen 2β




∂2u
∂x2
∂2u
∂x∂y
∂2u
∂y2

 . (2.12)
Resolvendo o sistema (2.12), ja´ que θ e β sa˜o dados, determinamos os valores de
∂2u
∂x2
e
∂2u
∂y2
em termos de
∂2u
∂q2
,
∂2u
∂r2
e
∂2u
∂s2
, restando somente substitu´ı-los na Equac¸a˜o de Laplace
em coordenadas cartesianas para obtermos a Equac¸a˜o de Laplace em coordenadas triangu-
lares. Para θ = 600 e β = 1200 a equac¸a˜o de Laplace torna-se:
∂2u
∂x2
+
∂2u
∂y2
=
2
3
(
∂2u
∂r2
+
∂2u
∂q2
+
∂2u
∂s2
)
= 0.
A discretizac¸a˜o por diferenc¸as centradas em cada direc¸a˜o fica enta˜o:
2
3
(
Ui+1,j,k − 2Ui,j,k + Ui−1,j,k
δq2
+
Ui,j+1,k − 2Ui,j,k + Ui,j−1,k
δr2
+
Ui,j,k+1 − 2Ui,j,k + Ui,j,k−1
δs2
)
= 0. (2.13)
A mole´cula de ca´lculo com 7 pontos esta´ representada na figura 2.10.
q
r
s
i,j,k
δq
δδr s
Figura 2.10: Malha para discretizac¸a˜o da equac¸a˜o de Laplace em coordenadas
triangulares
2.6 Exerc´ıcios
2.6. EXERCI´CIOS 63
2.1 Mostre que u(x, t) =
∑∞
n=1 cn exp(−n
2π2at
l2 ) sen (
nπx
l ) e´ soluc¸a˜o do problema:
ut + auxx = 0, 0 < x < l, t > 0
u(x, 0) = f(x), 0 < x < l
u(0, t) = u(l, t) = 0, t > 0
onde os coeficientes cn sa˜o dados por:
cn =
2
l
∫ l
0
f(x) sen (
nπx
l
)dx.
2.2 Considere o problema:
uxx + uyy = 0 −∞ < x <∞, y > 0
u(x, 0) = 0 −∞ < x <∞
uy(x, 0) =
sen (nx)
n
−∞ < x <∞
cuja soluc¸a˜o e´ u(x, y) =
senh(ny) sen (nx)
n2
. Mostre que este na˜o constitui um problema bem
posto uma vez que a soluc¸a˜o na˜o depende continuamente dos dados iniciais.
Sugesta˜o: Considere o problema com todas as condic¸o˜es de fronteiras nulas que obviamente
tem como soluc¸a˜o a func¸a˜o nula. Compare agora as soluc¸o˜es e condic¸o˜es de fronteira.
2.3 Prove utilizando o teorema da divergeˆncia que o problema de Neumann
∇2u = f em R
∂u
∂n
= g em ∂R
tem soluc¸a˜o somente se a condic¸a˜o de consisteˆncia:∫
R
f dR =
∫
∂R
g d(∂R)
for satisfeita.
2.4 Mostre que a equac¸a˜o de advecc¸a˜o ux + a(x, y)uy = 0 e´ hiperbo´lica se a(x, y) 6= 0.
2.5 Mostre que as equac¸o˜es do calor, da onda e de Laplace, sa˜o respectivamente, Parabo´lica,
Hiperbo´lica e El´ıptica; ver (2.5).
2.6 Mostre que as equac¸o˜es de Cauchy-Riemann, ux = vy e uy = −vx formam um sistema
El´ıptico de primeira ordem.
64 CAPI´TULO 2. INTRODUC¸A˜O A`S EQUAC¸O˜ES DIFERENCIAIS PARCIAIS
2.7 Considere a equac¸a˜o diferencial de primeira ordem quasi-linear em duas varia´veis
aux + buy = c,
onde a, b e c sa˜o func¸o˜es de x, y e u. Se x = x(t) e y = y(t) sa˜o func¸o˜es do paraˆmetro t,
mostre que a curva caracter´ıstica dessa equac¸a˜o e´ dada por:
dx
dt
= a,
dy
dt
= b
e a soluc¸a˜o u satisfaz ao longo dessa curva caracter´ıstica a equac¸a˜o diferencial ordina´ria :
du
dt
=
c
a
dx
dt
=
c
b
dy
dt
.
Deduza enta˜o que essas equac¸o˜es podem ser reescritas numa forma compacta como:
dx
a
=
dy
b
=
du
c
.
Sugesta˜o: Ver [13].
Utilizando essa te´cnica encontre a soluc¸a˜o da equac¸a˜o:
yux + uy = 2
com condic¸a˜o inicial u(x, 0) dado para x ∈ IR.
2.8 Utilizando as concluso˜es do exerc´ıcio (2.7) encontre a soluc¸a˜o do problema:
tut + xuux = −tx, u = 5 sobre a curva tx = 1, t > 0.
Observamos que a soluc¸a˜o e´ dada por u(x, t) = −1 +√38− 2tx.
2.9 Mostre que a soluc¸a˜o do problema de valor inicial:
ut + a(u)ux = 0, u(x, 0) = u0(x)
e´ dada implicitamente por u(x, t) = u0(x− a(u)t) desde que 1 + u′0(x− a(u)t)a′(u)t 6= 0.
2.10 Seja p(x, t) uma func¸a˜o real positiva e continuamente diferencia´vel. Derivar a parte
principal e classificar de cada uma das equac¸o˜es abaixo.
∇ · (p∇u) + qu = f, ut −∇ · (p∇u) + qu = f, utt −∇ · (p∇u) + qu = f
onde ∇ representa o operador gradiente, e · representa o produto escalar. Sugesta˜o: Es-
creva as expresso˜es acima na forma (2.2) e utilize enta˜o a classificac¸a˜o para essa classe de
problemas.
2.6. EXERCI´CIOS 65
2.11 Considere o sistema de equac¸o˜es de primeira ordem quase linear,
Aux +Buy = c
como em (2.3). Mostre que se existem uma matriz invers´ıvel T e uma matriz diagonal E
tais que
TA = ETB
onde
E =


e1 0 · · · 0
0 e2 · · · 0
. . .
0 0 · · · en


enta˜o o sistema acima pode ser escrito na forma
n∑
j=1
a∗ij
(
eiujx + ujy
)
= c∗i (2.14)
onde A∗ = TB e c∗ = Tc. Escrevendo agora ei = αβ = cot(θ) cada uma das equac¸o˜es em
(2.14) pode ser reescrita como:
n∑
j=1
a∗ij
1
β
(
ujx cos(θ) + ujy sen (θ)
)
= c∗i
e portanto conclua que esta equac¸a˜o representa uma equac¸a˜o diferencial ordina´ria na direc¸a˜o
do vetor (cos(θ), sen (θ)).
Mostre em seguida que a condic¸a˜o para existeˆncia das matrizes T e E e´ que a equac¸a˜o
det(A−λB) = 0 tenha n ra´ızes reais e que os autovetores associados a elas forme uma base
do espac¸o. Observe tambe´m que nesse caso as curvas caracter´ısticas sa˜o dadas por:
dx
dy
= ei = cot(θi).
2.12 O escoamento em uma dimensa˜o de um ga´s ideal isentro´pico e´ descrito pelas equac¸o˜es
de momento, da continuidade e lei dos gases, como a seguir:
ut + uux + ρ
−1px = 0
ρt + ρux + uρx = 0
pρ−γ = α constante > 0, γ > 0
onde u(x, t), p(x, t) e ρ(x, t) sa˜o, respectivamente a velocidade, a pressa˜o e a densidade
do sistema. Eliminando a pressa˜o p das duas primeiras equac¸o˜es utilizando a terceira,
escreva esse sistema na forma (2.3) e enta˜o mostre, utilizando o exerc´ıcio (2.11), que elas
formam um sistema hiperbo´lico. Calcule as equac¸o˜es caracter´ısticas. Mostre, utilizando os
invariantes de Riemann ( [Ames 1972] pa´ginas 81-84) que para γ = 3 as caracter´ısticas sa˜o
linhas retas. Calcule as matrizes E e T que o transforma em (2.14).
66 CAPI´TULO 2. INTRODUC¸A˜O A`S EQUAC¸O˜ES DIFERENCIAIS PARCIAIS
2.13 O escoamento de a´gua num canal retangular, aberto e levemente inclinado com largura
unita´ria, profundidade u e velocidade v e´ descrito pelo sistema de equac¸o˜es de primeira
ordem:
vux + uvx + ut = 0
gux + vvx + vt = g(S0 − Sf )
onde S0 e´ a inclinac¸a˜o do fundo do canal, Sf e´ uma medida da resisteˆncia do atrito ao
escoamento e g e´ acelerac¸a˜o da gravidade. Mostre que esse sistema e´ hiperbo´lico e determine
suas caracter´ısticas. Escreva-o na forma (2.14) calculando as matrizes E e T . Mostre que
os invariantes de Riemann quando S0−Sf = 0 (lei de conservac¸a˜o) sa˜o v+2c e v− 2c com
c2 = gu.
2.14 Considere a mudanc¸a de coordenadas ξ = ξ(x, y) e η = η(x, y) que transforma o sis-
tema cartesiano num sistema de coordenadas gene´rico. Mostre que a equac¸a˜o transformada
para o sistema (ξ, η) nos casos
a. ux + auy = 0 e´ (ξx + aξy)uξ + (ηx + aηy)uη = 0
b. ∇2u = 0 e´ J2 (auξξ − 2buξη + cuηη + duξ + euη) = 0, onde
J = 1/(xξyη − xηyξ), a = x2η + y2η, b = xξxη + yξyη, c = x2ξ + y2ξ ,
d = J (xηβ − yηα) , e = J (yξα− xξβ) , α = axξξ − 2bxξη + cxηη,
β = ayξξ− 2byξη + cyηη.
2.15 Qual o resultado da transformac¸a˜o de coordenadas triangulares se β = 180o, ou β =
θ + 180o?
2.16 Calcular a soluc¸a˜o nume´rica da equac¸a˜o de Laplace que fornece a distribuic¸a˜o de
temperatura numa regia˜o triangular como a da figura 2.11. Utilizar a expressa˜o derivada
em (2.13) para construir o sistema linear de acordo com a numerac¸a˜o da figura 2.11 com
δq = δs = δr = 1.
40o C 10
o
o0 C
C
1
2 3
4 5 6
Figura 2.11: Malha triangular
2.17 Montar o sistema linear resultante da aplicac¸a˜o da discretizac¸a˜o de 5 pontos para a
equac¸a˜o de Laplace com condic¸a˜o de Dirichlet no domı´nio dado pela figura 2.12. Na regia˜o
R usa-se a equac¸a˜o em coordenadas cartesianas, e em S usa-se a equac¸a˜o em coordenadas
obl´ıquas.
2.6. EXERCI´CIOS 67
R
S
1 2 3 4
5 6 7 8
1
2
3
4
5
5
5
5 5
5
l
l
m
R
S
Figura 2.12: Composic¸a˜o de malhas
2.18 Montar o sistema linear resultante da aplicac¸a˜o da discretizac¸a˜o de 5 pontos para a
equac¸a˜o de Laplace com condic¸a˜o de Dirichlet no domı´nio dado pela figura 2.12. Os pontos
marcados com “×” na malha refinada devem ser calculados utilizando-se interpolac¸a˜o nos
pontos vizinhos da malha mais grossa. Ja´ para os pontos marcados com “◦” na intersecc¸a˜o
das malhas cartersiana e obl´ıqua, a malha da regia˜o R e´ continuada para dentro da regia˜o S,
como na figura 2.12, e a equac¸a˜o de diferenc¸as e´ aplicada para cada um desses pontos, que
sa˜o enta˜o determinados em func¸a˜o dos pontos marcados com “•”. Os pontos marcados com
“•” sa˜o determinados como a me´dia dos 4 pontos vizinhos da malha, e seu valor substituido
na equac¸a˜o relevante.
2.19 Obtenha a transformac¸a˜o do problema representado pela equac¸a˜o de Laplace no domı´nio
da figura 2.13 com as condic¸o˜es de fronteira:
u(x, 0) = 0, a < x < 1, e ux(0, y) = 0, a < y < 1
u(x, y) =
2
π
arctan
(
2y
1− a2
)
para x2 + y2 = a2 e u(x, y) = 1 para x2 + y2 = 1
cuja soluc¸a˜o exata e´:
2
π
arctan
(
2y
1− x2 − y2
)
xu
1
=1
y
u=1
1 x
u=2/ pi
u=0
a
a arctan(2y/(1-a*a))
Figura 2.13: Domı´nio para a equac¸a˜o Laplace
68 CAPI´TULO 2. INTRODUC¸A˜O A`S EQUAC¸O˜ES DIFERENCIAIS PARCIAIS
Cap´ıtulo 3
Equac¸o˜es Parabo´licas
3.1 Introduc¸a˜o
As equac¸o˜es parabo´licas sa˜o equac¸o˜es de evoluc¸a˜o, ou seja, elas modelam fenoˆmenos que
evoluem (de maneira geral, irreversivelmente) com o tempo, assim uma das varia´veis tem
sempre um cara´ter temporal que a distingue das demais. Esse aspecto serve de motivac¸a˜o
para, no caso bidimensional, usarmos a varia´vel x com sentido espacial e t como varia´vel
evolutiva. Essas varia´veis sa˜o tratadas distintintamente tanto do ponto de vista teo´rico
quanto do ponto de vista experimental e tambe´m nume´rico. Esperamos que no material
que segue esta distinc¸a˜o fique bastante clara, pois este e´ um aspecto muito importante da
classificac¸a˜o das equac¸o˜es nos treˆs tipos cla´ssicos.
Como vimos, se b2 − ac = 0 na equac¸a˜o
auxx + 2buxt + cutt = r(x, t, u, ux, ut) (3.1)
temos uma equac¸a˜o diferencial parcial parabo´lica, cuja soluc¸a˜o e´ u(x, t).
Em aplicac¸o˜es, uma forma mais comum de ocorreˆncia de equac¸o˜es parabo´licas e´:
ut − g(x, t)uxx = r(x, t, u, ux), a < x < b e 0 < t < T,
u(x, 0) = ψ(x), a ≤ x ≤ b (3.2)
u(a, t) = f(t), 0 < t < T
u(b, t) = g(t), 0 < t < T.
Teorema 3.1 Se g(x, t) e´ cont´ınua e limitada e r(x, t, u, ux) e´ monotonicamente decrescente
em u, enta˜o existe uma u´nica soluc¸a˜o para (3.2).
Para mais detalhes sobre a teoria geral de equac¸o˜es parabo´licas ver Friedman [2] e Bern-
stein [Bernstein 1950].
O modelo fundamental das equac¸o˜es parabo´licas e´ a equac¸a˜o do calor
ut − a(x, t)uxx = r(x, t), a(x, t) > 0, 0 ≤ x ≤ L, 0 < t < T (3.3)
69
70 CAPI´TULO 3. EQUAC¸O˜ES PARABO´LICAS
u(x, 0) = ψ(x), 0 ≤ x ≤ L condic¸a˜o inicial
u(0, t) = f(t), 0 < t < T
u(L, t) = g(t), 0 < t < T
}
condic¸o˜es de fronteira.
E´ importante lembrar que no caso das equac¸o˜es parabo´licas, a soluc¸a˜o num ponto interior
depende de toda a condic¸a˜o inicial. Ale´m disso, o operador parabo´lico regulariza a soluc¸a˜o,
ou seja, num ponto interior (t > 0), mesmo que bem pro´ximo da condic¸a˜o inicial (t = 0), a
soluc¸a˜o e´ completamente suave (regular), mesmo que, por exemplo f(0) 6= ψ(0). A mesma
observac¸a˜o e´ va´lida pro´ximo de x = L.
Discretizac¸a˜o
Para desenvolver algumas te´cnicas para soluc¸a˜o de equac¸o˜es parabo´licas vamos usar,
em princ´ıpio, o modelo da equac¸a˜o do calor, apresentado em (3.3), com a(x, t) constante e
r(x, t) ≡ 0.
Consideremos, enta˜o, o problema de Dirichlet
ut = auxx, a > 0, 0 ≤ x ≤ L, 0 < t < T (3.4)
u(x, 0) = ψ(x), 0 ≤ x ≤ L
u(0, t) = f(t), 0 < t < T
u(L, t) = g(t), 0 < t < T.
Dividindo o intervalo [0, L], da varia´vel espacial x, em N partes iguais de comprimento
h, temos os N + 1 pontos xi = ih, i = 0, 1, . . . , N , onde h =
L
N e, dividindo o intervalo
[0, T ], da varia´vel tempo t, em M partes iguais de comprimento k, temos os M + 1 pontos
tj = jk, j = 0, 1, . . . ,M , onde k =
T
M . Assim vamos obter uma aproximac¸a˜o da soluc¸a˜o nos
pontos (xi, tj) da malha, como mostra a figura 3.1
Vamos denotar por ui,j a soluc¸a˜o exata no ponto (xi, tj) e por Ui,j o valor aproximado
de ui,j.
3.2 Me´todos de Diferenc¸as Finitas
Me´todo Expl´ıcito
Usando diferenc¸as centradas de segunda ordem na varia´vel espacial para aproximar a
derivada de segunda ordem obtemos:
uxx(xi, tj) ≃ Ui−1,j − 2Ui,j + Ui+1,j
h2
= δ2xUi,j (3.5)
e usando agora diferenc¸as progressivas no tempo para aproximar a derivada de primeira
ordem produzimos a aproximac¸a˜o:
ut(xi, tj) ≃ Ui,j+1 − Ui,j
k
= ∆tUi,j .
3.2. ME´TODOS DE DIFERENC¸AS FINITAS 71
(x)ψ
t
h
x
k
0 L
f(t) g(t)
Figura 3.1: Domı´nio da equac¸a˜o e respectiva malha
Substituindo essas aproximac¸o˜es em (3.4) obtemos a equac¸a˜o aproximada:
Ui,j+1 − Ui,j
k
= a
(
Ui−1,j − 2Ui,j + Ui+1,j
h2
)
, (3.6)
ou seja,
Ui,j+1 = Ui,j + σ(Ui−1,j − 2Ui,j + Ui+1,j), (3.7)
onde σ = ka/h2.
Assim, conhecidos os valores Ui−1,j , Ui,j e Ui+1,j calculamos Ui,j+1 explicitamente, sem
qualquer complicac¸a˜o suplementar (ver figura 3.2):
A mole´cula computacional e´ uma traduc¸a˜o gra´fica da fo´rmula (3.7), pois ela estabelece a
relac¸a˜o de dependeˆncia existente entre o valor no ponto (i, j + 1) e seus vizinhos. Note que
no caso do me´todo expl´ıcito o ponto (i, j + 1) depende apenas dos pontos (i− 1, j), (i, j) e
(i + 1, j), todos do n´ıvel anterior e da´ı a palavra expl´ıcito. Observe tambe´m na figura 3.2
que, como os valores sobre a linha j = 0 sa˜o conhecidos (dados iniciais), e´ poss´ıvel calcular
os valores da linha j = 1 a menos do primeiro e do u´ltimo, mas esses dois valores sa˜o dados
exatamente pelas condic¸o˜es de fronteira completando assim o ca´lculo da linha j = 1. Tendo
a linha j = 1 procedemos de maneira ana´loga para calcular a linha j = 2 e as sucessivamente.
Ilustraremos essas ide´ias atrave´s de um exemplo.
Exemplo 3.2.1 Calcule a primeira linha de soluc¸o˜es da equac¸a˜o abaixo, com σ = 16 e
k = 154 .
72 CAPI´TULO 3. EQUAC¸O˜ES PARABO´LICAS
j
1
2
3
1 32
Condição Inicial
i
Condições de Fronteira
i-1,j
i,j+1
h
k
i,j i+1,j
Figura 3.2: Discretizac¸a˜o e correspondente mole´cula computacional do me´todo
expl´ıcito
ut = uxx, 0 ≤ x ≤ 1, 0 < t < T
u(x, 0) = x(1− x), 0 ≤ x ≤ 1
u(0, t) = 0, 0 < t < T
u(1, t) = 0, 0 < t < T,
(3.8)
cuja soluc¸a˜o exata e´:
u(x, t) =
8
π3
∞∑
n
sen (2n+ 1)πx
(2n+ 1)3
exp(−((2n+ 1)π)3t). (3.9)
Soluc¸a˜o: Como σ = 16 , a = 1 e k =
1
54 temos que h =
1
3 e portanto x0 = 0, x1 =
1
3 , x2 =
2
3 , x3 = 1 e t0 = 0, t1 =
1
54 , t2 =
2
54 , . . .. Da condic¸a˜o inicial vem que:
u00 = u(x0, t0)= u(0, 0) = 0(1− 0) = 0 = U00,
u10 = u(x1, t0) = u(
1
3
, 0) =
1
3
(1− 1
3
) =
2
9
= U10,
u20 = u(x2, t0) = u(
2
3
, 0) =
2
3
(1− 2
3
) =
2
9
= U20,
u30 = u(x3, t0) = u(1, 0) = 1(1− 1) = 0 = U30.
Das condic¸o˜es de fronteira deduz-se que:
u01 = u(x0, t1) = u(0,
1
54
) = 0 = U01,
u31 = u(x3, t1) = u(1,
1
54
) = 0 = U31.
3.2. ME´TODOS DE DIFERENC¸AS FINITAS 73
Usando o me´todo expl´ıcito
u11 = u(x1, t1) = 0.1861023 ≃ U11 = U10 + σ(U00 − 2U10 + U20) = 5
27
= 0.1851852,
u21 = u(x2, t1) = 0.1861023 ≃ U21 = U20 + σ(U10 − 2U20 + U30) = 5
27
= 0.1851852.
Erro de Truncamento Local
O exemplo (3.2.1) acima mostra claramente que a soluc¸a˜o nume´rica calculada nos pontos
(x1, t1) e (x2, t1) sa˜o apenas aproximac¸o˜es para o valor verdadeiro da soluc¸a˜o nesses pontos,
mesmo tendo utilizado a soluc¸a˜o exata no ca´lculo dos valores anteriores que entram na
formac¸a˜o de U1,1 e U2,1. Dessa forma, o erro introduzido no ca´lculo acima adve´m u´nica e
exclusivamente da substituic¸a˜o das derivadas por diferenc¸as finitas, ou em u´ltima instaˆncia
da substituic¸a˜o da equac¸a˜o diferencial pela equac¸a˜o de diferenc¸as. A esse erro chamaremos
de erro de truncamento local, que passaremos a definir precisamente.
Denotando por ui,j = u(xi, tj) e por τi,j o erro ocorrido no ca´lculo de Ui,j+1 assumindo
que todos os valores anteriores utilizados nesse ca´lculo sa˜o exatos, e ponderado pelo passo
temporal k, podemos definir,
τi,j =
u(xi, tj+1)− Ui,j+1
k
=
u(xi, tj+1)− (Ui,j + σ(Ui−1,j − 2U i, j + Ui+1,j))
k
,
onde utilizamos a equac¸a˜o de diferenc¸as (3.7) para substituir o valor de Ui,j+1. Usando
agora a hipo´tese de que Ui,j = u(xi, tj), ∀i temos:
τi,j =
u(xi, tj+1)− (u(xi, tj) + σ(u(xi−1, tj)− 2u(xi, tj) + u(xi+1, tj)))
k
,
que, substituindo o valor de σ pode ser reescrita na forma:
ui,j+1 − ui,j
k
=
a
h2
(ui−1,j − 2ui,j + ui+1,j) + τi,j . (3.10)
Observe que (3.10) tem exatamente a mesma forma de (3.6) a menos do termo do erro de
truncamento local, o que nos permite dizer que o erro de truncamento local e´ uma medida
de quanto a soluc¸a˜o da equac¸a˜o diferencial, discretizada na malha, deixa de satisfazer a
equac¸a˜o de diferenc¸as. Note que a situac¸a˜o inversa, isto e´, quanto a soluc¸a˜o da equac¸a˜o
de diferenc¸as deixa de satisfazer a diferencial na˜o e´ poss´ıvel de ser definida, uma vez que a
primeira sendo uma soluc¸a˜o discreta na˜o pode ser diferenciada para substuic¸a˜o na equac¸a˜o
diferencial. Portanto o inverso do erro de truncamento local na˜o pode ser definido.
Uma forma mais pra´tica para o erro de truncamento local pode ser obtida aplicando
expansa˜o em se´rie de Taylor em torno de (xi, yj).
ui,j+1 = u(x0 + ih, t0 + jk + k)
= u(x0 + ih, t0 + jk) + k
∂u
∂t
(x0 + ih, t0 + jk) +
k2
2
∂2u
∂t2
(x0 + ih, t0 + jk) +O(k
3)
74 CAPI´TULO 3. EQUAC¸O˜ES PARABO´LICAS
ui+1,j = u(x0 + ih+ h, t0 + jk)
= u(x0 + ih, t0 + jk) + h
∂u
∂x
(x0 + ih, t0 + jk) +
h2
2
∂2u
∂x2
(x0 + ih, t0 + jk)
+
h3
3!
∂3u
∂x3
(x0 + ih, t0 + jk) +
h4
4!
∂4u
∂x4
(x0 + ih, t0 + jk) +O(h
5).
ui−1,j = u(x0 + ih− h, t0 + jk)
= u(x0 + ih, t0 + jk)− h∂u
∂x
(x0 + ih, t0 + jk) +
h2
2
∂2u
∂x2
(x0 + ih, t0 + jk)
−h
3
3!
∂3u
∂x3
(x0 + ih, t0 + jk) +
h4
4!
∂4u
∂x4
(x0 + ih, t0 + jk) +O(h
5).
Substituindo na equac¸a˜o (3.10), e cancelando os termos comuns obtemos:
ut +
k
2
utt +O(k
2) = auxx + a
h2
12
uxxxx +O(h
3) + τi,j .
Da´ı utilizando a equac¸a˜o diferencial ut = auxx, podemos reescrever o erro de truncamento
local como:
τi,j =
k
2
utt − ah
2
12
uxxxx +O(k
2) +O(h3) = O(k + h2). (3.11)
Assim recordando o estudo de me´todos nume´ricos para equac¸o˜es diferenciais ordina´rias
introduzido no primeiro cap´ıtulo podemos dizer que o me´todo e´ incondicionalmente consis-
tente de ordem 1. Veja a sec¸a˜o (1.3.1).
Erro Global
Definimos o erro global em um ponto (xi, tj), por:
ei,j = Ui,j − ui,j ,
isto e´, a diferenc¸a entre a soluc¸a˜o aproximada e a exata no ponto (xi, tj) da malha. Note que
diferentemente do caso do erro de truncamento local, a definic¸a˜o de erro global na˜o assume
que os valores anteriores utilizados no ca´lculo de Ui,j sa˜o exatos, e portanto o erro global
como o nome sugere, pode conter toda espe´cie de erro que contamine a soluc¸a˜o incluindo o
erro de arredondamento do computador.
Enta˜o, da equac¸a˜o (3.7), temos
ei,j+1 = Ui,j+1 − ui,j+1
= Ui,j + σ(Ui−1,j − 2Ui,j + Ui+1,j)− [ui,j + σ(ui−1,j − 2ui,j + ui+1,j) + kτi,j ]
= ei,j + σ(ei−1,j − 2ei,j + ei+1,j)− kτi,j
= σ(ei−1,j + ei+1,j) + (1− 2σ)ei,j − kτi,j (3.12)
3.2. ME´TODOS DE DIFERENC¸AS FINITAS 75
e, enta˜o
|ei,j+1| ≤ |σ|(|ei−1,j |+ |ei+1,j |) + |1− 2σ||ei,j |+ | − k||τi,j |. (3.13)
Fazendo Ej = max{|ep,j|, 0 ≤ p ≤ N}, τj = max{|τp,j |, 0 ≤ p ≤ N}, supondo 1−2σ ≥ 0,
(condic¸a˜o de estabilidade) e como σ > 0 podemos reescrever a equac¸a˜o (3.13) como:
|ei,j+1| ≤ |σ|2Ej + |1− 2σ|Ej + |k||τi,j | ≤ Ej + k | τi,j |≤ Ej + kτj .
Portanto:
Ej+1 ≤ Ej + kτj (3.14)
Aplicando (3.14) recursivamente para j, j− 1, j− 2, . . . , 1, obtemos a seguinte expressa˜o:
Ej+1 ≤ k(τ0 + τ1 + . . .+ τj) ≤ (j + 1)kτ ≤ Tτ
onde τ = max{τi, i = 0, 1, . . . ,M} e T = Mk e´ um limitante para o domı´nio na direc¸a˜o do
eixo tempo, ver equac¸a˜o (3.4).
Enta˜o, se a condic¸a˜o 1− 2σ ≥ 0 (estabilidade) e´ satisfeita e se τ e´ de ordem pelo menos
h (consisteˆncia), Ej+1 → 0 quando k → 0 e portanto o me´todo e´ convergente no sentido
definido na sec¸a˜o (1.3.1). A desigualdade 1−2σ ≥ 0, pode ser reescrita como σ ≤ 12 , que e´ a
condic¸a˜o para estabilidade do me´todo expl´ıcito, que sera´ portanto dito ser condicionalmente
esta´vel. Note que na prova de convergeˆncia, entraram a condic¸a˜o de consisteˆncia e a de
estabilidade. Analogamente ao caso das equac¸o˜es diferenciais ordina´rias, consisteˆncia e
estabilidade implicaram convergeˆncia.
Como pudemos observar a condic¸a˜o de estabilidade foi crucial na prova da convergeˆncia.
No entanto nossa definic¸a˜o foi um tanto particular para o caso em ana´lise, e certamente
se esse conceito deve ser aplicado em situac¸o˜es mais gerais uma definic¸a˜o mais precisa e
crite´rios de mais fa´cil aplicac¸a˜o pra´tica devem ser deduzidos. A definic¸a˜o de estabilidade
deste contexto segue os mesmos princ´ıpios da definic¸a˜o de zero-estabilidade da sec¸a˜o (1.3.1)
e na˜o a repetiremos aqui, apenas devemos recordar que estabilidade e´ uma propriedade
intrinseca da equac¸a˜o de diferenc¸as finitas, e consiste em esta na˜o ter o defeito de amplificar
erros dos passos anteriores. Ja´ com relac¸a˜o aos crite´rios para determinac¸a˜o da estabilidade,
estudaremos a seguir os dois mais conhecidos o de Von Neumann e o da matriz.
Estabilidade - Crite´rio de von Neumann
Observac¸a˜o 3.2.1 Utilizaremos nesse trabalho a notac¸a˜o I =
√−1.
Este e´ um crite´rio simples e muito utilizado para determinar a estabilidade de um me´todo
nume´rico. Ele e´ baseado no princ´ıpio da superposic¸a˜o, ou seja, na observac¸a˜o de que o erro
global e´ a somato´ria de erros mais simples tambe´m chamados harmoˆnicos. Esse processo e´
inspirado na expansa˜o de uma func¸a˜o em se´rie de Fourier. Denotando por Ei, i = 0, 1, . . .N
o erro global em cada ponto ao longo da primeira linha t = 0 permite-nos escrever:
Ei =
N∑
n=0
an exp(Iαnih), i = 0, 1, . . .N
76 CAPI´TULO 3. EQUAC¸O˜ES PARABO´LICAS
onde αn =
nπ
L e Nh = L, que constitue um sistema linear com N + 1 inco´gnitas an e
N +1 equac¸o˜es, cuja matriz de coeficientes e´ na˜o singular, e portanto pode ser resolvido de
maneira u´nica para determinar an. Tendo representado o erro no passo inicial, para analisar
a sua propagac¸a˜o ao longo dos passos subsequentes basta observarmos a propagac¸a˜o de um
harmoˆnicogene´rico exp(Iβih) exp(λjk), onde β e´ um nu´mero real e λ um nu´mero complexo,
ambos arbitra´rios. Portanto a estrate´gia do crite´rio de von Neumann para determinac¸a˜o da
estabilidade e´ a de examinar o resultado da propagac¸a˜o de um dado modo de Fourier em
uma linha ou esta´gio subsequente j. Se houve amplificac¸a˜o desse harmoˆnico dizemos que
o me´todo e´ insta´vel, se houve amortecimento ele sera´ esta´vel. Por utilizar o princ´ıpio de
superposic¸a˜o o crite´rio de von Neumann so´ deve ser usado quando a equac¸a˜o e´ linear com
coeficientes constantes e ale´m disso ele ignora completamente a influeˆncia das condic¸o˜es
de fronteira sobre o comportamento da soluc¸a˜o da equac¸a˜o de diferenc¸as. Geralmente,
a condic¸a˜o de estabilidade deduzida do crite´rio de von Neumann produz uma condic¸a˜o
necessa´ria para a estabilidade, mas na˜o suficiente, uma discussa˜o bastante detalhada desse
problema e´ apresentada em [32] pa´ginas 117-132, veja tambe´m o exerc´ıcio (3.22).
A seguir ilustramos a aplicac¸a˜o pra´tica do crite´rio de von Neumann utilizando-o para
determinar a estabilidade do me´todo expl´ıcito. Com esse objetivo vamos admitir enta˜o que
exista uma soluc¸a˜o da equac¸a˜o de diferenc¸as (3.7) da forma:
Ui,j = e
λjeIβi = (eλ)jeIβi (3.15)
e tentamos encontrar λ e β tais que (3.15) seja de fato uma soluc¸a˜o de (3.7). Substituimos
(3.15) em (3.7) para obter:
eλ(j+1)eIβi = (1− 2σ)Ui,j + σ(eλjeIβ(i−1) + eλjeIβ(i+1)).
Da´ı,
eλUi,j = (1 − 2σ)Ui,j + σ(e−IβUi,j + eIβUi,j).
Logo, eliminando os termos comuns obte´m-se
eλ = (1− 2σ) + σ(e−Iβ + eIβ)
= (1− 2σ) + 2σ cosβ
= 1 + 2σ(cosβ − 1)
= 1− 4σ sen2β
2
.
Como σ ≥ 0 enta˜o eλ = 1 − 4σ sen2 β2 ≤ 1. Assim, se eλ ≥ 0, de (3.15) a soluc¸a˜o da
equac¸a˜o (3.7) decaira´ uniformente quando j →∞. No entanto eλ pode ser negativo, uma vez
que λ e´ complexo, e portanto teremos mais duas situac¸o˜es a considerar: Se −1 ≤ eλ < 0 a
soluc¸a˜o tera´ amplitude decrescente e sinal oscilante quando j →∞. Finalmente, se eλ < −1
a soluc¸a˜o oscila com amplitude crescente quando j → ∞. Neste u´ltimo caso (3.7) sera´
insta´vel, enquanto que no caso anterior sera´ esta´vel. Assim, resumindo, para estabilidade
sera´ exigido que:
|eλ| ≤ 1.
3.2. ME´TODOS DE DIFERENC¸AS FINITAS 77
Como eλ < 1 sempre, precisamos ainda impor −1 ≤ eλ, ou seja, −1 ≤ 1− 4σ sen 2 β2 .
Da´ı,
σ ≤ 1
1− cosβ ∀β, ou seja, σ ≤
1
2
. (3.16)
Note que a condic¸a˜o (3.16) obtida pelo crite´rio de von Neumann para estabilidade do
me´todo expl´ıcito e´ exatamente aquela que foi obtida na sec¸a˜o anterior impondo que 1−2σ ≥
0.
Com a imposic¸a˜o do limitante sobre σ para estabilidade, o me´todo expl´ıcito geralmente
produz aproximac¸o˜es satisfato´rias. Pore´m, σ ≤ 12 e´ uma condic¸a˜o muito restritiva para o
tamanho do passo na direc¸a˜o t, pois esta condic¸a˜o significa que k ≤ h22a , e o esforc¸o computa-
cional podera´ ser grande se desejarmos calcular a soluc¸a˜o para um tempo T razoavelmente
longo.
Estabilidade - Crite´rio da Matriz
Vamos iniciar esta sec¸a˜o observando que a discretizac¸a˜o expl´ıcita da equac¸a˜o (3.4) e
respectivas condic¸o˜es iniciais e de fronteira fornecem a seguinte equac¸a˜o de diferenc¸as:
Ui,j+1 = σUi−1,j + (1− 2σ)Ui,j + σUi−1,j , i = 1, 2, . . .N − 1, j = 0, 1, . . .
Ui,0 = ψ(ih), i = 0, 1, . . .N
U0,j = f(jk), j = 1, 2, . . .
UN,j = g(jk), j = 1, 2, . . .
(3.17)
Introduzindo a notac¸a˜o vetorial
Uj = (U1,j, U2,j , · · ·UN−1,j)T (3.18)
enta˜o para cada j a equac¸a˜o (3.17) pode ser escrita na forma matricial:
Uj+1 = AUj + cj , j = 0, 1, . . . (3.19)
onde A e´ a seguinte matriz (N − 1)× (N − 1)
A =


1− 2σ σ 0 . . . 0
σ 1− 2σ σ . . . 0
...
...
0 . . . σ 1− 2σ σ
0 . . . 0 σ 1− 2σ

 (3.20)
e cj e´ um vetor de (N − 1) componentes contendo informac¸o˜es das condic¸o˜es de fronteira
dado por:
cj = (f(jk), 0, . . . , 0, g(jk))
T .
De maneira ana´loga introduzindo os vetores uj = (u(x1, tj), . . . , u(xN−1, tj))T , τj =
(τ1,j , . . . , τN−1,j)T e ej = (e1,j, . . . , eN−1,j)T para representarem, respectivamente, a soluc¸a˜o
78 CAPI´TULO 3. EQUAC¸O˜ES PARABO´LICAS
exata, o erro de truncamento local e o erro global, e considerando (3.10), podemos escrever
a equac¸a˜o matricial para o erro de truncamento local,
uj+1 = Auj + cj + τj . (3.21)
Subtraindo (3.19) de (3.21) obtemos a equac¸a˜o vetorial para o erro global:
ej+1 = Aej + τj . (3.22)
Aplicando a equac¸a˜o (3.22) recursivamente para j, j − 1, . . . 0 obtemos:
ej+1 = A
j+1e0 +A
jτ0 +A
j−1τ1 + · · ·+Aτj−1 + τj
= Ajτ0 +A
j−1τ1 + · · ·+Aτj−1 + τj (3.23)
se lembrarmos que e0 = 0 por construc¸a˜o. Veˆ-se de (3.23) que o erro global e´ formado pelo
acu´mulo dos erros de truncamento local de cada passo propagados pelas poteˆncias da matriz
A. Portanto a matriz A tem um papel crucial na propagac¸a˜o desses erros e ela e´ chamada
de matriz de amplificac¸a˜o. O erro cresce se algum autovalor de A tem mo´dulo maior do
que 1. Se todos sa˜o menores do que 1 em mo´dulo, temos o erro decrescendo e portanto
estabilidade. Definimos enta˜o:
Definic¸a˜o 3.1 Uma equac¸a˜o de diferenc¸as vetorial da forma
Uj+1 = AUj + cj
e´ dita esta´vel com relac¸a˜o a alguma norma || · || se e somente se existem constantes h0 > 0,
k0 > 0, K ≥ 0 e β ≥ 0 com:
||An|| ≤ K exp(βt),
sempre que 0 ≤ t = nk, 0 < h ≤ h0 e 0 < k ≤ k0.
Em particular se os autovetores de A sa˜o linearmente independentes e se seus autovalores
λi satisfazem |λi| ≤ 1 +O(k), ∀i, enta˜o o me´todo sera´ esta´vel. Ver exerc´ıcio (3.10).
No caso particular da matriz A do me´todo expl´ıcito (3.20) seus autovalores sa˜o dados no
exerc´ıcio (3.12) e portanto para estabilidade precisamos que:
|λi| = |1− 4σ sen 2( iπ
2N
)| ≤ 1 +O(k)
que pode ser facilmente mostrado implicar em σ ≤ 12 , ou seja a mesma condic¸a˜o ja´ obtida
pelos crite´rios anteriores.
Note que a matriz A de um me´todo nume´rico geral tera´ sempre seus elementos depen-
dentes do paraˆmetro σ, e portanto determinar a estabilidade desse me´todo nume´rico requer
a determinac¸a˜o dos autovalores de uma matriz de ordem arbitra´ria N cujos elementos de-
pendem de σ. Esta pode ser uma tarefa bastante dif´ıcil. Para tanto contamos com alguns
resultados de a´lgebra linear que nos auxiliam na tarefa de encontrar limitantes para esses
autovalores. Eles sa˜o os teoremas de Gerschgorin que aplicam-se para uma matriz A geral
da forma:
A =


a11 a12 · · · a1N
a21 a22 · · · a2N
...
...
...
...
aN1 aN2 . . . aNN

 .
3.2. ME´TODOS DE DIFERENC¸AS FINITAS 79
Seja di =
∑N
j=1 |ai,j |, temos enta˜o o primeiro teorema:
Teorema 3.2 Seja λ o maior autovalor de A tomado em mo´dulo. Enta˜o λ ≤ max1≤i≤N |di|.
Prova: Ver [13] pa´gina 87.
O segundo teorema pode ser enunciado como a seguir:
Teorema 3.3 Seja ri = di − |aii|. Enta˜o os autovalores de A esta˜o na unia˜o dos discos de
centro em |aii| e raio ri.
Prova: Ver [13] pa´ginas 88-89.
Como mostrado em (3.11) o erro de truncamento local do me´todo expl´ıcito e´ de ordem
O(k + h2). Uma pergunta que surge naturalmente e´ se podemos obter me´todos com ordem
melhor. A resposta e´ positiva como veremos a seguir.
Melhorando a ordem
Uma tentativa de melhoria da ordem, ainda mantendo a condic¸a˜o de me´todo expl´ıcito,
pode ser feita incorporando-se mais um ponto a` fo´rmula (3.7), ou seja, usando-se diferenc¸a
centrada na varia´vel t. Tem-se enta˜o a seguinte equac¸a˜o de diferenc¸as, chamado me´todo de
Richardson, e respectiva mole´cula computacional
Ui,j+1 − Ui,j−1
2k
= a
Ui+1,j − 2Ui,j + Ui−1,j
h2
. (3.24)
i-1,j
i,j-1
i+1,j
i,j
h
i,j+1
k
Figura 3.3: Mole´cula computacional do me´todo de Richardson
e o erro de truncamento local sera´
τi,j =
k2
6
uttt(xi, η)− h
2
12
uxxxx(ξ, tj) = O(h
2 + k2),
portanto de ordem 2.
A ana´lise da estabilidade pode ser feitautilizando o crite´rio de von Neumann. Escrevemos
enta˜o
Ui,j = e
λjeIβi
80 CAPI´TULO 3. EQUAC¸O˜ES PARABO´LICAS
que apo´s substituic¸a˜o em (3.24) e va´rias simplificac¸o˜es resulta em:
λ = −4σ sen 2β
2
± (1 + 16σ2 sen 4β
2
)
1
2 .
Teremos sempre uma raiz de mo´dulo maior do que 1, portanto este me´todo e´ incondicional-
mente insta´vel.
Uma opc¸a˜o para solucionar o problema da instabilidade e´ substituir o termo Ui,j pela
me´dia dos termos Ui,j+1 e Ui,j−1, na aproximac¸a˜o de uxx. Vamos obter dessa forma o
me´todo de Du Fort–Frankel
Ui,j+1 − Ui,j−1
2k
= a
Ui+1,j − (Ui,j+1 + Ui,j−1) + Ui−1,j
h2
, (3.25)
cujo erro de truncamento local e´ dado por:
τi,j =
k2
6
uttt − h
2
12
uxxxx − k
2
h2
autt + O(h
4 + k4 +
k4
h2
).
Agora, se k = rh temos que o me´todo na˜o sera´ consistente, melhor dizendo, o me´todo
sera´ consistente com a equac¸a˜o
ut = auxx − ar2utt
que e´ uma equac¸a˜o hiperbo´lica!
Portanto, para obtermos um me´todo consistente, e´ preciso restringir k em func¸a˜o de h,
por exemplo k = rh2 e a´ı teremos um me´todo consistente de ordem 2. O me´todo de Du
Fort-Frankel e´ pois condicionalmente consistente e a condic¸a˜o imposta e´ bastante restritiva.
Analisando a estabilidade, vemos que, a partir de
Ui,j+1 − Ui,j−1 = 2σ(Ui+1,j − (Ui,j+1 + Ui,j−1) + Ui−1,j)
obte´m-se
(1 + 2σ)Ui,j+1 − 2σ(Ui+1,j + Ui−1,j)− (1− 2σ)Ui,j−1 = 0
e pelo crite´rio de von Neumann, escrevendo:
Ui,j = e
λjeIβi
teremos
(1 + 2σ)e2λ − 2eλσ cosβ − (1− 2σ) = 0,
cujas ra´ızes sa˜o:
γ =
2σ cosβ ± (1− 4σ sen 2β) 12
1 + 2σ
=
a± Ib
1 + 2σ
.
Temos que 1− 4σ sen 2β < 1, podendo ser positivo ou negativo.
i) Se negativo:
Teremos ra´ızes complexas conjugadas e
|γ| = (a+ Ib)(a− Ib)
1 + 2σ
=
4σ2 − 1
4σ2 + 4σ + 1
< 1.
3.2. ME´TODOS DE DIFERENC¸AS FINITAS 81
ii) Se positivo:
Enta˜o, 0 < (1− 4σ sen 2β) 12 < 1 e |2σ cosβ| < 2σ , logo |γ| < 1+2σ2σ+1 = 1.
Portanto o me´todo e´ incondicionalmente esta´vel.
Este me´todo e´ um me´todo expl´ıcito de dois passos, pois exige conhecimento da soluc¸a˜o em
2 n´ıveis anteriores de tempo para a construc¸a˜o da soluc¸a˜o no pro´ximo n´ıvel. Diferentemente
dos me´todos de um n´ıvel, ele so´ pode ser aplicado para o ca´lculo da soluc¸a˜o a partir do n´ıvel
2, exigindo que o primeiro passo seja calculado por meio de outro me´todo.
Este me´todo constitue um exemplo claro do cuidado que se deve ter em relac¸a˜o ao
teorema da equivaleˆncia de Lax ilustrando o importante fato de que nem sempre a escolha
da malha (relac¸a˜o entre h e k) e´ ditada pela condic¸a˜o de estabilidade. No caso do me´todo
de DuFort–Frankel quem impo˜e a escolha da malha e´ a consisteˆncia e na˜o a estabilidade.
Esta´ impl´ıcito no teorema de Lax que e´ preciso verificar na˜o so´ a condic¸a˜o de estabilidade
mas tambe´m a escolha adequada da malha.
Como vimos resolvemos o problema da instabilidade e criamos um outro com a con-
sisteˆncia, este sera´ sempre um dilema pois essas duas propriedades esta˜o no mais das vezes
em conflito. Uma maneira de aliviar esse problema e´ considerar me´todos impl´ıcitos, pois
estes teˆm melhores propriedades de estabilidade, mas como veremos abaixo o custo com-
putacional aumenta consideravelmente.
Me´todo Impl´ıcito
Uma fo´rmula impl´ıcita e´ aquela em que dois ou mais valores desconhecidos na linha j
sa˜o especificados simultaneamente em termos de valores conhecidos das linhas j−1, j−2, . . .
(ver figura 3.4). Claramente, na˜o sera´ poss´ıvel o ca´lculo direto de Ui,j ; usualmente exigi-se
a soluc¸a˜o de um sistema linear.
Aplicando diferenc¸as regressivas do lado esquerdo da equac¸a˜o e diferenc¸as centradas do
lado direito, temos:
Ui,j − Ui,j−1
k
= a
(
Ui−1,j − 2Ui,j + Ui+1,j
h2
)
(3.26)
que depois de alguma manipulac¸a˜o alge´brica pode ser reescrita na forma:
−σUi−1,j + (1 + 2σ)Ui,j − σUi+1,j = Ui,j−1 para i = 1, 2, . . . , N − 1 e j = 1, 2, . . . (3.27)
A mole´cula computacional da´-nos uma ide´ia precisa da relac¸a˜o de dependeˆncia entre os
diversos elementos da fo´rmula.
Observe que (3.27) forma um sistema tridiagonal de equac¸o˜es, e ao resolveˆ-lo encontramos
todas as aproximac¸o˜es do esta´gio j. Escrevendo mais detalhadamente, o sistema a ser
resolvido em cada esta´gio e´:

1 + 2σ −σ 0 . . . 0
−σ 1 + 2σ −σ . . . 0
...
...
0 . . . −σ 1 + 2σ −σ
0 . . . 0 −σ 1 + 2σ




U1j
U2j
...
UN−2,j
UN−1,j

 =


U1,j−1
U2,j−1
...
UN−2,j−1
UN−1,j−1

+


σU0,j
0
...
0
σUN,j


82 CAPI´TULO 3. EQUAC¸O˜ES PARABO´LICAS
i-1,j
i,j-1
i+1,j
i,j
h
k
Figura 3.4: Mole´cula computacional do me´todo impl´ıcito
ou na notac¸a˜o vetorial introduzida em (3.18)
AUj = Uj−1 + cj (3.28)
onde cj = (σf(jh), 0, . . . , 0, σg(jh))
T , para o caso de condic¸o˜es de fronteira como as de (3.4).
Podemos observar que A e´ uma matriz (N − 1) × (N − 1) estritamente diagonalmente
dominante e portanto o sistema (3.28) tem soluc¸a˜o u´nica. Ale´m disso, a propriedade de
diagonal dominaˆncia nos garante que (3.28) pode ser resolvido por qualquer me´todo de
soluc¸a˜o de sistemas de equac¸o˜es lineares, como por exemplo, o me´todo de eliminac¸a˜o de
Gauss sem pivotamento, ou um me´todo iterativo.
Exemplo 3.2.2 Calcule a primeira linha de soluc¸o˜es do problema do (3.9).
Soluc¸a˜o:
σ =
1
6
e k =
1
54
⇒ h = 1
3
Com h =
1
3
temos x0 = 0, x1 =
1
3
, x2 =
2
3
, x3 = 1.
Com k =
1
54
temos t0 = 0, t1 =
1
54
, t2 =
2
54
, . . . .
Usando as aproximac¸o˜es U00, U10, U20, U30, U01 e U31, do exemplo (3.9), vamos calcular U11
e U21.
U10 = −σU01 + (1 + 2σ)U11 − σU21
U20 = −σU11 + (1 + 2σ)U21 − σU31(
(1 + 2σ) −σ
−σ (1 + 2σ)
)(
U11
U21
)
=
(
U10 + σU01
U20 + σU31
)
,
(
4/3 −1/6
−1/6 4/3
)(
U11
U21
)
=
(
2/9
2/9
)
.
Resolvendo o sistema acima obtemos:
U11 = U21 = 0.1904762.
A soluc¸a˜o exata e´ u11 = u21 = 0.1861023.
3.2. ME´TODOS DE DIFERENC¸AS FINITAS 83
Veja que a utilizac¸a˜o de um me´todo impl´ıcito como o acima e´ de dif´ıcil justificativa
pra´tica, uma vez que a precisa˜o dos resultados na˜o melhorou na mesma proporc¸a˜o do au-
mento do esforc¸o computacional.
Apresentaremos ainda neste cap´ıtulo um me´todo impl´ıcito que apresenta erro de trun-
camento com ordem mais alta. Antes vamos calcular o erro de truncamento do me´todo
impl´ıcito para justificar os resultados nume´ricos obtidos no exemplo acima.
Erro de Truncamento Local
O desenvolvimento aqui segue exatamente as mesmas ide´ias do caso do me´todo expl´ıcito
e portanto repetiremos somente os passos principais.
Seja τi,j o erro de truncamento ocorrido no ca´lculo de Ui,j . Enta˜o, podemos escrever
ui,j − ui,j−1
k
=
a
h2
(ui−1,j − 2ui,j + ui+1,j) + τi,j .
Aplicando expansa˜o em se´rie de Taylor em torno de (xi, tj), obtemos,
ut − k
2
utt +O(k
2) = auxx + a
h2
12
uxxxx +O(h
4) + τi,j .
Da´ı,
τi,j = −k
2
utt − ah
2
12
uxxxx +O(k
2) +O(h4) = O(k + h2). (3.29)
Conclu´ımos que o me´todo e´ incondicionalmente consistente e de ordem 1. Comparando
as expresso˜es (3.11) e (3.29) observamos que elas diferem apenas no sinal do termo k2utt
sendo um positivo e outro negativo. Esse fato nos motiva a considerar uma nova aproximac¸a˜o
que e´ a me´dia entre as aproximac¸o˜es expl´ıcita e impl´ıcita, na esperanc¸a de que esse termo
desaparec¸a do erro de truncamento local, como de fato ocorre. Essa estrate´gia da´ origem ao
me´todo de Crank-Nicolson que sera´ estudado logo mais adiante.
Erro Global
Segue o mesmo desenvolvimento feito para o me´todo expl´ıcito.
Estabilidade
Analogamente ao caso do me´todo expl´ıcito pelo crite´rio de von Neumann escrevemos
Ui,j = e
λjeIβi.
Substituindo na equac¸a˜o (3.27)temos o seguinte desenvolvimento:
Ui,j−1 = −σUi−1,j + (1 + 2σ)Ui,j − σUi+1,j ,
eλ(j−1)eIβi = −σeλjeIβ(i−1) + (1 + 2σ)Ui,j − σeλjeIβ(i+1)
e−λUi,j = −σe−IβUi,j + (1 + 2σ)Ui,j − σeIβUi,j
84 CAPI´TULO 3. EQUAC¸O˜ES PARABO´LICAS
e−λ = −σ(e−Iβ + eIβ) + (1 + 2σ)
= −2σ cosβ + 1 + 2σ
= 1 + 2σ(1 − cosβ)
= 1 + 4σ sen 2
β
2
.
Da´ı,
eλ =
1
1 + 4σ sen 2 β2
.
Para a estabilidade, |eλ| ≤ 1. Mas, neste caso |eλ| < 1 para todo σ, ou seja, o me´todo e´
incondicionalmente esta´vel. Algumas vezes, esse fato e´ usado para justificar a utilizac¸a˜o de
um me´todo impl´ıcito, pois sendo esse me´todo incondicionalmente esta´vel, na˜o devemos nos
preocupar com a amplificac¸a˜o de erros e portanto podemos utilizar uma malha menos fina
para obter a soluc¸a˜o, minimizando o esforc¸o computacional.
Como nos casos anteriores, a ana´lise da estabilidade pode ser feita tambe´m pelo crite´rio
da matriz, aplicado a` equac¸a˜o de diferenc¸as,
ej = A
−1ej−1 +A−1τj ,
de maneira que teremos estabilidade se os autovalores de A−1 estiverem no disco unita´rio.
Ver exerc´ıcio (3.13).
Me´todo de Crank-Nicolson
Este e´ um dos me´todos mais utilizados na soluc¸a˜o de equac¸o˜es parabo´licas. Como no
caso do me´todo do Trape´zio para equac¸o˜es diferenciais ordina´rias, este me´todo e´ a “me´dia
aritme´tica” do expl´ıcito com o impl´ıcito. Tomando pois a me´dia entre as expresso˜es (3.7) e
(3.27) obtemos o me´todo de Crank-Nicolson dado por:
Ui,j+1 = Ui,j +
σ(Ui−1,j + Ui−1,j+1 − 2(Ui,j + Ui,j+1) + Ui+1,j + Ui+1,j+1)
2
, (3.30)
ou ainda,
Ui,j+1 − Ui,j
k
=
a
2h2
(Ui−1,j − 2Ui,j + Ui+1,j + Ui−1,j+1 − 2Ui,j+1 + Ui+1,j+1)
cuja mole´cula computacional e´ dada pela figura 3.5.
Podemos observar que estas equac¸o˜es formam o seguinte sistema linear tridiagonal
AUj+1 = BUj + cj que e´ diagonalmente dominante.

2 + 2σ −σ 0 . . . 0
−σ 2 + 2σ −σ . . . 0
...
...
0 . . . −σ 2 + 2σ −σ
0 . . . 0 −σ 2 + 2σ




U1,j+1
U2,j+1
...
UN−2,j+1
UN−1,j+1

 =
3.2. ME´TODOS DE DIFERENC¸AS FINITAS 85
i-1,j+1 i,j+1 i+1,j+1
i+1,ji,ji-1,j
k
h h
Figura 3.5: Mole´cula computacional do me´todo de Crank-Nicolson


2− 2σ σ 0 . . . 0
σ 2− 2σ σ . . . 0
...
...
0 . . . σ 2− 2σ σ
0 . . . 0 σ 2− 2σ




U1,j
U2,j
...
UN−2,j
UN−1,j

+


σU0,j+1
0
...
0
σUN,j+1


ou utilizando notac¸a˜o vetorial podemos escrever:
AUj+1 = BUj + cj . (3.31)
Para se obter a soluc¸a˜o em cada esta´gio, e´ preciso resolver um sistema tridiagonal. Note
que, sendo A diagonalmente dominante, o problema discreto tem soluc¸a˜o u´nica.
Erro de Truncamento Local
Analogamente a`s definic¸o˜es de erro de truncamento local dos demais me´todos, definimos
τi,j por:
ui,j+1 − ui,j
k
=
a
2h2
(ui−1,j − 2ui,j + ui+1,j + ui−1,j+1 − 2ui,j+1 + ui+1,j+1) + τi,j .
Expandindo em se´rie de Taylor em torno do ponto (xi, tj+ 1
2
k), obtemos:
ui,j+1 − ui,j
k
= ut +
(
k
2
)2
1
6
uttt +O(k
4)
ui−1,j − 2ui,j + ui+1,j = h2uxx + h
4
12
uxxxx +O(h
6)
ui−1,j+1 − 2ui,j+1 + ui+1,j+1 = h2uxx + h
4
12
uxxxx
h2k2
8
uxxtt +
h4k2
96
uxxxxtt +O(h
6).
Logo,
τi,j =
k2
24
uttt − ah
2
12
uxxxx − ak
2
8
uxxtt − ah
2k2
96
uxxxxtt +O(h
4) +O(k4) = O(h2 + k2),
e o me´todo e´ consistente de ordem 2.
86 CAPI´TULO 3. EQUAC¸O˜ES PARABO´LICAS
Estabilidade
A ana´lise da estabilidade segue o mesmo racioc´ınio desenvolvido para o me´todo expl´ıcito.
Substituindo (3.15) em (3.30) obtemos:
eλ =
1− 2σ sen 2 β2
1 + 2σ sen 2 β2
, (3.32)
e conclu´ımos que o me´todo e´ incondicionalmente esta´vel, pois |eλ| e´ sempre menor do que
1.
E´ poss´ıvel provar que o erro global satisfaz a equac¸a˜o vetorial Aej = Bej−1 + τj e
como A e´ invers´ıvel, tem-se estabilidade se todos os autovalores da matriz de amplificac¸a˜o
C = A−1B esta˜o no disco unita´rio. Ver exerc´ıcio (3.15).
Condic¸a˜o de Fronteira com Derivadas
Quando as condic¸o˜es de fronteira envolvem a derivada da func¸a˜o u(x, t), dizemos tratar-
se de condic¸o˜es de fronteira de Neumann. Podemos ter uma das condic¸o˜es de fronteira ou
ambas, com derivadas. Teremos enta˜o um problema como a seguir:
ut = auxx, a > 0, 0 ≤ x ≤ L, 0 < t < T (3.33)
u(x, 0) = ψ(x), 0 ≤ x ≤ L
∂u(0, t)
∂x
= f(t), 0 < t < T
∂u(L, t)
∂x
= g(t), 0 < t < T.
Ao discretizarmos esse problema por qualquer das te´cnicas anteriores teremos agora que
resolver a questa˜o de que os valores U0,j e UN,j deixaram de ser conhecidos, veja a figura
3.6.
Note que conhecemos os valores das derivadas direcionais sobre as fronteiras x = 0 e x =
L e na˜o mais o valor da func¸a˜o como no caso da condic¸a˜o de fronteira de Dirichlet, de forma
que devemos tratar esses valores (U0,j , UN,j) como inco´gnitas, ou seja, nossa discretizac¸a˜o
deve incluir os valores da func¸a˜o nos pontos x0 = 0 e xN = L como inco´gnitas. O problema
e´ que ao escrevermos uma equac¸a˜o para o ponto x0 = 0, por exemplo, no caso do me´todo
expl´ıcito obtemos:
U0,j+1 = σU−1,j + (1− 2σ)U0,j + σU1,j
que conte´m o ponto U−1,j que na˜o faz parte da malha. Devemos portanto utilizar a condic¸a˜o
de fronteira para calcula´-lo, fazendo:
f(tj) =
∂u(0, tj)
∂x
≃ U1,j − U−1,j
2h
(3.34)
onde foi utlizado a discretizac¸a˜o da derivada por diferenc¸as centrais. A equac¸a˜o (3.34) pode
ser reescrita na forma:
U−1,j = U1,j − 2hf(tj) (3.35)
3.2. ME´TODOS DE DIFERENC¸AS FINITAS 87
x( ,
t
u ( x)x ψ0)= L
(−1,0)
(−1,1)
(−1,2)
(-1,j)
(N+1,0)
(N+1,1)
(N+1,2)
(N+1,j)
ux 0, )( u (x L, ( )t t t t
1 20 N N+1-1
()=f )=g
Figura 3.6: Discretizac¸a˜o do problema de Neumann com inclusa˜o de pontos fan-
tasmas
e portanto o valor de U−1,j pode ser substitu´ıdo por (3.35) na expressa˜o do me´todo nume´rico
sem maiores problemas. Devemos no entanto observar que a notac¸a˜o vetorial introduzida
em (3.18) deve ser modificada para refletir o fato de que U0,j e UN,j sa˜o agora inco´gnitas.
Assim:
Uj = (U0,j , U1,j , . . . , UN,j)
T
e portanto um vetor de N +1 componentes. Certamente a matriz A da equac¸a˜o (3.19) deve
ser de ordem (N + 1)× (N + 1) e ter sua primeira e u´ltima linhas modificadas. A equac¸a˜o
equivalente a (3.19) para o caso de condic¸o˜es de fronteira com derivadas e´:
Uj+1 = AUj + cj
onde A e´ a matriz na˜o sime´trica
A =


1− 2σ 2σ 0 . . . 0
σ 1− 2σ σ . . . 0
...
...
0 . . . σ 1− 2σ σ
0 . . . 0 2σ 1− 2σ

 (3.36)
e cj e´ um vetor de (N + 1) componentes contendo informac¸o˜es das condic¸o˜es de fronteira
dado por:
cj = (−2hf(jk), 0, . . . , 0,−2hg(jk))T .
88 CAPI´TULO 3. EQUAC¸O˜ES PARABO´LICAS
Ja´ para o caso de um me´todo impl´ıcito teremos um pouco mais de dificuldades. Consid-
eremos o me´todo de Crank-Nicolson (3.30) que pode ser reescrito na forma:
−σUi+1,j+1 + (2 + 2σ)Ui,j+1 − σUi−1,j+1 = σUi+1,j + (2 − 2σ)Ui,j + σUi−1,j . (3.37)
Novamente quando i = 0 ou i = N teremos o aparecimento dos termos U−1,j+1, U−1,j,
UN+1,j+1 e UN+1,j que na˜o fazem parte da malha e portanto sa˜o pontos fantasmas. Da
mesma maneira que fizemos para o caso expl´ıcito em (3.35) eliminamos esses valores da
equac¸a˜o (3.37), para obter a equac¸a˜o matricial:
AUj+1 = BUj + cj
onde as matrizes A e B sa˜o de ordem N + 1 e dadas por:
A =


2 + 2σ −2σ 0 . . . 0
−σ 2 + 2σ −σ . . . 0
...
...
0 . . . −σ 2 + 2σ −σ
0 . . . 0 −2σ 2 + 2σ


B =


2− 2σ) 2σ 0 . . . 0
σ 2− 2σ σ . . . 0
...
...
0 . . . σ 2− 2σ σ
0 . . . 0 2σ 2− 2σ


e o vetor independente cj = (2hσ(f(tj+1)− f(tj)), 0, . . . , 0, 2hσ(g(tj+1)− g(tj)))T
Observac¸a˜o 3.2.2 Observamos que a matriz A do me´todo de Crank-Nicolson para prob-
lemas com condic¸a˜o de fronteira de Neumann na˜o e´ sime´trica, mas continuaestritamente
diagonalmente dominante. A perda da simetria e´ um fator de considera´vel complicac¸a˜o para
a soluc¸a˜o do sistema linear.
Observac¸a˜o 3.2.3 Uma outra observac¸a˜o importante e´ que no caso do domı´nio possuir
uma fronteira irregular, os pontos pro´ximos da fronteira precisam de tratamento espec´ıfico,
por meio de interpolac¸a˜o. Este aspecto sera´ tratado com mais detalhe nas equac¸o˜es el´ıpticas.
Observac¸a˜o 3.2.4 E´ tambe´m poss´ıvel encontrar na pra´tica problemas com condic¸o˜es de
fronteira do tipo misto, ou seja, ux(0, t) − α1u(0, t) = g(t). O tratamento nume´rico desse
tipo de condic¸a˜o de fronteira e´ uma combinac¸a˜o daquele dos casos de fronteira de Dirichlet
e de Neumann estudados acima.
3.3 Problemas Na˜o Lineares
A maioria dos me´todos discutidos anteriormente podem ser generalizados para equac¸o˜es
lineares com coeficientes varia´veis, ou seja, a = a(x, t) na equac¸a˜o (3.4). Mas encontramos
algumas dificuldades como:
3.3. PROBLEMAS NA˜O LINEARES 89
• embora as matrizes continuem diagonalmente dominantes, σ na˜o e´ mais constante;
• temos que calcular ai,j a cada passo, e no me´todo de Crank-Nicolson, por exemplo,
precisamos de ai,j no ponto intermedia´rio, para isso calculamos:
a(xi, tj+ k
2
) ou
a(xi, tj) + a(xi, tj+1)
2
;
• na˜o poderemos usar ana´lise de Fourier para fazer a ana´lise da estabilidade de maneira
global, apenas localmente.
Quando a = a(x, t, u) ou a = a(u) temos o chamado problema quase-linear, neste caso o
me´todo expl´ıcito pode ser usado sem dificuldades, pois sua utilizac¸a˜o na˜o requer a soluc¸a˜o
de equac¸o˜es na˜o lineares. Ja´ para os me´todos impl´ıcito e de Crank-Nicolson obtemos um
sistema de equac¸o˜es na˜o lineares, que podemos resolver por aproximac¸o˜es sucessivas ou
pelo me´todo de Newton, com a aproximac¸a˜o inicial calculada pelo me´todo expl´ıcito. Na
pra´tica, no entanto, recomenda-se a utilizac¸a˜o de me´todos impl´ıcitos para evitar problemas
de estabilidade, uma vez que estes sa˜o incondicionalmente esta´veis.
O caso mais geral de uma equac¸a˜o na˜o linear parabo´lica e´ representado pela expressa˜o:
r(x, t, u, ut, ux, uxx) = 0. (3.38)
Casos particulares importantes sa˜o representados pela equac¸a˜o de Burgers, onde se tem
r(x, t, u, ut, ux, uxx) = ut + uux − auxx = 0 e pela equac¸a˜o de Ritchmyer ( [9]) onde
r(x, t, u, ut, ux, uxx) = ut − (um)xx = 0, m ≥ 2.
Um me´todo expl´ıcito para resolver (3.38), simplesmente avalia essa expressa˜o no ponto
(xi, tj) e substitui a derivada em t por diferenc¸a progressiva e as derivadas em x por diferenc¸as
centrais. No caso em que a derivada temporal pode ser escrita de forma expl´ıcita em func¸a˜o
das outras varia´veis, ou seja, quando a equac¸a˜o e´ da forma:
ut = r(x, t, u, ux, uxx)
podemos discretiza´-la facilmente pelo me´todo expl´ıcito para obter:
Ui,j+1 = Ui,j + kr(xi, tj , Ui,j,
Ui+1,j − Ui−1,j
2h
,
Ui+1,j − 2Ui,j + Ui−1,j
h2
). (3.39)
Uma ana´lise da estabilidade linear desse me´todo e´ poss´ıvel e pode ser encontrada em detalhes
em [Ames 1992] pa´ginas 74-76. O resultado demonstrado em [Ames 1992] e´ o seguinte:
Teorema 3.4 Seja r uma func¸a˜o satisfazendo as seguintes hipo´teses:
i. ruxx ≥ α > 0
ii. |ru|+ |rux |+ ruxx ≤ β
onde rφ representa a derivada parcial da func¸a˜o r com relac¸a˜o ao argumento φ e supomos
que u seja uma func¸a˜o 4 vezes diferencia´vel em x e 2 vezes em t. Enta˜o o me´todo (3.39) e´
convergente se:
h ≤ 2α
β
e 0 <
k
h2
≤ 1− βk
2β
.
90 CAPI´TULO 3. EQUAC¸O˜ES PARABO´LICAS
No caso em que
r(x, t, u, ux, uxx) = (u
m)xx = m(m− 1)um−2
(
∂u
∂x
)2
+mum−1
∂2u
∂x2
, m ≥ 2, (3.40)
teremos 0 < α = mum−1 e β = mum−1+2m(m−1)|um−2ux|+m(m−1)(m−2)|um−3(ux)2|.
Observe que assumimos que α > 0 e portanto β > α, de forma que o teorema acima impo˜e
as condic¸o˜es de estabilidade:
i. h < 2α/β < 2
ii.
k
h2
< (1− βk)/(2β), ou seja, β k
h2
< (1− βk)/2 < 1/2.
Usando agora que β > α na u´ltima desigualdade obtemos:
mum−1
k
h2
= α
k
h2
<
1
2
.
Esse mesmo resultado poderia ser obtido por comparac¸a˜o com a equac¸a˜o linear com
coeficientes constantes, isto e´, reescrevendo a equac¸a˜o (3.40) na forma
ut = (mu
m−1ux)x
e comparando com a equac¸a˜o com coeficientes constantes ut = (aux)x para concluir que a
condic¸a˜o de estabilidade do me´todo expl´ıcito toma a forma
σ =
ak
h2
=
mum−1k
h2
≤ 1
2
.
Isto quer dizer que para problemas na˜o lineares a estabilidade depende, ale´m da equac¸a˜o
de diferenc¸as finitas, da soluc¸a˜o do problema que esta´ sendo resolvido e portanto a condic¸a˜o
de estabilidade pode variar ao longo do domı´nio.
Para obter-se um me´todo impl´ıcito substitui-se as derivadas da varia´vel espacial por
fo´rmulas envolvendo o mesmo n´ıvel de tempo. Um exemplo de me´todo impl´ıcito para resolver
(3.38) e´ o me´todo de Crank-Nicolson dado por:
r
(
xi, tj+ 1
2
,
Ui,j+1 + Ui,j
2
,
Ui,j+1 − Ui,j
k
,
µδxUi,j+1 + µδxUi,j
2h
,
δ2xUi,j+1 + δ
2
xUi,j
2h2
)
= 0
onde os operadores µ e δx esta˜o definidos em (1.3). A equac¸a˜o acima deve ser aplicada em
todos os pontos do domı´nio para os quais quer-se calcular uma aproximac¸a˜o, produzindo
portanto um sistema de equac¸o˜es na˜o lineares nas varia´veis Ui,j . Esse sistema pode ser
resolvido por aproximac¸o˜es sucessivas ou pelo me´todo de Newton.
3.4. OUTROS ME´TODOS 91
Me´todos em Treˆs Nı´veis
Lees [21] considerou a equac¸a˜o na˜o linear
b(u)ut = (a(u)ux)x, a(u) > 0, b(u) > 0
e a construc¸a˜o de me´todos com treˆs caracter´ısticas:
i. lineares (soluc¸a˜o de sistemas lineares apenas)
ii. preservam a estabilidade
iii. preservam a precisa˜o (ordem de convergeˆncia).
Utilizando a notac¸a˜o δx para representar as diferenc¸as centradas Lees obteve:
b(Ui,j)
1
2k
(Ui,j+1 − Ui,j−1) = 1
h
δx(a(Ui,j)
1
h
δxUi,j)
=
1
h2
{a(Ui+1/2,j)(Ui+1,j − Ui,j)− a(Ui−1/2,j)(Ui,j − Ui−1,j)}.
Esta equac¸a˜o de diferenc¸as sera´ insta´vel quando a ≡ b ≡ 1. Para resolver esse prob-
lema Lees propoˆs substituir Ui+1,j , Ui,j e Ui−1,j, respectivamente pelas me´dias 13 (Ui+1,j+1+
Ui+1,j + Ui+1,j−1), 13 (Ui,j+1 + Ui,j + Ui,j−1),
1
3 (Ui−1,j+1 + Ui−1,j + Ui−1,j−1) e tambe´m os
coeficientes a(Ui+1/2,j) e a(Ui−1/2,j) por a(12 (Ui+1,j + Ui,j)) e a(
1
2 (Ui,j + Ui−1,j)) obtendo
o me´todo de Lees, que e´ consistente de ordem 2, esta´vel e convergente, para h e k suficien-
temente pequenos, com erro global de ordem 2, ver [13]. O me´todo, mesmo para problemas
na˜o-lineares, exige apenas a soluc¸a˜o de sistemas lineares. A desvantagem e´ aquela inerente
a todo me´todo com mais de 1 passo: no in´ıcio do processo, necessita de valores extras para
j = 1. Sobre esse dilema temos a seguinte observac¸a˜o .
“Embora parec¸a que os me´todos com 2 passos (3 n´ıveis) teˆm vantagem sobre
os de 2 n´ıveis (Crank-Nicolson) na soluc¸a˜o de equac¸o˜es parabo´licas, e´ poss´ıvel
que a introduc¸a˜o de um n´ıvel extra cause dificuldades em problemas espec´ıficos.
Cada problema na˜o-linear tem suas peculiaridades e a escolha entre um me´todo
de 2 ou de 3 n´ıveis, para um dado problema, e´ bastante dif´ıcil. Todos os me´todos
devem ser tentados quando o problema e´ na˜o linear e uma ana´lise cr´ıtica dos
resultados deve ser feita para a melhor certeza de sua soluc¸a˜o” [6]
3.4 Outros Me´todos
Me´todo Hopscotch
Os me´todos que examinaremos agora sa˜o chamados assime´tricos e sa˜o muito usados
para dimenso˜es altas, pois reduzem o esforc¸o computacional necessa´rio.
A ide´ia ba´sica, primeiro publicada por Gordon [3], para resolver uma equac¸a˜o parabo´lica,
e´ usar os me´todos de diferenc¸as finitas expl´ıcito e impl´ıcito em pontos alternados da malha
sobre uma linha de tempo tj . Estes me´todos sa˜o, a`s vezes chamados de me´todos hopscotch,
92 CAPI´TULO 3. EQUAC¸O˜ES PARABO´LICAS
Figura 3.7: Mole´culacomputacional do me´todo hopscotch: x calculado pelo
me´todo expl´ıcito, ◦ calculado pelo me´todo impl´ıcito, —- mole´cula do me´todo
expl´ıcito, - - - mole´cula do me´todo impl´ıcito.
pois o caminho do algoritmo computacional parece com o jogo da amarelinha, como mostra
a figura 3.7.
O resultado global e´ uma se´rie de ca´lculos expl´ıcitos, onde ui,j+1 e´ a inco´gnita, pois
todos os valores da j-e´sima linha sa˜o conhecidos. Gordon [3] demonstra a consisteˆncia e
estabilidade deste algoritmo. Ale´m disso, e´ um me´todo muito ra´pido e portanto muito
usado para dimenso˜es mais altas.
A sequeˆncia de ca´lculos aproximados para a equac¸a˜o ut = auxx pode ser descrita como
segue.
Para j fixado,
Ui,j+1 = Ui,j + σ(Ui−1,j − 2Ui,j + Ui+1,j), para todo i tal que i+ j + 1 e´ par
e em seguida,
Ui,j+1 = Ui,j + σ(Ui−1,j+1 − 2Ui,j+1 + Ui+1,j+1), para todo i tal que i+ j + 1 e´ ı´mpar
onde σ = ka/h2.
Se definirmos βp = 1 para p par e βp = 0 para p ı´mpar, enta˜o o me´todo hopscotch pode
ser expresso em uma u´nica equac¸a˜o:
Ui,j+1 = Ui,j+β
i+j+1σ(Ui−1,j−2Ui,j+Ui+1,j)+βi+jσ(Ui−1,j+1−2Ui,j+1+Ui+1,j+1). (3.41)
Agora, este me´todo corresponde a` aplicac¸a˜o do me´todo de Crank-Nicolson e do me´todo
expl´ıcito. De fato, substituindo j por j + 1 na equac¸a˜o (3.41), temos:
Ui,j+2 = Ui,j+1 + β
i+j+2σ(Ui−1,j+1 − 2Ui,j+1 + Ui+1,j+1)
+ βi+j+1σ(Ui−1,j+2 − 2Ui,j+2 + Ui+1,j+2).
E, substituindo agora Ui,j+1 pela equac¸a˜o (3.41), obtemos:
Ui,j+2 = Ui,j + β
i+j+1σ(Ui−1,j − 2Ui,j + Ui+1,j)
+ βi+jσ(Ui−1,j+1 − 2Ui,j+1 + Ui+1,j+1)
+ βi+j+2σ(Ui−1,j+1 − 2Ui,j+1 + Ui+1,j+1)
+ βi+j+1σ(Ui−1,j+2 − 2Ui,j+2 + Ui+1,j+2).
3.4. OUTROS ME´TODOS 93
Como βi+j+2 = βi+j ,
Ui,j+2 = Ui,j + 2β
i+jσ(Ui−1,j+1 − 2Ui,j+1 + Ui+1,j+1)
+ βi+j+1σ[(Ui−1,j − 2Ui,j + Ui+1,j) + (Ui−1,j+2 − 2Ui,j+2 + Ui+1,j+2)]. (3.42)
Para i+ j ı´mpar, a equac¸a˜o (3.42) torna-se o me´todo de Crank-Nicolson com passo 2h:
Ui,j+2 = Ui,j + β
i+j+1σ[(Ui−1,j − 2Ui,j + Ui+1,j) + (Ui−1,j+2 − 2Ui,j+2 + Ui+1,j+2)].
Para i+ j par a equac¸a˜o (3.42) torna-se o me´todo expl´ıcito
Ui,j+2 = Ui,j + 2β
i+jσ(Ui−1,j+1 − 2Ui,j+1 + Ui+1,j+1).
Aproximac¸o˜es Assime´tricas
Uma se´rie de aproximac¸o˜es assime´tricas para a equac¸a˜o do calor foi introduzida por
Saul’yev [12]. O resultado e´ um par de aproximac¸o˜es que resulta expl´ıcito e incondiciona-
mente esta´vel.
A ide´ia ba´sica do me´todo e´ substituir ux(xi−1/2, tj) da equac¸a˜o:
uxx(xi, tj) ≃
ux(xi+1/2, tj)− ux(xi−1/2, tj)
h
,
por ux(xi− 1
2
, tj+1), e enta˜o usarmos diferenc¸as centradas para aproximar ux.
ux(xi+1/2, tj) ≃ Ui+1,j − Ui,j
h
,
ux(xi−1/2, tj+1) ≃ Ui,j+1 − Ui−1,j+1
h
.
Para ut usamos diferenc¸as progressivas. O algoritmo de Saul’yev A (ver figura 3.8) e´ enta˜o
dado por:
(1 + σ)Ui,j+1 = Ui,j + σ(Ui−1,j+1 − Ui,j + Ui+1,j). (3.43)
O me´todo assim construido e´ de ordemO( kh+h
2), portanto condicionalmente consistente.
E´ claro que se aplicamos o me´todo da fronteira esquerda para a direita, com j fixado, ele
torna-se expl´ıcito.
Analogamente, construimos o algoritmo Saul’yev B (ver figura 3.8) com as mesmas pro-
priedades e que sera´ expl´ıcito se o ca´lculo for feito da direita para a esquerda
(1 + σ)Ui,j+1 = Ui,j + σ(Ui+1,j+1 − Ui,j + Ui−1,j). (3.44)
Va´rias opc¸o˜es de aplicac¸a˜o das fo´rmulas A e B sa˜o poss´ıveis. As duas mais interessantes
sa˜o:
94 CAPI´TULO 3. EQUAC¸O˜ES PARABO´LICAS
i,j+1 i,j+1
Figura 3.8: Mole´culas computacionais para as equac¸o˜es (3.43) e (3.44)
i. calcula-se uma linha com o me´todo A e a seguinte com o me´todo B.
ii. usa-se A e B na mesma linha, considerando-se como aproximac¸a˜o final a me´dia dos
valores obtidos em cada ponto. Note que nessa me´dia pode haver cancelamento de erro
de truncamento, compensando o aumento do esforc¸o computacional com a obtenc¸a˜o
de um resultado mais preciso.
Aproximac¸o˜es assime´tricas de ordem mais alta sa˜o constru´ıdas incomporando-se mais
pontos a` fo´rmula.
Me´todo Box
Keller [5] propoˆs o me´todo box, um me´todo simples e compacto, que pode inclusive
ser usado com malha de tamanho varia´vel. A precisa˜o e´ de ordem 2 e incondicionalmente
esta´vel. Ele pode ser usado para problemas lineares e na˜o-lineares. Considere a equac¸a˜o
ut = (a(x)ux)x + c(x)u, (3.45)
com as condic¸o˜es auxiliares:
u(x, 0) = ψ(x), 0 ≤ x ≤ 1,
α0u(0, t) + α1ux(0, t) = α2(t), t > 0, (3.46)
β0u(1, t) + β1ux(1, t) = β2(t), t > 0.
O primeiro passo e´ transformar a equac¸a˜o em um conjunto de equac¸o˜es de primeira
ordem. Isto pode ser feito de va´rias maneiras, uma das quais e´
v = a(x)ux, (3.47)
vx = ut − c(x)u,
com
u(x, 0) = ψ(x), 0 ≤ x ≤ 1,
α0u(0, t) + α3v(0, t) = α2(t), t > 0,
β0u(1, t) + β3v(1, t) = β2(t), t > 0
onde α3 =
α1
a(0) e β3 =
β1
a(1) supondo-se a(0) e a(1) na˜o nulos.
3.4. OUTROS ME´TODOS 95
A malha usada para as aproximac¸o˜es de (3.46), e´ mostrada na figura 3.9, com
t0 = 0, x0 = 0, tj = tj−1 + kj , j = 1, 2, . . . ,M, e xi = xi−1 + hi, i = 1, 2, . . . , N. Os kj
e hi sa˜o arbitra´rios e podem mudar ao longo da malha.
Busca-se a soluc¸a˜o no ponto me´dio da ce´lula da malha, mas de modo que as aproximac¸o˜es
sendo me´dias dos valores nos pontos da malha, fornec¸am a soluc¸a˜o procurada.
Portanto
tj−1/2 =
1
2
(tj + tj−1),
xi−1/2 =
1
2
(xi + xi−1),
e
φi±1/2,j =
1
2
(φi,j + φi±1,j),
φi,j±1/2 =
1
2
(φi,j + φi,j±1),
onde φ representa u ou v.
i,j
__
1
2
__
1
2
i- ,j
i,j-
Figura 3.9: Mole´cula computacional do me´todo box
Usando diferenc¸as centradas, as equac¸o˜es (3.47) sa˜o aproximadas por
ai−1/2
Ui,j − Ui−1,j
hi
= Vi−1/2,j ,
Vi,j − Vi−1,j
hi
=
Ui−1/2,j − Ui−1/2,j−1
kj
− ci−1/2Ui−1/2,j−1/2, 1 ≤ j ≤M, 1 ≤ i ≤ N, (3.48)
e
Ui,0 = f(xi),
α0U0,j + α1V0,j = α2(tj),
β0UN,j + β1VN,j = β2(tj).
Keller [5] nota que o me´todo box gera uma matriz bloco triangular no caso linear, e no
caso na˜o linear pode-se usar o me´todo de Newton.
96 CAPI´TULO 3. EQUAC¸O˜ES PARABO´LICAS
Me´todo das Linhas
O me´todo das linhas (ver Schiesser [24]) transforma a EDP a ser resolvida em um sistema
de EDO’s, usualmente por discretizac¸a˜o do espac¸o x por diferenc¸as finitas. No caso de
equac¸o˜es parabo´licas, o novo sistema sera´ um problema de valor inicial e enta˜o me´todos
para equac¸o˜es ordina´rias podem ser usados.
Para ilustrar o procedimento, consideramos o problema na˜o linear:
ut = uxx + (ux)
2, 0 ≤ x ≤ 1, 0 < t < T
u(x, 0) = x(1 − x), 0 ≤ x ≤ 1
u(0, t) = 0, 0 < t < T
u(1, t) = sen (t), 0 < t < T.
O domı´nio [0, 1] de x e´ substituido por um conjunto de pontos discretos xi = ih, i =
0, 1, . . . , N , onde h = 1N . Ao longo de cada uma dessas linhas (xi, t) temos uma func¸a˜o
Ui(t). A figura 3.10 ilustra a ide´ia com h =
1
5 .
U1(t)
U2(t)
U5(t)
U0(t)
U3(t)
U4(t)
0.2
U5(0)=0
U4(0)=0.16
(0)=0.24U3
U2 (0)=0.24
U1 (0)=0.16
U0 (0)=0
=U(0,t)=0
=U(1,t)=sen(t)
x
t
x=1
Figura 3.10: Me´todo das linhas
Usando diferenc¸as centradas para uxx e ux e desprezando o erro da discretizac¸a˜o, temos
U ′i(t) =
Ui+1(t)− 2Ui(t) + Ui−1(t)
h2
+
(
Ui+1(t)− Ui−1(t)
2h
)2
, i = 1, 2, 3, 4,
Desconsiderando, por simplicidade, a varia´vel tempo em Ui(t), obtemos o seguinte sis-
tema de EDO’s:
U0(t) = 0
U ′1(t) =
1
0.04
(U2 − 2U1 + U0) + 1
0.16
(U2 − U0)2
U ′2(t) =
1
0.04
(U3 − 2U2 + U1) + 1
0.16
(U3 − U1)2
U ′3(t) =
1
0.04
(U4 − 2U3 + U2) + 1
0.16
(U4 − U2)2
U ′4(t) =
1
0.04
(U5 − 2U4 + U3) + 1
0.16
(U5 − U3)2
U5(t) = sen (t),
3.5. EQUAC¸O˜ES PARABO´LICAS EM DUAS DIMENSO˜ES 97
com condic¸o˜es iniciais para t = 0:
U0(0) = 0
U1(0) = u(0.2, 0) = 0.2(1− 0.2) = 0.16
U2(0) = u(0.4, 0) = 0.4(1− 0.4) = 0.24
U3(0) = u(0.6, 0) = 0.6(1− 0.6) = 0.24
U4(0) = u(0.8, 0) = 0.8(1− 0.8) = 0.16
U5(0) = 0.
Resolvendo este sistema,obtemos aproximac¸o˜es para u(x, t) ao longo das linhas (xi, t).
3.5 Equac¸o˜es Parabo´licas em Duas Dimenso˜es
Nesta sec¸a˜o consideraremos a discretizac¸a˜o de equac¸o˜es parabo´licas lineares em duas
dimenso˜es, da forma:
ut = a1uxx + a2uyy, (3.49)
onde u, a1 e a2 sa˜o func¸o˜es de x, y e t; x e y sa˜o varia´veis espaciais e t e´ a varia´vel tempo,
ou em notac¸a˜o de operadores,
ut = Lu (3.50)
com L ≡ a1uxx + a2uyy.
Todos os me´todos discutidos anteriormente podem ser adaptados para este caso mas o
esforc¸o computacional aumenta quadraticamente, de forma que a simples adaptac¸a˜o na˜o e´
uma soluc¸a˜o satisfato´ria. Apresentamos a seguir alguns me´todos criados para contornar esse
problema, exigindo um nu´mero menor de operac¸o˜es aritme´ticas.
Inicialmente supomos que a regia˜o de definic¸a˜o do problema seja formada pelo retaˆngulo
[0, a]× [0, b] do plano x− y e pelo intervalo de tempo [0,∞). Essa regia˜o do plano e´ coberta
por uma malha retangular com lados paralelos aos eixos, com espac¸amento h1 na direc¸a˜o x,
h2 na direc¸a˜o y e por uma discretizac¸a˜o temporal com passo k. Os pontos da malha (x, y, t)
sera˜o dados por x = lh1, y = mh2 e t = nk, onde l,m, n sa˜o inteiros. Uma func¸a˜o discreta
definida nessa malha sera´ denotada por Unl,m.
Da expansa˜o em se´rie de Taylor de u(x, y, tn+1) = u(x, y, tn + k) em torno do ponto
(x, y, tn), obtemos:
u(x, y, tn+1) = u(x, y, tn) + kut(x, y, tn) +
k2
2
utt(x, y, tn) + · · · . (3.51)
Observando agora que ut = Lu e que L independe de t, deduzimos por diferenciac¸a˜o com
relac¸a˜o a t que utt = (Lu)t = Lut = L × Lu = L2u. Assim podemos mostrar por induc¸a˜o
que:
∂pu
∂tp
= Lpu.
98 CAPI´TULO 3. EQUAC¸O˜ES PARABO´LICAS
Levando esse resultado em (3.51) obtemos:
u(x, y, tn+1) = u(x, y, tn) + kLu(x, y, tn) +
k2
2
L2u(x, y, tn) + · · ·
= (I + kL+
k2
2
L2 +
k3
3!
L3 + · · ·)u(x, y, tn) = exp(kL)u(x, y, tn)(3.52)
Avaliando a expressa˜o (3.52) no ponto (xl, ym, tn) obtemos a fo´rmula (3.53), que sera´ uti-
lizada na deduc¸a˜o dos diversos me´todos a seguir.
un+1l,m = exp(kL)u
n
l,m (3.53)
Me´todo Expl´ıcito
Vamos exemplificar esta te´cnica usando
Lu ≡ uxx + uyy = (D21 +D22)u, (3.54)
ou seja, a1 ≡ a2 ≡ 1 e D1u = ux, D2u = uy.
A equac¸a˜o (3.53) torna-se:
un+1 = exp(kD21) exp(kD
2
2)u
n
onde un = unl,m.
Como
D21 =
1
h2
(δ2x −
1
12
δ4x +
1
90
δ6x · · ·)
e
D22 =
1
h2
(δ2y −
1
12
δ4y +
1
90
δ6y · · ·),
veja (exerc´ıcio (1.1)), enta˜o
un+1 = [1 + σδ2x +
1
2
σ(σ − 1
6
)δ4x · · ·][1 + σδ2y +
1
2
σ(σ − 1
6
)δ4y · · ·]un, (3.55)
onde σ = k/h2. Aqui estamos utilizando h1 = h2 = h, como espac¸amento nas varia´veis x e
y. A conclusa˜o final na˜o sera´ muito distinta se considerarmos espac¸amentos diferentes para
cada uma das varia´veis espaciais. No entanto, alertamos que essa talvez seja uma situac¸a˜o
mais realista para aplicac¸o˜es pra´ticas.
Va´rios me´todos expl´ıcitos podem ser obtidos da equac¸a˜o (3.55). Por exemplo, multi-
plicando as duas se´ries e em seguida considerando somente os termos de primeira ordem
obtemos,
Un+1l,m = [1 + σ(δ
2
x + δ
2
y)]U
n
l,m +O(k
2 + kh2), (3.56)
3.5. EQUAC¸O˜ES PARABO´LICAS EM DUAS DIMENSO˜ES 99
que e´ o me´todo expl´ıcito padra˜o envolvendo cinco pontos no n´ıvel de tempo t = nk.
Outro me´todo simples pode ser obtido da equac¸a˜o (3.55) considerando os termos de
primeira ordem em cada uma das expanso˜es separadamente
Un+1l,m = (1 + σδ
2
x)(1 + σδ
2
y)U
n
l,m +O(k
2 + kh2), (3.57)
Esta fo´rmula envolve nove pontos do n´ıvel de tempo t = nk.
Estabilidade
Analogamente ao caso unidimensional temos o crite´rio de von Neumann e o crite´rio da
matriz para ana´lise da estabilidade. No entanto, em duas dimenso˜es a ana´lise da estabilidade
pelo me´todo da matriz se torna um tanto complexa, pois na tentativa de generalizar o
procedimento feito para o problema unidimensional, para por exemplo a equac¸a˜o (3.49),
obtemos um sistema linear Un+1 = AUn + cn, onde agora, Un e´ um vetor de vetores e A
uma matriz de matrizes. Se compararmos com a matriz (3.20) veremos que no lugar dos
elementos dessa matriz aparecera˜o agora matrizes. Este fato, complica a ana´lise do problema
de autovalores.
Pela sua simplicidade e facilidade de exposic¸a˜o concentraremo-nos aqui no estudo do
crite´rio de von Neumann que assume uma decomposic¸a˜o harmoˆnica dos erros em um dado
n´ıvel de tempo, por exemplo, t = 0. Um modo individual, representando a decomposic¸a˜o e´
enta˜o dado por:
eαteIβxeIγy (3.58)
onde β e γ sa˜o nu´meros reais arbitra´rios e α ≡ α(β, γ) e´ em geral complexo. Tomando essa
soluc¸a˜o nos pontos da malha obtemos:
eαtneIβxieIγyj = (eαk)neIβxieIγyj .
E portanto, essa componente do erro sera´ uniformente limitada se:
|eαk| ≤ 1
para todo α.
Se (3.58) e´ substitu´ıdo na fo´rmula (3.56), o resultado apo´s a eliminac¸a˜o dos fatores
comuns torna-se
eαk = 1− 4σ
(
sen 2
βh
2
+ sen 2
γh
2
)
.
Para estabilidade |eαk| ≤ 1 e, enta˜o
−1 ≤ 1− 4σ
(
sen 2
βh
2
+ sen 2
γh
2
)
≤ 1.
O lado direito da desigualdade e´ satisfeito, e o lado esquerdo resulta em:
100 CAPI´TULO 3. EQUAC¸O˜ES PARABO´LICAS
σ ≤ 1
2
(
sen 2 βh2 + sen
2 γh
2
) ≤ 1
4
,
enta˜o temos a condic¸a˜o de estabilidade σ ≤ 14 .
Muitas vezes a restric¸a˜o imposta pela estabilidade sobre o passo temporal, torna-se muito
restritiva, e pode levar o usua´rio a preferir a utilizac¸a˜o de um me´todo impl´ıcito para escapar
dessa restric¸a˜o. Na pro´xima sec¸a˜o apresentamos brevemente os me´todos mais utilizados na
pra´tica.
Me´todos de Direc¸o˜es Alternadas Impl´ıcitos
A discretizac¸a˜o de uma equac¸a˜o parabo´lica em duas dimenso˜es por um me´todo impl´ıcito
leva a` necessidade de soluc¸a˜o de um conjunto de sistemas de equac¸o˜es lineares, cuja matriz
tem a dimensa˜o do nu´mero de pontos da malha nas varia´veis espaciais, isto e´ se tivermos
N pontos na direc¸a˜o x e M na direc¸a˜o y, a cada passo de tempo, teremos que resolver um
sistema linear com NM equac¸o˜es. Esse processo pode ser extremamente caro do ponto de
vista computacional, se na˜o levarmos em considerac¸a˜o a estrutura muito especial da matriz
dos coeficientes. Por exemplo a discretizac¸a˜o impl´ıcita equivalente a (3.56) e´:
Un+1i,j = U
n
i,j + σ(δ
2
x + δ
2
y)U
n+1
i,j (3.59)
ou seja,
(1 + σ(δ2x + δ
2
y))U
n+1
i,j = U
n
i,j
que resulta num sistema linear cuja matriz A tem no ma´ximo 5 elementos na˜o nulos por
linha. Na maioria das vezes e´ poss´ıvel arranjar as inco´gnitas desse sistema de tal forma
que os 5 elementos na˜o nulos de cada linha estejam posicionados de maneira a formar uma
matriz com 5 diagonais, a principal, uma imediatamente acima e outra imediatamente abaixo
desta, e duas outras localizadas a certa distaˆncia da diagonal principal. Obviamente esta
e´ uma matriz muito especial e na˜o devemos tentar resolver o sistema linear resultante sem
ter essa caracter´ıstica em mente. A grande dificuldade e´ que na˜o existem me´todos especiais
eficientes para tratar o problema com cinco diagonais, e o me´todo de Gauss na˜o e´ muito
adequado pois ao aplicarmos o processo de triangularizac¸a˜o os elementos que eram nulos
originalmente o deixam de ser ao longo do processo, provocando o fenoˆmeno conhecido como
“fill in”. Esta mesma dificuldade na˜o ocorre se a matriz tiver apenas 3 diagonais; a principal
e as duas adjacentes. Nesse caso o me´todo de eliminac¸a˜o de Gauss pode ser aplicado sem
nenhuma dificuldade. A tentativa de resolver o problema bidimensional resolvendo-se apenas
sistemas tridiagonais e´ materializada pela concepc¸a˜o dos Me´todos de Direc¸o˜es Alternadas
(ADI). Me´todos ADI sa˜o me´todos de 2-passos onde em cada passo apenas uma das varia´veis
e´ tratada implicitamente. No primeiropasso uxx e´ discretizado implicitamente e uyy e´
tratado explicitamente, no segundo passo os papeis se invertem e assim sucessivamente. O
esforc¸o computacional do me´todo ADI e´ cerca de treˆs vezes o do me´todo expl´ıcito, prec¸o
que pagamos ao utilizar um me´todo incondicionalmente esta´vel.
3.5. EQUAC¸O˜ES PARABO´LICAS EM DUAS DIMENSO˜ES 101
Ilustraremos estes me´todos por meio da equac¸a˜o (3.50), com L como em (3.54). A regia˜o
a ser considerada consiste em R x [t ≥ 0], onde R e´ uma regia˜o arbitra´ria fechada em IR2.
Inicialmente tomamos R como quadrado [0 ≤ x ≤ 1, 0 ≤ y ≤ 1].
Da equac¸a˜o (3.53) temos:
un+1 = exp(k(D21 +D
2
2))u
n
un+1 = exp(
k
2
(D21 +D
2
2) +
k
2
(D21 +D
2
2))u
n
logo,
exp(−k
2
(D21 +D
2
2))u
n+1 = exp(
k
2
(D21 +D
2
2))u
n (3.60)
exp(−k
2
D21)exp(−
k
2
D22)u
n+1 = exp(
k
2
D21)exp(
k
2
D22)u
n,
cuja expansa˜o e truncamento da se´rie fornece a equac¸a˜o:
(1− 1
2
σδ2x)(1−
1
2
σδ2y)U
n+1 = (1 +
1
2
σδ2x)(1 +
1
2
σδ2y)U
n +O(k3 + kh2) (3.61)
Este me´todo e´ uma modificac¸a˜o do me´todo de Crank-Nicolson em duas dimenso˜es que e´
dado por:
(1− 1
2
σδ2x −
1
2
σδ2y)U
n+1 = (1 +
1
2
σδ2x +
1
2
σδ2y)U
n +O(k3 + kh2). (3.62)
Note que para obter (3.61) de (3.62) um termo da forma σ4 δ
2
xδ
2
y foi adicionado em ambos os
membros de (3.62).
A equac¸a˜o (3.61) pode ser interpretada de uma forma mais conveniente para a imple-
mentac¸a˜o computacional introduzindo-se um passo intermedia´rio para “decompor” (3.61)
em duas equac¸o˜es: {
(1− 12σδ2x)Un+1∗ = (1 + 12σδ2y)Un
(1− 12σδ2y)Un+1 = (1 + 12σδ2x)Un+1∗
(3.63)
ou seja, o passo intermedia´rio representa uma soluc¸a˜o na direc¸a˜o x e o passo final uma
soluc¸a˜o na direc¸a˜o y.
O me´todo decomposto (3.63) com Un+1
∗
= Un+1/2, isto e´ o passo intermedia´rio e´ inter-
pretado como um “meio” passo, foi introduzido por Peaceman e Rachford [8] e e´ conhecido
como me´todo de Peaceman e Rachford.
Um me´todo decomposto e com precisa˜o mais alta pode ser obtido da equac¸a˜o (3.60)
substituindo D21 e D
2
2 por, (veja exerc´ıcio (1.1))
D21 =
δ2x
h2(1 + 112δ
2
x)
e D22 =
δ2y
h2(1 + 112δ
2
y)
102 CAPI´TULO 3. EQUAC¸O˜ES PARABO´LICAS
cuja expansa˜o fornece:
[1−σ1
2
(σ1−1
6
)δ2x][1−
σ2
2
(σ2−1
6
)δ2y ]U
n+1 = [1+
σ1
2
(σ1+
1
6
)δ2x][1+
σ2
2
(σ2+
1
6
)δ2y ]U
n+O(k3+kh4),
(3.64)
que pode ser decomposto em duas equac¸o˜es:
{
(1− σ12 (σ1 − 16 )δ2x)Un+1
∗
= (1 + σ22 (σ2 +
1
6 )δ
2
y)U
n
(1− σ22 (σ2 − 16 )δ2y)Un+1 = (1 + σ12 (σ1 + 16 )δ2x)Un+1
∗ (3.65)
este me´todo foi obtido por Mitchell e Fairweather [7].
As equac¸o˜es (3.63) e (3.65) sa˜o exemplos de me´todos envolvendo a soluc¸a˜o de sistemas
tridiagonais ao longo das linhas paralelas aos eixos x e y respectivamente. Estes sa˜o os
me´todos ADI.
As fo´rmulas (3.61) e (3.64) podem ser decompostas de uma outra maneira sugerida por
D’Yakonov [D’yakonov 1963]:
{
(1− 12σδ2x)Un+1
∗
= (1 + 12σδ
2
x)(1 +
1
2σδ
2
y)U
n
(1− 12σδ2y)Un+1 = Un+1
∗
,
e {
(1− 12 (σ − 16 )δ2x)Un+1
∗
= (1 + 12 (σ +
1
6 )δ
2
x)(1 +
1
2 (σ +
1
6 )δ
2
y)U
n
(1− 12 (σ − 16 )δ2y)Un = Un+1
∗
respectivamente.
Finalmente, Douglas e Rachford [Douglas 1956] formularam um me´todo ADI que e´ dado
na forma decomposta por:
{
(1− σδ2x)Un+1
∗
= (1 + σδ2y)U
n
(1− σδ2y)Un+1 = Un+1
∗ − σδ2yUn,
e e´ conhecido como o me´todo de Douglas-Rachford. Eliminando-se Un+1
∗
temos a fo´rmula:
(1− σδ2x)(1 − σδ2y)Un+1 = (1 + σ2δ2xδ2y)Un,
que pode ser decomposta, de acordo com o me´todo de D’Yakonov, em:
{
(1 − σδ2x)Un+1
∗
= (1 + σ2δ2xδ
2
y)U
n,
(1 − σδ2y)Un+1 = Un+1
∗
.
Usando o me´todo de von Neumann, mostra-se a estabilidade, dos me´todos ADI apresen-
tados nesta sec¸a˜o, para todo valor de σ > 0; ver exerc´ıcio (3.25).
3.5. EQUAC¸O˜ES PARABO´LICAS EM DUAS DIMENSO˜ES 103
Me´todo Localmente Unidimensional
Vamos ilustrar os me´todos localmente um-dimensionais (LOD) resolvendo a equac¸a˜o
ut = uxx + uyy,
que pode ser reescrita como o par de equac¸o˜es
1
2
ut = uxx e
1
2
ut = uyy. (3.66)
A ide´ia e´ portanto, aproximar a soluc¸a˜o de um problema em duas dimenso˜es resolvendo-
se dois problemas unidimensionais que localmente representam o problema original. As
discretizac¸o˜es expl´ıcitas mais simples dessas fo´rmulas sa˜o:
1
2
(
Un+
1
2 − Un
k/2
)
=
δ2x
h2
Un
1
2
(
Un+1 − Un+ 12
k/2
)
=
δ2y
h2
Un+
1
2
que pode ser reescrita na forma compacta como:
Un+
1
2 = (1 + σδ2x)U
n e Un+1 = (1 + σδ2y)U
n+ 1
2 , (3.67)
e eliminando Un+
1
2 temos:
Un+1 = (1 + σδ2y)(1 + σδ
2
x)U
n.
Obtemos assim a equac¸a˜o (3.57) que aproxima a soluc¸a˜o com erro de truncamento da
O(k2 + kh2). Para um problema de valor inicial com condic¸o˜es dadas sobre o plano t = 0,
−∞ < x < ∞,−∞ < y < ∞, se usarmos o me´todo LOD (3.67) temos a mesma precisa˜o e
estabilidade mas mais economia de ca´lculos do que usando (3.57). Ja´ o me´todo de Crank-
Nicolson para o par de equac¸o˜es (3.66) toma a forma:
1
2
(
Un+
1
2 − Un
k/2
)
=
δ2xU
n+ 1
2 + δ2xU
n
2h2
1
2
(
Un+1 − Un+ 12
k/2
)
=
δ2yU
n+1 + δ2yU
n+ 1
2
2h2
que pode ser reescrito como:(
1− σ
2
δ2x
)
Un+
1
2 =
(
1 +
σ
2
δ2x
)
Un
(3.68)(
1− σ
2
δ2y
)
Un+1 =
(
1 +
σ
2
δ2y
)
Un+
1
2 .
104 CAPI´TULO 3. EQUAC¸O˜ES PARABO´LICAS
Se os operadores δ2x e δ
2
y comutam, e este e´ o caso quando o domı´nio e´ um retaˆngulo de
lados paralelos aos eixos x e y, enta˜o o me´todo (3.68) e´ equivalente ao me´todo Peaceman–
Rachford. O me´todo LOD constru´ıdo acima e´ de segunda ordem, e´ incondicionalmente
esta´vel e envolve apenas a soluc¸a˜o de sistemas tridiagonais.
Neste cap´ıtulo tentamos apresentar uma colec¸a˜o representativa dos diferentes tipos de
me´todos e problemas em equac¸o˜es parabo´licas. No entanto o leitor com aplicac¸o˜es mais
espec´ıficas pode encontrar um grande nu´mero deles em Ames [Ames 1972], Thomas [32]
Lapidus e Pinder [31] e Sod [36].
3.6 Exerc´ıcios
3.1 Mostre pelo me´todo de separac¸a˜o de varia´veis, que a soluc¸a˜o do problema (3.8) e´ dada
pela fo´rmula (3.9).
3.2 Seja a equac¸a˜o
ut = uxx 0 < x < 1
com condic¸o˜es de fronteira u(0, t) = u(1, t) = 0, para t > 0 e com a condic¸a˜o inicial:
u(x, 0) =
{
2x, para 0 ≤ x ≤ 12
2− 2x, para 12 ≤ x ≤ 1
cuja soluc¸a˜o exata e´:
u(x, t) =
8
π2
∞∑
n=1
( sen (
1
2
nπ))( sen (nπx)) exp(−n2π2t).
Fac¸a um programa em MATLAB para resolver esse problema usando o me´todo expl´ıcito
com h = 0.05 e
a. k = 511h
2
b. k = 59h
2.
Utilizando MATLAB fac¸a um gra´fico da soluc¸a˜o nume´rica e da soluc¸a˜o exata para cada
um dos casos acima, plotando U e u contra x para va´rios valores de t, por exemplo,
t = 0.05, 0.1, 0.15, . . . , 0.5. Observe atentamente os gra´ficos dos dois casos. Note que a
soluc¸a˜o inicial tem uma descontinuidade na primeira derivada no ponto x = 1/2, e esta
descontinuidade e´ suavizada imediatamente quando entramos no domı´nio. Esta e´ uma pro-
priedade geral das equac¸o˜es parabo´licas e el´ıpticas. Obtenha pelo me´todo de separac¸a˜o de
varia´veis a soluc¸a˜o exata desse problema.
3.3 Mostre que a equac¸a˜o de diferenc¸as
Ui,j+1 = Ui,j + σ(Ui−1,j − 2Ui,j + Ui+1,j)
3.6. EXERCI´CIOS 105
admite uma soluc¸a˜o separa´vel Ui,j = XiTj. Determine as equac¸o˜es para Xi e Tj. Obtenha
soluc¸o˜es para essas equac¸o˜es substituindo Xi = exp(iλ) e determinando dois valores para λ,
que chamaremos λ1 e λ2 e a soluc¸a˜o Xi pode ser enta˜o determinada por superposic¸a˜o como:
Xi = C1 exp(iλ1) + C2 exp(iλ2)
com C1 eC2 constantes arbitra´rias.
3.4 Mostre que escolhendo σ = 16 em (3.7) e levando em considerac¸a˜o a expressa˜o (3.11)
obtemos um me´todo que e´ condicionalmente consistente de ordem O(k2) com a equac¸a˜o do
calor ut = auxx.
3.5 Mostre que o me´todo expl´ıcito
Ui,j+1 =
2σ
3
Ui+1,j + (1− 2σ)Ui,j + 4σ
3
Ui−1,j
na˜o e´ consistente com a equac¸a˜o ut = auxx. Encontre a equac¸a˜o para a qual esse me´todo e´
consistente.
Discuta a consisteˆncia da generalizac¸a˜o do me´todo de DuFort–Frankel (3.25)
Ui,j+1 − Ui,j−1
2k
= a
Ui+1,j − 2(θUi,j+1 + (1 − θ)Ui,j−1) + Ui−1,j
h2
,
para os casos:
a. k = rah
b. k = rah2
onde r e´ uma constante positiva.
3.6 Mostre que a matrix (A)pq = exp(Iαqph), p = 0, 1, . . .N, q = 0, 1, . . .N , onde αq =
qπ
l , e´ na˜o singular.
Sugesta˜o: Observe que A e´ uma matriz de Vandermond.
3.7 Considere a equac¸a˜o diferencial
ut = uxx − bu, t > 0, x ∈ IR
com b > 0. Analise a convergeˆncia do me´todo de diferenc¸as finitas:
Ui,j+1 = σUi−1,j + (1− 2σ − bk)Ui,j + σUi+1,j , j = 0,±1, . . .
3.8 Considere a equac¸a˜o diferencial
ut = auxx − bux, a > 0, 0 ≤ x ≤ L, 0 < t < T
u(x, 0) = ψ(x), 0 ≤ x ≤ L
u(0, t) = f(t), 0 < t < T
u(L, t) = g(t), 0 < t < T.
106 CAPI´TULO 3. EQUAC¸O˜ES PARABO´LICAS
Discretizando essa equac¸a˜o pelo me´todo expl´ıcito e diferenc¸as centrais para aproximar ux
obte´m-se:
Ui,j+1 = (σ +
bk
2h
)Ui+1,j + (1− 2σ)Ui,j + (σ − bk
2h
)Ui−1,j .
Utilizando o crite´rio de von Neumann estude a estabilidade desse me´todo. Compare com a
estabilidade do me´todo resultante do seguinte crite´rio para aproximar o termo ux, chamado
me´todo “up-wind”; aproximamos ux por diferenc¸as progressivas se b > 0 e por diferenc¸as
regressivas caso contra´rio.
3.9 Considere o seguinte problema de valor de fronteira de Neumann
ut = auxx, a > 0, 0 ≤ x ≤ L, 0 < t < T
u(x, 0) = ψ(x), 0 ≤ x ≤ L
∂u(0, t)
∂x
= α1(u− u1), 0 < t < T
∂u(L, t)
∂x
= −α2(u− u2), 0 < t < T
onde α1, α2 sa˜o constantes positivas.
a. Obtenha o me´todo resultante da aproximac¸a˜o das condic¸o˜es de fronteira por diferenc¸as
centrais e da equac¸a˜o pelo me´todo expl´ıcito.
b. Obtenha o me´todo resultante da aproximac¸a˜o da fronteira esquerda por diferenc¸as
progressivas da fronteira direita por diferenc¸as regressivas e da equac¸a˜o pelo me´todo
expl´ıcito.
c. Repetir os items acima considerando o me´todo impl´ıcito para aproximar a equac¸a˜o.
Escreva esses me´todos em notac¸a˜o matricial. Qual o efeito das condic¸o˜es de fronteira na
matriz dos coeficientes? Usando o segundo teorema de Gershgorin estude a estabilidade do
me´todo resultante do primeiro item, mostrando que a restric¸a˜o de estabilidade e´ dada por:
σ ≤ min{ 1
2 + α1h
,
1
2 + α2h
}.
3.10 Mostre que se para a equac¸a˜o de diferenc¸as Uj+1 = AUj + cj os autovetores de A
sa˜o linearmente independentes e se seus autovalores λi satisfazem |λi| ≤ 1+O(k), ∀i, enta˜o
essa equac¸a˜o sera´ esta´vel.
3.11 Seja A a matriz tridiagonal de ordem N
A =


a b
c a b
c a b
. . .
c a b
c a

 .
3.6. EXERCI´CIOS 107
Mostre que os autovalores e autovetores dessa matriz sa˜o: (i = 1, 2, . . . , N)
λi = a+ 2b
(c
b
) 1
2
cos(
iπ
N + 1
),
vi =
(
(
c
b
)
1
2 sen (
iπ
N + 1
), (
c
b
)
2
2 sen (
2iπ
N + 1
), (
c
b
)
3
2 sen (
3iπ
N + 1
), · · · , (c
b
)
N
2 sen (
Niπ
N + 1
)
)T
.
Sugesta˜o: Ver [13] pa´ginas 113-115.
3.12 Mostre que os autovalores e autovetores da matriz (3.20) sa˜o dados por:
λi = 1− 4σ sen 2( iπ
2N
), vi =
(
sen (
iπ
N
), sen (
2iπ
N
), · · · , sen ( (N − 1)iπ
N
)
)T
.
3.13 Mostre que os autovalores da matriz do me´todo impl´ıcito (3.28) sa˜o:
λi = 1 + 4σ sen
2(
iπ
2N
)
e portanto os autovalores de A−1 sa˜o 1λi que sa˜o menores que 1 para todo valor de σ impli-
cando que esse me´todo e´ incondicionalmente esta´vel, como ja´ haviamos conclu´ıdo.
3.14 Prove a igualdade:
∂2u
∂x2
=
1
h2
(
δ2x −
1
12
δ4x +
1
90
δ6x + . . .
)
u.
Utilize-a para obter a seguinte discretizac¸a˜o da equac¸a˜o do calor:
Ui,j+1 − Ui,j
k
=
1
2
{(
∂2u
∂x2
)
i,j+1
+
(
∂2u
∂y2
)
i,j
}
=
1
2h2
(
δ2x −
1
12
δ4x +
1
90
δ6x + . . .
)
(Ui,j+1 + Ui,j). (3.69)
Aplicando o operador (1+ 112δ
2
x) a ambos os membros de (3.69) obtemos um me´todo nume´rico
de quarta ordem no espac¸o:
(1 − 6σ)Ui−1,j+1 + (10 + 12σ)Ui,j+1 + (1− 6σ)Ui+1,j+1 =
= (1 + 6σ)Ui−1,j + (10− 12σ)Ui,j + (1 + 6σ)Ui+1,j
Escreva o me´todo acima na forma matricial e utilize o crite´rio da matriz para estudar sua
estabilidade.
108 CAPI´TULO 3. EQUAC¸O˜ES PARABO´LICAS
3.15 Sejam p1(x) = amx
m + am−1xm−1 + · · ·+ a1x+ a0 e p2(x) = blxl + bl−1xl−1 + · · ·+
b1x + b0 dois polinoˆmios de graus m e l e A uma matriz N × N . Se λ e´ um autovalor
de A com autovetor v e se p1(A) for uma matriz invers´ıvel enta˜o
p2(λ)
p1(λ)
e´ autovalor de
(p1(A))
−1p2(A) com autovetor v. Utilize esse resultado para mostrar que os autovalores da
matriz de amplificac¸a˜o do me´todo de Crank-Nicolson sa˜o:
λi =
1− 2σ sen 2( iπ2N )
1 + 2σ sen 2( iπ2N )
i = 1, 2, . . . , N − 1.
3.16 Considere a seguinte aproximac¸a˜o para a equac¸a˜o do calor no intervalo [0, 1]:
3
2k
∆tUi,j − 1
2k
∇tUi,j = 1
h2
δ2xUi,j+1.
Utilizando o crite´rio da matriz analise a estabilidade desse me´todo.
3.17 Considere a equac¸a˜o parabo´lica na˜o linear
ut = u
m
xx, m inteiro ≥ 2
que pode ser aproximada pelo me´todo impl´ıcito,
Ui,j+1 − Ui,j
k
=
θδ2x(Ui,j+1)
m + (1− θ)δ2x(Ui,j)m
h2
.
Expansa˜o em se´rie de Taylor de (u(xi, tj+1))
m, em torno do ponto (xi, tj) produz:
(ui,j+1)
m = (ui,j)
m + k
∂(ui,j)
m
∂t
+ · · ·
= (ui,j)
m + km(ui,j)
m−1 ∂ui,j
∂t
+ · · · .
Dessa forma, a menos de termos com ordem maior que O(k), temos a seguinte aproximac¸a˜o:
(Ui,j+1)
m = (Ui.j)
m +m(Ui,j)
m−1(Ui,j+1 − Ui,j)
que se substitu´ıda na equac¸a˜o do me´todo o torna linear. Escrevendo ωi = Ui,j+1 − Ui,j
deduza um sistema linear em termos dessa nova varia´vel.
3.18 a. Considere a equac¸a˜o parabo´lica na˜o linear:
ut = φ(x, t, u, ux, uxx), 0 < x < 1, 0 < t ≤ T, (3.70)
u(x, 0) = ψ(x),
u(0, t) = f(t),
u(1, t) = g(t).
Esse problema constitue um problema bem posto se a condic¸a˜o ∂φ∂uxx ≥ a > 0 estiver
satisfeita no domı´nio. Expandindo u(xi, tj+1) em se´rie de Taylor no ponto (xi, tj),
e utilizando a equac¸a˜o (3.70), para substituir ut, deduza um me´todo expl´ıcito para
resolveˆ-la.
3.6. EXERCI´CIOS 109
b. Uma outra classe importante de equac¸o˜es parabo´licas na˜o lineares e´:
uxx = φ(x, t, u, ux, ut), 0 < x < 1, 0 < t ≤ T, (3.71)
u(x, 0) = ψ(x),
u(0, t) = f(t),
u(1, t) = g(t).
Esse problema constitue um problema bem posto se a condic¸a˜o ∂φ∂ut ≥ a > 0 estiver
satisfeita no domı´nio. Discretizando as derivadas espaciais por diferenc¸as centrais e
a derivada temporal por diferenc¸a regressiva, no ponto (xi, tj+1), obtenha um me´todo
imp´ıcito para resolver (3.71). Qual a ordem desse me´todo?
c. Considere a equac¸a˜o parabo´lica quase-linear com
uxx = a(x, t, u)ux + b(x, t, u)ut + c(x, t, u).
Baseando-se no item (b) acima, obtenha um me´todo impl´ıcito linear para resolver
esse problema, isto e´, um me´todo cuja soluc¸a˜o requeira a soluc¸a˜o de um sistema linear
apenas.
d. Derive o me´todo de Crank-Nicolson para a equac¸a˜o (3.71).
3.19 Seja ψ a soluc¸a˜o da equac¸a˜o do calor ψt = ψxx. Mostre que se ψ = exp(− v2 ) e u = vx,
enta˜o u e´ soluc¸a˜o da equac¸a˜o na˜o linear:
ut = uxx − uux.
Utilizando a transformac¸a˜o acima encontre a soluc¸a˜o exata do problema:
ut = uxx − uux 0 < x < 1, t > 0
u(x, 0) = sen πx
u(0, t) = u(1, t) = 0.
Resolva esse problema numericamenteutilizando um dos me´todos discutidos acima e compare
seus resultados com a soluc¸a˜o exata.
3.20 Determinar o erro de truncamento local e a estabilidade do me´todo hopscotch.
3.21 Mostre que cada uma das fo´rmulas de Saul’yev (3.43-3.44) e´ incondicionalmente
esta´vel.
3.22 Utilizando o me´todo da matriz mostre a que condic¸a˜o de estabilidade da equac¸a˜o de
diferenc¸as:
Ui,j+1 = Ui,j + σ(Ui−1,j − 2Ui,j + Ui+1,j), i = 0, 1, . . .N − 1
U−1,j = U1,j − 20hU0,j
UN,j = 0
e´ σ ≤ 12+10h . Por outro lado usando o crite´rio de von Neumann obtemos a condic¸a˜o σ ≤ 12 .
Conclua enta˜o que o crite´rio de von Neumann e´ uma condic¸a˜o necessa´ria mas na˜o suficiente
para estabilidade da equac¸a˜o de diferenc¸as.
110 CAPI´TULO 3. EQUAC¸O˜ES PARABO´LICAS
3.23 Mostre que a complexidade algor´ıtmica (nu´mero de operac¸o˜es aritme´ticas) do me´todo
expl´ıcito para resolver a equac¸a˜o do calor em 2D e´: 4 adic¸o˜es + 3 multiplicac¸o˜es por ponto
da malha. Mostre tambe´m que no caso de um me´todo ADI esse nu´mero e´: 10 adic¸o˜es + 8
multiplicac¸o˜es + 6 diviso˜es.
3.24 Considere o me´todo obtido pela me´dia ponderada dos me´todos impl´ıcito e expl´ıcito:
Ui,j+1 − Ui,j = σ
(
θδ2xUi,j+1 + (1 − θ)δ2xUi,j
)
, σ =
k
h2
, 0 ≤ θ ≤ 1.
Observe que para θ = 0 obtemos o me´todo expl´ıcito, para θ = 1 obtemos o me´todo impl´ıcito
e para θ = 1/2 obtemos o me´todo de Crank-Nicolson. Deduzir a expressa˜o do erro de
truncamento local e usando a te´cnica de von Neumann mostre que para 0 ≤ θ < 1/2 o
me´todo e´ esta´vel se σ ≤ 12(1−2θ) e incondicionalmente esta´vel para 1/2 ≤ θ ≤ 1.
3.25 Mostre que os me´todos impl´ıcito e ADI em 2D sa˜o incondicionalmente esta´veis.
3.26 Mostre que os operadores δ2x e δ
2
y comutam quando o domı´nio onde eles se aplicam
e´ um retaˆngulo. Deˆ um contra-exemplo para ilustrar o caso em que o domı´nio na˜o e´ um
retaˆngulo.
3.27 Mostre que o me´todo de Crank-Nicolson em duas dimenso˜es com espac¸amento k na
direc¸a˜o t, hx e hy nas direc¸o˜es x e y, pode ser escrito como:(
1− σx
2
δ2x −
σy
2
δ2y
)
Un+1 =
(
1 +
σx
2
δ2x +
σy
2
δ2y
)
Un (3.72)
onde σx =
k
h2x
e σy =
k
h2y
.
Mostre que o termo:
σxσy
4
δ2xδ
2
y
(
Un+1 − Un)
e´ de ordem O(k3).
Mostre que adicionando o termo
σxσy
4
δ2xδ
2
yU
n+1
no lado esquerdo de (3.72) e o termo
σxσy
4
δ2xδ
2
yU
n
no lado direito, obtemos um me´todo com a mesma ordem do me´todo de Crank-Nicolson que
pode ser fatorado na forma:(
1− σx
2
δ2x
)(
1− σy
2
δ2y
)
Un+1 =
(
1 +
σx
2
δ2x
)(
1 +
σy
2
δ2y
)
Un.
3.6. EXERCI´CIOS 111
3.28 Mostre que o me´todo de Peaceman-Rachford para soluc¸a˜o da equac¸a˜o do calor na˜o
homogeˆnea
ut = uxx + uyy + F (x, y, t)
toma a forma:
(
1− σx
2
δ2x
)
Un+
1
2 =
(
1 +
σy
2
δ2y
)
Un +
k
2
Fn(
1− σy
2
δ2y
)
Un+1 =
(
1 +
σx
2
δ2x
)
Un+
1
2 +
k
2
Fn+1.
112 CAPI´TULO 3. EQUAC¸O˜ES PARABO´LICAS
Cap´ıtulo 4
Equac¸o˜es El´ıpticas
4.1 Introduc¸a˜o
Problemas de equil´ıbrio em duas ou treˆs dimenso˜es geralmente da˜o origem a` equac¸o˜es
el´ıpticas. Exemplos t´ıpicos dessa classe sa˜o problemas de difusa˜o e de pressa˜o, problemas
em elasticidade, problemas de camada limite, problemas de vibrac¸a˜o de membranas, etc.
Mais simplificadamente, os problemas el´ıpticos caracterizam-se pela propagac¸a˜o de suas
propriedades f´ısicas em todas as direc¸o˜es coordenadas indistintamente, ao contra´rio das
equac¸o˜es parabo´licas e hiperbo´licas onde essas propriedades propagam-se em direc¸o˜es pref-
erenciais. Da´ı porque as condic¸o˜es de fronteira de um problema el´ıptico sa˜o normalmente
especificadas ao longo de toda a fronteira.
Seja R uma regia˜o limitada do plano com fronteira ∂R. A equac¸a˜o
a(x, y)
∂2u
∂x2
+ 2b(x, y)
∂2u
∂x∂y
+ c(x, y)
∂2u
∂y2
= d
(
x, y, u,
∂u
∂x
,
∂u
∂y
)
(4.1)
de acordo com a definic¸a˜o apresentada na sec¸a˜o 2.2 do cap´ıtulo 2, e´ el´ıptica em R se b2−ac <
0 para todo ponto (x, y) de R. Como ja´ observado anteriormente uma equac¸a˜o diferencial
como (4.1) necessita de condic¸o˜es iniciais e/ou de fronteria para constituir-se num problema
bem posto. Isto ocorre porque, supondo que w seja uma soluc¸a˜o da equac¸a˜o (4.1) com
d ≡ 0, enta˜o v = u + αw sera´ uma soluc¸a˜o de (4.1) para qualquer valor de α, onde u e´
uma soluc¸a˜o particular de (4.1). Esta observac¸a˜o indica a possibilidade de que a equac¸a˜o
(4.1) sozinha tenha infinitas soluc¸o˜es e portanto precisamos de condic¸o˜es adicionais para
assegurar unicidade.
Imaginamos que na˜o seja dif´ıcil para o leitor compreender a necessidade de um problema
ter uma u´nica soluc¸a˜o para que seu tratamento nume´rico possa ser considerado. Na˜o faria
muito sentido tentar aproximar a soluc¸a˜o de um problema para o qual na˜o existe uma, ou que
tenha uma infinidade delas, caso em que o me´todo nume´rico ficaria totalmente “indeciso”
sobre qual delas perseguir. De forma que parece claro que so´ tem sentido tentar resolver
numericamente um problema com soluc¸a˜o u´nica. Ja´ a importaˆncia da continuidade em
relac¸a˜o aos dados iniciais, para a soluc¸a˜o nume´rica, pode na˜o ser ta˜o o´bvia. Ocorre que
quando resolvemos um problema numericamente, estamos fazendo aproximac¸o˜es, e tudo se
113
114 CAPI´TULO 4. EQUAC¸O˜ES ELI´PTICAS
passa como se na verdade estivessemos resolvendo um outro problema cujos dados iniciais
sofreram uma pequena perturbac¸a˜o. Se o problema na˜o se comporta bem com relac¸a˜o a`
pequenas perturbac¸o˜es nesses dados, a soluc¸a˜o nume´rica obtida sera´ desastrosa.
Vimos enta˜o a necessidade de que a` equac¸a˜o (4.1) seja adicionada condic¸o˜es de fron-
teira e que essas condic¸o˜es de fronteira devem ser escolhidas de maneira a resultar em um
problema bem posto. Felizmente, a maioria dos problemas que reclamam um tratamento
nume´rico proveˆm de aplicac¸o˜es pra´ticas e essas mesmas aplicac¸o˜es determinam as condic¸o˜es
de fronteira, formando problemas bem postos.
Treˆs tipos de problemas distintos envolvendo a equac¸a˜o (4.1) podem ser destacados
dependendo das condic¸o˜es de fronteira:
• (i) o problema de Dirichlet, requer que a soluc¸a˜o u de (4.1) seja conhecida sobre a
fronteira ∂R, isto e´,
u(x, y) = f(x, y), (x, y) ∈ ∂R.
• (ii) quando ∂u∂n e´ conhecida sobre ∂R, ou seja,
∂u
∂n
= g(x, y), (x, y) ∈ ∂R,
onde n e´ a normal externa a` fronteira ∂R, o problema de valor de fronteira e´ conhecido
como problema de Neumann.
• (iii) o problema de Robbins ou misto, surge quando conhecemos
α(x, y)u + β(x, y)
∂u
∂n
= γ(x, y) sobre ∂R,
onde α(x, y) > 0, β(x, y) > 0, (x, y) ∈ ∂R.
Quando em (4.1) tomamos a = c ≡ 1 e b = d ≡ 0 obtemos o proto´tipo de equac¸a˜o
el´ıptica mais conhecido que e´ a famosa equac¸a˜o de Laplace
− (uxx + uyy) = 0. (4.2)
Passamos a seguir a discutir me´todos de aproximac¸a˜o para a classe de equac¸o˜es el´ıpticas.
4.2 Me´todos de Diferenc¸as Finitas
Os me´todos de diferenc¸as finitas, a exemplo do que fizemos no cap´ıtulo 3 para as equac¸o˜es
parabo´licas, consistem em substituir as derivadas parciais presentes na equac¸a˜o diferencial
por aproximac¸o˜es por diferenc¸as finitas. Para isto e´ necessa´rio que os pontos onde essas
diferenc¸as sera˜o calculadas sejam pre´ estabelecidos, ou seja, e´ necessa´rio a definic¸a˜o de uma
malha de pontos no domı´nio. Para ilustrar como esta discretizac¸a˜o e´ realizada na pra´tica
consideremos a equac¸a˜o de Poisson:
−∆u = −(uxx + uyy) = f, (4.3)
definida no retaˆngulo R = {(x, y), 0 ≤ x ≤ a, 0 ≤ y ≤ b} com condic¸a˜o de Dirichlet:
4.2. ME´TODOS DE DIFERENC¸AS FINITAS 115
u = g(x, y) (4.4)
sobre a fronteira, ∂R desse retaˆngulo.
Primeiramente, para que possamos aproximar uxx e uyy por diferenc¸as finitas cobrimos
a regia˜o R com uma malha. Escolhemosa opc¸a˜o mais o´bvia que consiste em trac¸ar linhas
paralelas aos eixos coordenados, conforme ilustrado na figura 4.1. Os pontos dessa malha
sera˜o denotados por (xi, yj), xi = ih, yj = jk, i = 0, 1, · · ·M, j = 0, 1, · · ·N , onde h repre-
senta o espac¸amento na direc¸a˜o x e k na direc¸a˜o y. Denotamos por Rδ os pontos da malha
interiores a R, isto e´,
Rδ = {(xi, yj), 0 < i < M, 0 < j < N}
e por ∂Rδ os pontos da malha que esta˜o sobre a fronteira, ou seja,
∂Rδ = {(xi, yj), (i = 0,M, 0 ≤ j ≤ N) e (0 ≤ i ≤M, j = 0, N)}
x x
y
y
yb =
0
1
= a
k
h
0
N
M1
y
x x
Figura 4.1: Malha da discretizac¸a˜o
Podemos agora aproximar as derivadas da equac¸a˜o (4.3) da seguinte forma. A equac¸a˜o
(4.3) e´ va´lida para todos os pontos de R, enta˜o em particular para um ponto gene´rico de Rδ
podemos escrever,
−(uxx(xi, yj) + uyy(xi, yj)) = f(xi, yj). (4.5)
Assim, as derivadas podem ser aproximadas por:
uxx(xi, yj) ≃ u(xi + h, yj)− 2u(xi, yj) + u(xi − h, yj)
h2
uyy(xi, yj) ≃ u(xi, yj + k)− 2u(xi, yj) + u(xi, yj − k)
k2
.
Substituindo essas aproximac¸o˜es em (4.5) obtemos:
−
(
u(xi + h, yj)− 2u(xi, yj) + u(xi − h, yj)
h2
+
u(xi, yj + k)− 2u(xi, yj) + u(xi, yj − k)
k2
)
≃ f(xi, yj). (4.6)
116 CAPI´TULO 4. EQUAC¸O˜ES ELI´PTICAS
Note que a expressa˜o (4.6) na˜o representa uma equac¸a˜o porque o segundo membro e´ somente
uma aproximac¸a˜o para o primeiro e portanto na˜o temos uma igualdade. Isto decorreu de
termos substitu´ıdo uxx(xi, yj) e uyy(xi, yj) por suas respectivas aproximac¸o˜es. Podemos
transformar (4.6) numa equac¸a˜o, simplesmente trocando o sinal ≃ pelo de igualdade. Se
assim procedermos, no entanto, na˜o poderemos mais garantir que os valores nume´ricos
presentes no lado esquerdo de (4.6) coincidam com os valores da soluc¸a˜o de (4.3) nos mesmos
pontos.
Seguindo a notac¸a˜o utilizada na literatura denotaremos por ui,j o valor da soluc¸a˜o no
ponto (xi, yj) e por Ui,j a soluc¸a˜o da equac¸a˜o de diferenc¸as:
−
(
Ui+1,j − 2Ui,j + Ui−1,j
h2
+
Ui,j+1 − 2Ui,j + Ui,j−1
k2
)
= fi,j . (4.7)
A equac¸a˜o (4.7) devera´ ser aplicada para todos os pontos em Rδ. Para os pontos em ∂Rδ
calculamos Ui,j diretamente da condic¸a˜o de fronteira de Dirichlet
Ui,j = g(xi, yj). (4.8)
Nossa esperanc¸a quando escrevemos a equac¸a˜o (4.7) e´ que Ui,j seja uma aproximac¸a˜o
para u(xi, yj), isto e´, Ui,j ≃ u(xi, yj). Demonstraremos mais adiante que, de fato, isto e´
verdadeiro. Provaremos mais ainda que Ui,j “converge” para u(xi, yj) quando a malha e´
refinada. Para simplificar a notac¸a˜o para a equac¸a˜o de diferenc¸as definimos o operador:
−∆δUi,j = −
(
Ui+1,j − 2Ui,j + Ui−1,j
h2
+
Ui,j+1 − 2Ui,j + Ui,j−1
k2
)
.
Com essa notac¸a˜o as equac¸o˜es discretas (4.7)-(4.8) podem ser reescritas na forma:
−∆δUi,j = f(xi, yj), (xi, yj) ∈ Rδ (4.9)
Ui,j = g(xi, yj), (xi, yj) ∈ ∂Rδ. (4.10)
Substituindo na equac¸a˜o (4.9) cada um dos (N − 1) × (M − 1) pontos interiores da
malha em Rδ veremos que a func¸a˜o discreta U satisfaz um sistema de equac¸o˜es lineares
com (N − 1)× (M − 1) equac¸o˜es no mesmo nu´mero de inco´gnitas, inco´gnitas essas que sa˜o
as aproximac¸o˜es para a soluc¸a˜o da equac¸a˜o diferencial nos pontos da malha. Em notac¸a˜o
matricial, seguindo a convenc¸a˜o notacional adotada no cap´ıtulo 3, podemos escrever esse
sistema como:
AU = r
onde o vetor U, a matriz A e o vetor r sa˜o dados respectivamente por:
U = (U1,1, U2,1, · · · , UN−1,1, U1,2, U2,2, · · · , UN−1,2, · · · , U1,M−1, U2,M−1, · · · , UN−1,M−1)T
4.2. ME´TODOS DE DIFERENC¸AS FINITAS 117
A =


a b c
b a b
. . . 0
. . .
. . .
. . . 0
. . .
. . .
. . .
. . . c
. . .
. . .
. . .
c
. . .
. . .
. . .
. . . 0
. . .
. . .
. . .
0
. . . b a b
c b a


(4.11)
r =


f(x1, y1) +
g(x0, y1)
h2
+
g(x1, y0)
k2
f(x2, y1) +
g(x2, y0)
k2
...
f(xN−1, y1) +
g(xN , y1)
h2
+
g(xN−1, y0)
k2


Na matriz A, os nu´meros a, b e c sa˜o os coeficientes da discretizac¸a˜o de 5 pontos e sa˜o dados
por:
a =
2
h2
+
2
k2
, c = − 1
k2
,
sendo que o valor de b na˜o e´ constante na matriz toda: em algumas posic¸o˜es esse valor e´
nulo. Essas posic¸o˜es correspondem a`queles pontos situados sobre a fronteira que sa˜o dados
pelas posic¸o˜es da matriz A (p ∗ (M − 1), p ∗ (M − 1) + 1) e (p ∗ (M − 1) + 1, p ∗ (M − 1))
com p = 1, 2, . . .. Nas demais posic¸o˜es o valor de b e´ b = − 1h2 .
Talvez essas ide´ias fiquem mais claras se considerarmos um exemplo.
Exemplo 4.2.1 Consideremos a equac¸a˜o de Poisson com condic¸o˜es de fronteira de Dirich-
let no domı´nio 0 < x < 1 e 0 < y < 1 discretizada na malha mostrada na figura 4.2.
Existem 4 pontos internos: P1,1, P1,2, P2,1, P2,2, (Pi,j = (xi, yj)). Nesse caso N = M = 3.
As condic¸o˜es de fronteira para o problema de Dirichlet sa˜o dadas como:
u(0, y) = 0, u(1, y) = 1, u(x, 0) = 0, u(x, 1) = 0
Observe que estamos utilizando h = k e portanto a equac¸a˜o (4.7) pode ser reescrita como:
4Ui,j − Ui+1,j − Ui−1,j − Ui,j+1 − Ui,j−1 = h2fi,j. (4.12)
Variando os ı´ndices i e j obtemos:
4U1,1 − U2,1 − U0,1 − U1,2 − U1,0 = 1
9
f1,1
118 CAPI´TULO 4. EQUAC¸O˜ES ELI´PTICAS
i=0 1 2 3
j=0
1
2
3
h=1/3
h
y
x
Figura 4.2: Malha de discretizac¸a˜o com h = 13
4U1,2 − U2,2 − U0,2 − U1,3 − U1,1 = 1
9
f1,2 (4.13)
4U2,1 − U3,1 − U1,1 − U2,2 − U2,0 = 1
9
f2,1
4U2,2 − U3,2 − U1,2 − U2,3 − U2,1 = 1
9
f2,2.
Todos os valores de Ui,j para i = 0 ou i = 3, e qualquer j, e j = 0 ou j = 3 e qualquer i,
sa˜o conhecidos. Substituindo esses valores nas equac¸o˜es (4.13) acima podemos reescreveˆ-las
na forma matricial como:

4 −1 −1 0
−1 4 0 −1
−1 0 4 −1
0 −1 −1 4




U1,1
U1,2
U2,1
U2,2

 =


f1,1/9
f1,2/9
1 + f2,1/9
1 + f2,2/9

 .
4.3 Erro de Truncamento Local
Comentamos na sec¸a˜o anterior que a aproximac¸a˜o gerada pela discretizac¸a˜o por diferenc¸as
finitas “converge” para a soluc¸a˜o do problema (4.3-4.4). Nesta sec¸a˜o vamos demonstrar esse
fato para o caso de um domı´nio retangular. Para esse fim precisamos introduzir alguns
conceitos e resultados.
Note que a expressa˜o (4.6) na˜o e´ uma igualdade, de forma que podemos definir a quan-
tidade:
τi,j = −∆δui,j − f(xi, yj). (4.14)
4.3. ERRO DE TRUNCAMENTO LOCAL 119
Lema 4.1 Se a soluc¸a˜o u(x, y) e´ diferencia´vel ate´ ordem 4 com derivada limitada, enta˜o o
erro de truncamento local definido por (4.14) satisfaz:
|τi,j | ≤ c1h2 + c2k2
onde c1 e c2 sa˜o constantes independentes de h e k.
Prova: Da definic¸a˜o do operador ∆δ temos o seguinte:
τi,j = −
(
u(xi + h, yj)− 2u(xi, yj) + u(xi − h, yj)
h2
+
u(xi, yj + k)− 2u(xi, yj) + u(xi, yj − k)
k2
)
− f(xi, yj).
(4.15)
Expandindo os termos u(xi + h, yj), u(xi − h, yj), u(xi, yj + k) e u(xi, yj − k) em se´rie de
Taylor em torno do ponto (xi, yj) obtemos:
u(xi + h, yj) = u(xi, yj) + hux(xi, yj) +
h2
2!
uxx(xi, yj) +
h3
3!
uxxx(xi, yj) +
h4
4!
uxxxx(ξ1, yj)
u(xi − h, yj) = u(xi, yj)− hux(xi, yj) + h
2
2!
uxx(xi, yj)− h
3
3!
uxxx(xi, yj) +
h4
4!
uxxxx(ξ2, yj)
u(xi, yj + k) = u(xi, yj) + kuy(xi, yj) +
k2
2!
uyy(xi, yj) +
k3
3!
uyyy(xi, yj) +
k4
4!
uyyyy(xi, η1)
u(xi, yj − k) = u(xi, yj)− kuy(xi, yj) + k
2
2!
uyy(xi, yj)− k
3
3!
uyyy(xi, yj) +
k4
4!
uyyyy(xi, η2)
onde ξ1, ξ2, η1 e η2 sa˜o pontos arbitra´rios com ξ1 ∈ (xi, xi + h),
ξ2 ∈ (xi − h, xi), η1 ∈ (yj , yj + k), η2 ∈ (yj − k, yj).
Substituindo essas expanso˜es em (4.15) e simplificando os termos semelhantes obtemos:
τi,j = −
[
uxx(xi, yj) +
h2
4!
uxxxx(ξ1, yj) +
h2
4!
uxxxx(ξ2, yj)
+uyy(xi, yj) +
k2
4!
uyyyy(xi, η1) +
k2
4!
uyyyy(xi, η2)− f(xi, yj)
]. (4.16)
Da hipo´tese de que as derivadas uxxxx e uyyyy existem e sa˜o limitadas segue que os nu´meros
P = max |uxxxx(x, y)| e Q = max |uyyyy(x, y)| esta˜o bem definidos. Assim tomando o
mo´dulo e em seguida o ma´ximo da expressa˜o (4.16) obtemos, considerando que uxx+uyy = f ,
|τi,j | ≤ P
12
h2 +
Q
12
k2. (4.17)
2
Observe que nesse caso o erro de truncamento local decresce ao refinarmos a malha, isto
e´, ao fazermos h e k menores. Na verdade o lema 4.1 nos diz mais do que simplesmente que o
erro diminui, ele nos da´ a velocidade de convergeˆncia desse erro, que nesse caso e´ quadra´tica.
No entanto, isto na˜o implica necessariamente que o erro global tambe´m esta´ decrescendo.
120 CAPI´TULO 4. EQUAC¸O˜ES ELI´PTICAS
Observac¸a˜o 4.3.1 Lembramos que o erro global e´ definido por:
ei,j = ui,j − Ui,j (4.18)
onde ui,j e Ui,j denotam respectivamente as soluc¸o˜es exata e aproximada calculadas no ponto
(xi, yj).
Provaremos esse fato a seguir; mas para esse fim necessitamos de alguns resultados
preliminares que passamos a apresentar e demonstrar.
Teorema 4.1 (Princ´ıpio do Ma´ximo)
(a) Se V (x, y) e´ uma func¸a˜o discreta (de malha) definida sobre Rδ
⋃
∂Rδ e satisfaz
∆δV (x, y) ≥ 0, ∀(x, y) ∈ Rδ,
enta˜o,
max
(x,y)∈Rδ
V (x, y) ≤ max
(x,y)∈∂Rδ
V (x, y).
(b) Alternativamente, se V (x, y) satisfaz
∆δV (x, y) ≤ 0, ∀(x, y) ∈ Rδ,
enta˜o,
min
(x,y)∈Rδ
V (x, y) ≥ min
(x,y)∈∂Rδ
V (x, y).
Prova: Provaremos a parte (a) por contradic¸a˜o. Suponhamos que em algum ponto P0 ≡
(xr, ys) de Rδ temos V (P0) =M0, onde M0 ≥ V (P ), ∀P ∈ Rδ e M0 > V (P ), ∀P ∈ ∂Rδ.
Sejam
P1 = (xr + h, ys),
P2 = (xr − h, ys),
P3 = (xr , ys + k) e
P4 = (xr , ys − k).
Enta˜o, usando, (4.7) podemos escrever
∆δV (P0) ≡ V (P1) + V (P2)
h2
+
V (P3) + V (P4)
k2
− 2
(
1
h2
+
1
k2
)
V (P0).
Mas, por hipo´tese, temos ∆δV (P0) ≥ 0, de modo que
M0 = V (P0) ≤ 1
1/h2 + 1/k2
(
1
h2
V (P1) + V (P2)
2
+
1
k2
V (P3) + V (P4)
2
)
. (4.19)
Como M0 ≥ V (Q), ∀Q ∈ Rδ ∪ ∂Rδ, implica que V (Pν) = M0 para ν = 1, 2, 3, 4, pois
se V (Pν) < M0 para algum ν = 1, 2, 3, 4 enta˜o (4.19) implica o seguinte:
M0 = V (P0) <
1
1/h2 + 1/k2
(
1
h2
M0 +M0
2
+
1
k2
M0 +M0
2
)
=M0
4.3. ERRO DE TRUNCAMENTO LOCAL 121
o que leva a uma contradic¸a˜o pois M0 na˜o pode ser estritamente menor do que ele mesmo.
Lembre-se que estamos supondo que M0 e´ o ma´ximo de V em todo o domı´nio e portanto
V (Q) ≤M0 ∀Q.
Agora, repetimos esse argumento para cada um dos pontos interiores Pν no lugar de
P0. Por repetic¸a˜o, cada ponto de Rδ e ∂Rδ aparece como um dos pontos Pν para algum
correspondente P0. Assim, conclu´ımos que
V (P ) =M0 para todo P ∈ Rδ ∪ ∂Rδ,
o que contradiz a hipo´tese que V < M0 em ∂Rδ. Da´ı, a parte (a) do teorema segue.
1
Para provar a parte (b), podemos repetir o argumento acima. Entretanto, e´ mais simples
recordar que
max[−V (x, y)] = −minV (x, y),
∆δ(−V ) = −∆δ(V ).
Portanto, se V satisfaz a hipo´tese da parte (b), enta˜o −V satisfaz a hipo´tese da parte
(a). Mas a conclusa˜o da parte (a) para −V e´ a mesma da parte (b) para V . 2
Aplicando adequadamente o princ´ıpio do ma´ximo podemos obter um limitante para a
soluc¸a˜o da equac¸a˜o de diferenc¸as (4.7). O resultado, chamado estimativa a priori, pode ser
dado por:
Teorema 4.2 Seja V (x, y) qualquer func¸a˜o discreta definida sobre os conjuntos Rδ e ∂Rδ.
Enta˜o,
max
(x,y)∈Rδ
|V (x, y)| ≤ max
(x,y)∈∂Rδ
|V (x, y)|+ a
2
2
max
(x,y)∈Rδ
|∆δV (x, y)| (4.20)
Prova: Vamos introduzir a func¸a˜o
φ(x, y) ≡ 1
2
x2
e observemos que para todo (x, y) ∈ Rδ
⋃
∂Rδ,
0 ≤ φ(x, y) ≤ a
2
2
e ∆δφ(x, y) = 1.
Agora, sejam V+(x, y) e V−(x, y) dadas por
V±(x, y) ≡ ±V (x, y) +N0φ(x, y),
onde
N0 ≡ max
(x,y)∈Rδ
|∆δV (x, y)|.
1Na verdade provamos mais que isso. Provamos que se o ma´ximo, no caso (a) ou o mı´nimo, no caso (b),
de V (x, y) ocorre em Rδ , enta˜o V (x, y) e´ constante em Rδ e ∂Rδ.
122 CAPI´TULO 4. EQUAC¸O˜ES ELI´PTICAS
Para todo (x, y) ∈ Rδ e´ fa´cil mostrar que (ver exerc´ıcio 4.8)
∆δV±(x, y) = ±∆δV (x, y) +N0 ≥ 0.
Assim, podemos aplicar o princ´ıpio do ma´ximo, parte (a) do Teorema 4.1, a cada V±(x, y)
e obtemos, para todo (x, y) ∈ Rδ,
V±(x, y) ≤ max
(x,y)∈∂Rδ
V±(x, y) =
max
(x,y)∈∂Rδ
[±V (x, y) +N0φ] ≤ max
(x,y)∈∂Rδ
[±V (x, y)] +N0a
2
2
.
Mas, da definic¸a˜o de V± e do fato que φ ≥ 0, obtemos:
±V (x, y) ≤ V±(x, y).
Portanto,
±V (x, y) ≤ max
(x,y)∈∂Rδ
[±V (x, y)] +N0 a
2
2
≤ max
(x,y)∈∂Rδ
|V (x, y)|+ a
2
2
N0.
Como o lado direito da desigualdade acima e´ independente de (x, y) ∈ Rδ o teorema
segue. 2
Observac¸a˜o 4.3.2 Note que podemos substituir a
2
2 em (4.20) por
b2
2 desde que usemos
ψ(x, y) = y
2
2 no lugar de φ(x, y) na prova do teorema.
Para encontrar uma estimativa para o erro global, tomaremos no teorema 4.2,
V (x, y) = e(x, y) enta˜o segue que:
±ei,j ≤ max
∂Rδ
|ei,j |+ a
2
2
N0.
Mas como Ui,j = ui,j = gi,j na fronteira ∂Rδ temos que ei,j = 0 em ∂Rδ. Assim,
±ei,j ≤ a
2
2
N0
ou seja,
|ei,j | ≤ a
2
2
N0 =
a2
2
max
Rδ
|∆δei,j|.
Agora,
∆δei,j = ∆δ(u(xi, yj)− Ui,j) = ∆δu(xi, yj)−∆δUi,j = ∆δui,j − fi,j = τi,j ,
4.4. CONDIC¸O˜ES DE FRONTEIRA EM DOMI´NIOS GERAIS 123
usando (4.14). Assim,
|ei,j | ≤ a
2
2
max
Rδ
|τi,j | ≤ a
2
24
(Ph2 +Qk2).
Portanto o me´todo nume´rico definido em (4.7) produz uma soluc¸a˜o Ui,j que converge
pontualmente para a soluc¸a˜o u(xi, yj) quando h→ 0 e k → 0, com xi = ih e yj = jk valores
fixos.
Corola´rio 4.1 Uma consequeˆncia do teorema 4.2 e´ que o sistema de equac¸o˜es lineares
AU = r definido pela matriz (4.11) tem uma u´nica soluc¸a˜o.
Prova: Provaremos que o sistema homogeˆneo correspondente a (4.7) tem somente a soluc¸a˜o
trivial. Para isso consideremos o problema homogeˆneo:
−(uxx + uyy) = 0 em R
com condic¸a˜o de fronteria homogeˆnea u = 0 sobre a fronteira ∂R, cuja u´nica soluc¸a˜o e´
obviamente a soluc¸a˜o u ≡ 0. Discretizando esse problema, como fizemos para obter (4.7),
teremos um sistema linear homogeˆneo para as inco´gnitas Ui,j . Utilizando agora o teorema
4.2 com V (x, y) = Ui,j , obtemos:
max
Rδ
Ui,j ≤ max
∂Rδ
Ui,j = 0.
Por outro lado como ∆δUi,j = 0, pois estamos assumindo que Ui,j e´ soluc¸a˜o da equac¸a˜o de
diferenc¸as, temos tambe´m , usando a parte (b) do teorema 4.1:
min
Rδ
Ui,j ≥ min
∂Rδ
Ui,j = 0.
Assim, Ui,j = 0 e´ a unica soluc¸a˜o do sistema em questa˜o. 2
4.4 Condic¸o˜es de Fronteira em Domı´nios Gerais
Na pra´tica, raramente os problemas possuem domı´nios retangulares, de forma que os
me´todos apresentados na sec¸a˜o anterior teriam pouco valor na soluc¸a˜o de problemas reais,
na˜o fossem eles estend´ıveis para domı´nios mais gerais. Nesta sec¸a˜o apresentaremos duas
te´cnicas para aproximac¸a˜o nume´rica da equac¸a˜o de Poisson com condic¸a˜o de fronteira de
Dirichlet em domı´nios gerais. O caso da condic¸a˜o de Neumann e´ bem mais complexo e sera´
tratado em outra sec¸a˜o. Consideremos enta˜o o problema de Dirichlet num domı´nio R como
o da figura 4.3.
Observac¸a˜o 4.4.1 Na figura 4.3 e seguintes estaremos utilizando a localizac¸a˜o geogra´fica
para rotular os pontos da discretizac¸a˜o de 5 pontos, isto e´, o ponto central da discretizac¸a˜o
chamaremos de C, N para o ponto acima (Norte), S para o ponto abaixo (Sul), L para o
ponto a` direita (Leste) e O para o ponto a` esquerda (Oeste).
124 CAPI´TULO 4. EQUAC¸O˜ES ELI´PTICAS
xx x x
y
y0
y1
y2
yN=b
=a210 xM
P Q
C
N
LO
S
Figura 4.3: Domı´nio geral – Aproximac¸a˜o por lados da malha
Notemos que, ao contra´rio do caso de domı´nio retangular, neste caso os pontos onde
a condic¸a˜o de fronteira e´ conhecida na˜o fazem parte da malha e portanto na˜o podemosutilizar a condic¸a˜o de fronteira para elimina´-los da equac¸a˜o (4.7). A primeira te´cnica que
apresentamos consiste em aproximar a fronteira do domı´nio por segmentos da malha como
ilustrado na figura 4.3 pela linha mais grossa. Completada essa aproximac¸a˜o passamos
a resolver o problema no novo domı´nio supondo que a condic¸a˜o de fronteira u(x, y) =
g(x, y) aplica-se agora sobre a nova fronteira. Como pode ser facilmente e diretamente
observado da figura 4.3, ao refinarmos a malha melhores aproximac¸o˜es da fronteira sa˜o
obtidas. Entretanto, esse na˜o e´ o me´todo mais preciso que podemos deduzir. Sua grande
vantagem esta´ na simplicidade e facilidade de aplicac¸a˜o. Na pra´tica, quando aproximamos
o domı´nio pelos lados das ce´lulas e transportamos a condic¸a˜o de fronteira para essa nova
curva, (observe o ponto P na figura 4.3), estamos aproximando o valor de UO por aquele
de UP , ou seja, estamos interpolando u na ce´lula por um polinoˆmio constante de grau zero.
Como e´ sabido da teoria da aproximac¸a˜o [30], o erro em tal aproximac¸a˜o e´ de ordem h. Ja´
o erro de aproximac¸a˜o da equac¸a˜o diferencial por diferenc¸as finitas, como foi mostrado em
(4.17), e´ de ordem h2. Por essa raza˜o foi comentado acima ser esse um me´todo que na˜o goza
de boa precisa˜o.
O sistema linear resultante da aplicac¸a˜o dessa te´cnica e´ similar a`quele obtido para o caso
de um domı´nio retangular tendo a forma AU = r, onde U representa o vetor das inco´gnitas,
a matriz A tem as mesmas caracter´ısticas daquela em (4.11), a menos do fato de que a
subdiagonal onde aparece a constante c deixa de ser uma diagonal e os valores aparecem em
zig-zag.
4.4. CONDIC¸O˜ES DE FRONTEIRA EM DOMI´NIOS GERAIS 125
Exemplo 4.4.1 Considere como um exemplo, a equac¸a˜o de Poisson com condic¸a˜o de fron-
teira de Dirichlet para o domı´nio da figura 4.4. A discretizac¸a˜o dessa equac¸a˜o por diferenc¸as
xx x x
y
y0
y1
y2
y =b
=a210 x
1
2 3 4 5
6 7 8 9 10
11 12 13
9
8
14 15 16
17 18 19 20 21
22 2423
Figura 4.4: Exemplo de discretizac¸a˜o com 24 pontos internos
finitas de cinco pontos tomando como aproximac¸a˜o da fronteira irregular os lados da malha,
conforme ilustrado pela linha cheia na figura 4.4, produz um sistema linear 24× 24 AU = r
onde:
U = (U1, U2, . . . , U24)
T
126 CAPI´TULO 4. EQUAC¸O˜ES ELI´PTICAS
com Ui denotando uma aproximac¸a˜o para u(x, y) no ponto da figura 4.4 marcado com i.
A =


a c
a b c
b a b c
c b a b c
b a c
a b c
c b a b c
c b a b c
c b a b c
c b a c
a b
c b a b c
c b a b c
c b a b c
c b a b c
c b a c
c a b c
c b a b c
c b a b c
c b a b
c b a
c a b
c b a b
c b a


onde
a =
2
h2
+
2
k2
, b = − 1
h2
e c = − 1
k2
O vetor r conte´m o valor da func¸a˜o f(x, y) avaliada nos pontos correspondentes a` enu-
merac¸a˜o da figura 4.4 e tambe´m os valores da fronteira. Por exemplo a primeira coordenada
de r e´:
r1 = f(x5, y1) +
g(x4, y1) + g(x6, y1)
h2
+
g(x5, y0)
k2
que corresponde ao valor de f no ponto 1 adicionado aos valores da fronteira correspondentes
aos pontos a` esquerda e a` direita de 1 e tambe´m do ponto abaixo.
As demais coordenadas de r sa˜o calculadas de maneira similar e deixamos como exerc´ıcio.
(Ver exerc´ıcio (4.9)). )
A outra te´cnica consiste na utilizac¸a˜o de um polinoˆmio de primeiro grau na interpolac¸a˜o.
No caso da figura 4.3 utilizamos os pontos P e C para interpolac¸a˜o e avaliamos esse polinoˆmio
no ponto O, na verdade uma extrapolac¸a˜o! Assim o valor de UO sera´ expresso como func¸a˜o
dos valores de UP que e´ conhecido e de UC que na˜o o e´. Isto produz uma equac¸a˜o que
permite a eliminac¸a˜o de UO da equac¸a˜o de diferenc¸as para UC .
Deduzimos a seguir as fo´rmulas para o caso especial do ponto C da figura 4.3. Na notac¸a˜o
da figura 4.3 temos
UO − 2UC + UL
h2
+
UN − 2UC + US
k2
= fC . (4.21)
4.4. CONDIC¸O˜ES DE FRONTEIRA EM DOMI´NIOS GERAIS 127
A grande dificuldade de (4.21) comparado com (4.7) e´ que em (4.21) o valor de UO e´
desconhecido, pois este na˜o esta´ sobre a fronteria como seria o caso quando o domı´nio e´
retangular. Observe na figura 4.5 a ampliac¸a˜o de uma parte da figura 4.3, onde mostramos
uma ce´lula em que a fronteira do domı´nio corta seus lados.
< 1θ<0 2
θ 1 < 1<0
Q
h
P
hθh)θ1 1
2θ
h)θ 1(1-
(1-
O C
N
S
L
Figura 4.5: Interpolac¸a˜o linear
O polinoˆmio linear que interpola UP e UC e´
[(x− xC)UP − (x− xP )UC ] 1
xP − xC .
A aproximac¸a˜o para UO pode enta˜o ser facilmente deduzida substituindo x por xO na
expressa˜o acima para obter:
UO ≃ [(xO − xC)UP − (xO − xP )UC ] 1
xP − xC = [−hUP + (1− θ1)hUC ]
−1
hθ1
=
1
θ1
[UP − (1 − θ1)UC ] .
Da mesma forma
US ≃ 1
θ2
[UQ − (1− θ2)UC ] .
Substituindo essas aproximac¸o˜es em (4.21) obtemos:
1
h2
[
UP − (1 − θ1)UB
θ1
− 2UB + UC
]
+
1
k2
[
UQ − (1 − θ2)UB
θ2
− 2UB + UE
]
= fB.
128 CAPI´TULO 4. EQUAC¸O˜ES ELI´PTICAS
Eliminando agora os termos semelhantes e passando para o segundo membro os termos
conhecidos obtemos a equac¸a˜o final:
1
h2
[
UL − (1 + θ1)UC
θ1
]
+
1
k2
[
UN − (1 + θ2)UC
θ2
]
= fC − UP
h2θ1
− UQ
k2θ2
. (4.22)
Uma variac¸a˜o da te´cnica de interpolac¸a˜o acima descrita e que e´ muitas vezes preferida
na pra´tica por tratar-se de interpolac¸a˜o propriamente dita e na˜o extrapolac¸a˜o e´ a seguinte:
Aplica-se a equac¸a˜o de diferenc¸as de 5 pontos somente para aqueles pontos da malha
interiores ao domı´nio e para os quais todos os 4 vizinhos esta˜o no domı´nio. Para pontos
interiores ao domı´nio com algum vizinho fora dele, calculamos uma aproximac¸a˜o por in-
terpolac¸a˜o. Assim, para o ponto C da figura 4.3 calculamos uma primeira aproximac¸a˜o
para UC interpolando na direc¸a˜o x os pontos UP e UL em seguida calculamos uma segunda
aproximac¸a˜o para UC interpolando na direc¸a˜o y os pontos UQ e UN e finalmente adotamos
como aproximac¸a˜o definitiva para UC a me´dia ponderada pelas distaˆncias dos dois valores
obtidos
Formalmente, calculamos o polinoˆmio que interpola UP e UL dado por:
[(x− xP )UL − (x− xL)UP ] 1
xL − xP .
Avaliamos esse polinoˆmio no ponto xC para obter a primeira aproximac¸a˜o U
1
C de UC .
U1C =
hθ1UL + hUP
h+ hθ1
=
θ1UL + UP
1 + θ1
.
Da mesma forma calculamos uma segunda aproximac¸a˜o U2C de UC interpolando na outra
direc¸a˜o e obtemos:
U2C =
hθ2UN + hUQ
h+ hθ2
=
θ2UN + UQ
1 + θ2
.
Finalmente uma aproximac¸a˜o para UC pode enta˜o ser derivada tomando a me´dia ponderada:
UC =
hθ1U
1
C + hθ2U
2
C
hθ1 + hθ2
=
θ1U
1
C + θ2U
2
C
θ1 + θ2
.
Maiores detalhes sobre as te´cnicas aqui descritas podem ser encontrados em [13] e [31].
4.5 Condic¸a˜o de Fronteria de Neumann
Consideramos nesta sec¸a˜o o problema de Poisson com condic¸a˜o de fronteira contendo
derivadas, ou seja, condic¸o˜es de fronteira de Neumann. No caso de domı´nio retangular,
o problema e´ especificado conforme a figura 4.6, onde ale´m das condic¸o˜es de fronteira
mostramos tambe´m a malha da discretizac¸a˜o .
Diferentemente do caso da condic¸a˜o de Dirichlet onde o valor de u e´ conhecido na fron-
teira, no presente caso devemos determinar u tambe´m nos pontos da fronteira. De forma
que precisamos considerar a equac¸a˜o de diferenc¸as finitas para pontos como o ponto C da
4.5. CONDIC¸A˜O DE FRONTERIA DE NEUMANN 129
ux + uy yx = f(x,y)
x
y
u ( )=f ( )
uy (x ,b)=f 3 ( x )
u ( )=f ( )
u ( )=f ( )x x yy y y0,
x
4 2
1
a,
x , 0y
b
a
O C L
N
S
Figura 4.6: Problema de Neumann no retaˆngulo
figura 4.6. Como a equac¸a˜o de diferenc¸as utiliza pontos para traz e para frente (tambe´m
para cimae para baixo) teremos que introduzir pontos fantasmas que esta˜o fora do domı´nio
de ca´lculo, como aqueles formados pelas linhas tracejadas da figura 4.6. Utilizamos enta˜o as
condic¸o˜es de fronteira para elimina´-los. Assim, a equac¸a˜o de Poisson discretizada no ponto
C fica:
UO − 2UC + UL
h2
+
UN − 2UC + US
k2
= fC . (4.23)
O ponto O e´ fantasma e deve ser eliminado. Descrevemos a seguir como eliminar esse
ponto. Procede-se de maneira similar na eliminac¸a˜o de pontos sobre as outras linhas trace-
jadas.
Com esse objetivo aproximamos a condic¸a˜o de fronteira ∂u(0,y)∂x = f4(y) por diferenc¸as
centrais no ponto C para obter:
f4(yC) =
UL − UO
2h
ou seja
UO = UL − 2hf4(yC). (4.24)
Portanto (4.23) transforma-se em:
UL − 2hf4(yC)− 2UC + UL
h2
+
UN − 2UC + US
k2
= fC .
Eliminado os termos comuns e passando aqueles conhecidos para o segundo membro
obtemos:
2UL − 2UC
h2
+
UN − 2UC − US
k2
= fC +
2f4(yC)
h2
. (4.25)
Observando as equac¸o˜es (4.25) e (4.22) concluimos que o efeito das condic¸o˜es de fronteira
no primeiro caso e da irregularidade da fronteira no segundo, nas equac¸o˜es discretizadas, e´ a
modificac¸a˜o do termo independente no lado direito dessas equac¸o˜es e tambe´m a modificac¸a˜o
130 CAPI´TULO 4. EQUAC¸O˜ES ELI´PTICAS
de alguns elementos da matriz de coeficientes. As modificac¸o˜es na matriz sa˜o as mais
relevantes, pois apesar de somente uns poucos elementos sofrerem modificac¸o˜es, estas podem
ser suficientes para destruir propriedades importantes da matriz tais como simetria e diagonal
dominaˆncia.
O caso de domı´nios irregulares com condic¸a˜o de Neumann e´ muito mais complicado
para o tratamento com diferenc¸as finitas. A grande dificuldade reside no fato de conhecer-
mos a derivada direcional ∂u∂η sobre a fronteira do domı´nio de forma que ao, por exemplo,
aproximarmos o domı´nio pelos lados das ce´lulas da discretizac¸a˜o, como descrito para o caso
da condic¸a˜o de Dirichlet, na˜o podemos simplesmente transportar essas condic¸o˜es para os
pontos da malha pois precisamos levar em considerac¸a˜o os cossenos diretores das derivadas
direcionais. Isto torna esse expediente extremamente tedioso e complexo o que leva alguns
autores [29] a sugerir que esses termos devam ser ignorados e devemos enta˜o considerar
as condic¸o˜es de fronteira sobre a malha como se a´ı fosse realmente sua localizac¸a˜o. Esse
processo obviamente introduz erros que sa˜o de dif´ıcil ana´lise.
4.6 Diferenc¸as Finitas em Coordenadas Polares
A mudanc¸a de varia´veis x = r cos(θ), y = r sen (θ) transforma a equac¸a˜o de Poisson em:
∂2u
∂r2
+
1
r
∂u
∂r
+
1
r2
∂2
∂θ2
= h(r, θ). (4.26)
Essa transformac¸a˜o pode ser bastante simplificadora no tratamento da discretizac¸a˜o do
domı´nio no caso deste conter formas circulares, pois nesse caso as derivadas em (r, θ) sa˜o
derivadas direcionais nas direc¸o˜es do raio e do aˆngulo, de forma que podemos utilizar uma
malha como mostrado na figura 4.7.
h
ij
i
j
δθ
Figura 4.7: Discretizac¸a˜o em coordenadas polares
A equac¸a˜o aproximada no ponto (i, j) da malha toma enta˜o a forma:
Ui+1,j − 2Ui,j + Ui−1,j
h2
+
1
ih
(
Ui+1,j − Ui−1,j
2h
)
+
1
(ih)2
(
Ui,j+1 − 2Ui,j + Ui,j−1
δθ
)
= h(ih, jδθ)
4.7. ME´TODOS ITERATIVOS 131
Notemos que a equac¸a˜o acima tem a mesma forma da equac¸a˜o (4.7) a menos dos termos
resultantes da discretizac¸a˜o da derivada de primeira ordem. No entanto esse termo ira´
agrupar-se com aqueles provenientes das derivadas de segunda ordem e ao final teremos
o mesmo tipo de mole´cula de ca´lculo de 5 pontos ta˜o bem conhecida. Os coeficientes da
discretizac¸a˜o sera˜o pore´m distintos daqueles que aparecem na discretizac¸a˜o da equac¸a˜o de
Poisson em coordenadas cartesianas, como na equac¸a˜o (4.7).
4.7 Me´todos Iterativos
Como ficou bastante enfatizado na sec¸a˜o anterior os me´todos de discretizac¸a˜o por
diferenc¸as finitas, e de fato a maioria dos me´todos de discretizac¸a˜o de equac¸o˜es diferenciais
parciais, reduzem o problema cont´ınuo a um problema discreto que resume-se, em u´ltima
instaˆncia, na soluc¸a˜o de um conjunto de equac¸o˜es lineares, ou um sistema de equac¸o˜es lin-
eares como aquele de (4.9)-(4.10). Como sistemas lineares, estes poderiam ser resolvidos
por qualquer me´todo de resoluc¸a˜o de sistemas lineares, como os me´todos diretos tipo Gauss,
ou me´todos iterativos tipo Gauss-Seidel. Dessa forma, o leitor poderia indagar: que car-
acter´ısticas peculiares apresentam esses sistemas para merecerem uma sec¸a˜o especial nesta
monografia? No texto a seguir nos propomos a responder essa questa˜o e discutir que alter-
nativas mostraram-se, ao longo dos anos, mais eficientes, baseando-nos na experieˆncia de
va´rios autores relatada na literatura ao longo dos anos. A primeira particularidade dos sis-
temas lineares provenientes da discretizac¸a˜o de equac¸o˜es diferenciais e´ que eles sa˜o, em geral,
muito grandes, pois o nu´mero de inco´gnitas e´ aproximadamente proporcional ao nu´mero de
pontos da malha, o que faz com que uma discretizac¸a˜o por uma malha bidimensional com 10
pontos em cada direc¸a˜o produza um sistema com 100 equac¸o˜es. Na simulac¸a˜o de problemas
reais uma tal malha conteria ainda um nu´mero muito reduzido de pontos para a uma boa
representac¸a˜o dos fenoˆmenos que pretende-se simular, de forma que malhas mais finas se sa˜o
uma necessidade. Com o refinamento da malha vem o crescimento quadrat´ico do nu´mero de
equac¸o˜es envolvidas. A segunda caracter´ıstica esta´ relacionada com a estrutura particular da
matriz do sistema de equac¸o˜es resultante dessas discretizac¸o˜es. Observando cuidadosamente
o sistema do exemplo 4.2.1, veremos que cada linha tem no ma´ximo 5 elementos na˜o nulos.
Esta constatac¸a˜o pode tambe´m ser auferida observando-se a equac¸a˜o (4.7). Isto faz com
que a grande maioria dos elementos da matriz coeficiente sejam nulos, ou seja essa matriz e´
esparsa. A aplicac¸a˜o de um me´todo direto do tipo Gauss para soluc¸a˜o de um sistema cuja
matriz e´ esparsa na˜o e´ em geral recomendado, pois ao se tentar eliminar os elementos da
parte triangular inferior dessa matriz, muitos elementos que eram nulos na matriz original
tornam-se na˜o nulos ao longo do processo. Isto e´ chamado “fill in”. A grande dificuldade
imposta pelo processo de “fill in” esta´ em que na˜o se sabe a priori quais elementos sera˜o
modificados, portanto deve-se reservar o espac¸o necessa´rio para armazenar toda a matriz na
memo´ria do computador, apesar da maior parte desse espac¸o estar sendo preenchida com
zeros.
Os me´todos iterativos na˜o sofrem desse problema pois, como veremos abaixo, esses
me´todos requerem somente o resultado da multiplicac¸a˜o da matriz coeficiente por um vetor,
e portanto o padra˜o de zeros da matriz na˜o sofre qualquer modificac¸a˜o ao longo do processo.
Por outro lado, os me´todos iterativos nem sempre produzem uma soluc¸a˜o do problema, pois
sua convergeˆncia na˜o esta´ assegurada no caso de matrizes gerais, ao passo que os me´todos di-
retos sempre produzem uma soluc¸a˜o em geral confia´vel. Felizmente as matrizes que surgem
132 CAPI´TULO 4. EQUAC¸O˜ES ELI´PTICAS
da aplicac¸a˜o do me´todo de diferenc¸as finitas a` equac¸o˜es parciais teˆm boas propriedades
e portanto os me´todos iterativos teˆm algum sucesso na soluc¸a˜o desses problemas. Resta
ainda a escolha, dentre os va´rios me´todos existentes, daquele com melhor eficieˆncia para a
soluc¸a˜o do problema. Daremos a seguir uma introduc¸a˜o ao estudo dos me´todos iterativos
que esperamos podera´ guiar o leitor nessa tarefa.
Me´todos iterativos resultam da aplicac¸a˜o repetida de um algoritmo, em geral simples,
que a partir de uma aproximac¸a˜o conhecida constro´i uma nova, mais pro´xima da soluc¸a˜o
exata. Portanto, eles fornecem a soluc¸a˜o exata somente como limite de umasequeˆncia,
mesmo quando erros de arredondamento na˜o sa˜o levados em conta, ou seja, a soluc¸a˜o obtida
na˜o e´ exata mesmo no caso de trabalharmos com aritme´tica exata. Os me´todos iterativos
sa˜o muito aplicados na soluc¸a˜o do sistema Au = v, quando a matriz A e´ esparsa, pois nesse
caso pode-se programa´-los levando-se em considerac¸a˜o os zeros de A. Outra caracter´ıstica
muito positiva e´ que os me´todos iterativos sa˜o auto-corrig´ıveis, isto e´, sua convergeˆncia e´
independente da aproximac¸a˜o inicial, e sua estrutura permite a introduc¸a˜o de paraˆmetros
de controle, tais como sub e sobre-relaxac¸a˜o.
Todo me´todo iterativo comec¸a com uma aproximac¸a˜o inicial que e´ sucessivamente mod-
ificada de acordo com alguma regra. Para que seja u´til, a iterac¸a˜o deve convergir mas, so´
sera´ considerada efetiva se a convergeˆncia for ra´pida.
Para resolver o sistema na˜o singular Au = v por iterac¸a˜o, precisamos que a sequeˆncia
u(k) constru´ıda convirja para A−1v (a soluc¸a˜o),
u(k) −→ A−1v, quando k→∞.
Se u(k) e´ func¸a˜o de A,u,u(k−1), ...,u(k−g), dizemos que g e´ o grau da iterac¸a˜o. Para
economizar memo´ria de computador usualmente escolhemos g como 1, 2 ou 3. Assim, com
g = 1, temos
u(k) = Fk(A,v,u
(k−1)).
Se Fk e´ independente de k o me´todo iterativo e´ dito ser estaciona´rio e, se Fk e´ linear
em relac¸a˜o a u(k−1) ele e´ chamado linear. O me´todo iterativo linear mais geral e´
u(k) = Gku
(k−1) + rk
onde Gk e´ uma matriz que depende de A, e rk e´ um vetor.
Para que este me´todo seja u´til e´ razoa´vel esperar que quando tomarmos u(k−1) = A−1v
a sequeˆncia produzida pelo me´todo seja estaciona´ria, isto e´ u(k) = A−1v e portanto:
A−1v = GkA−1v + rk. (4.27)
Assim, obtemos como condic¸a˜o de consisteˆncia
rk = (I −Gk)A−1v.
Introduzindo a notac¸a˜oMk = (I−Gk)A−1, podemos expressar o me´todo iterativo linear
geral como
u(k) = Gku
(k−1) +Mkv. (4.28)
Podemos analisar a convergeˆncia do me´todo iterativo, equac¸a˜o (4.28), examinando o vetor
erro ek definido por:
4.7. ME´TODOS ITERATIVOS 133
ek = u
(k) −A−1v
= Gku
(k−1) +Mkv −A−1v
= Gku
(k−1) +Mkv −GkA−1v −Mkv
= Gk(u
(k−1) −A−1v)
= Gkek−1.
Aplicando-se esta equac¸a˜o repetidamente, temos:
e1 = G0e0,
e2 = G2G1e0,
...
ek = GkGk−1 · · ·G1e0.
Consequentemente, a convergeˆncia do me´todo, para um erro inicial conhecido e0, de-
pende da condic¸a˜o:
Hke0 = GkGk−1 · · ·G1e0 −→ 0, quando k −→∞.
Quando o me´todo iterativo e´ estaciona´rio e linear, Gk = G. Logo, Hk = G
k, de modo
que a questa˜o da convergeˆncia depende da ana´lise de Gke0.
Os me´todos iterativos sa˜o classificados quase que naturalmente, em duas categorias:
os me´todos iterativos pontuais e os bloco iterativos. Os me´todos iterativos pontuais sa˜o
caracterizados pela natureza expl´ıcita dos ca´lculos de cada componente da aproximac¸a˜o
seguinte, em contraposic¸a˜o a` necessidade da soluc¸a˜o de va´rios subsistemas lineares em cada
esta´gio do ca´lculo nas te´cnicas bloco iterativas.
Descreveremos, a seguir, alguns me´todos iterativos pontuais elementares.
Muitos dos mais conhecidos me´todos iterativos sa˜o construidos a partir da decomposic¸a˜o
de A em
A = L + D + S,
onde
L =


0 0 . . . 0
a21 0 . . . 0
...
...
. . .
...
an1 an2 . . . 0


e´ uma matriz estritamente triangular inferior,
D =


a11 0 . . . 0
0 a22 . . . 0
...
...
. . .
...
0 0 . . . ann


134 CAPI´TULO 4. EQUAC¸O˜ES ELI´PTICAS
e´ uma matriz diagonal e
S =


0 a12 . . . a1n
0 0 . . . a2n
...
...
. . .
...
0 0 . . . 0


e´ uma matriz estritamente triangular superior.
Me´todo de Jacobi
Este me´todo, primeiro aplicado por Jacobi em 1844, e´ tambe´m chamado iterac¸a˜o por
passos totais ou me´todo dos deslocamentos simultaˆneos. O me´todo de Jacobi, devido a
sua simplicidade de implementac¸a˜o e´ muito utilizado como primeira tentativa de soluc¸a˜o
por muitos usua´rios, principalmente iniciantes na arte. No entanto, a convergeˆncia desse
me´todo pode ser excessivamente lenta comparada com outras te´cnicas mais elaboradas.
Neste texto, utilizaremos sempre o me´todo de Jacobi para ilustrar os conceitos discutidos.
Seja:
A = L + D + S.
Para a aplicac¸a˜o do me´todo de Jacobi e´ necessa´rio que os elementos diagonais da matriz
D, os a′iis, sejam na˜o nulos (no caso do exemplo 4.2.1, aii = 4, i = 1, 2, ..., N), de modo que
D e´ na˜o singular. Portanto, D−1 existe e, pre´-multiplicando (L + D + S)u = v por D−1
temos:
u = −D−1(L+ S)u+D−1v.
Comparando com o esquema iterativo linear geral, vemos que a escolha
Gk = −D−1(L + S), Mk = D−1, (4.29)
caracteriza o me´todo de Jacobi
u(k) = GJu
(k−1) +MJv, (4.30)
onde dispensamos o ı´ndice k em Gk eMk para enfatizar o cara´cter estaciona´rio deste me´todo
e o substituimos por J para identificar o me´todo como sendo o de Jacobi. Logo, a matriz
GJ , conhecida como matriz de iterac¸a˜o do me´todo, e´ dada por GJ = −D−1(L+ S).
Escolhendo um vetor inicial arbitra´rio u(0) e, escrevendo os elementos de GJ como g
J
ij ,
cada componente do vetor u(k) da k-e´sima iterac¸a˜o, e´ dada por:
u
(k)
i =
N∑
j=1
gJiju
(k−1)
j + ti, (4.31)
onde ti denotam os elementos de MJv = D
−1v.
Como exemplo, tomemos a equac¸a˜o (4.7), para aproximar o problema (4.3) – (4.4). O
valor da soluc¸a˜o melhorada U
(k)
i,j e´ obtido por uma me´dia da soluc¸a˜o “velha” nos quatro
vizinhos de i, j:
4.7. ME´TODOS ITERATIVOS 135
U
(k)
i,j =
1
4
[U
(k−1)
i+1,j + U
(k−1)
i−1,j + U
(k−1)
i,j+1 + U
(k−1)
i,j−1 + h
2fij ]. (4.32)
A ordem dos ı´ndices i, j, com que as componentes U
(k)
i,j sa˜o calculadas na˜o traz con-
sequeˆncia alguma, embora, na pra´tica, e´ necessa´rio que uma ordem seja seguida. Observe
que a implementac¸a˜o da equac¸a˜o (4.32) exige o armazenamento de U(k−1) ate´ que a k-e´sima
iterac¸a˜o se complete. Esta e´ uma das desvantagens desse me´todo, uma vez que ele requer
o armazenamento dos dois vetores das iterac¸o˜es k − 1 e k. Essa desvantagem na˜o aparece
com o me´todo de Gauss-Seidel estudado a seguir.
Me´todo de Gauss-Seidel
Este me´todo foi usado por Gauss em seus ca´lculos e independentemente descoberto
por Seidel em 1874. Esse esquema, tambe´m conhecido como me´todo dos deslocamentos
sucessivos ou por passos simples, e´ baseado no uso imediato dos valores recentemente atual-
izados. Pode ser derivado da equac¸a˜o (4.31) substituindo-se os valores da iterac¸a˜o corrente,
ja´ calculados, nessa mesma iterac¸a˜o, isto e´,
u
(k)
i =
i−1∑
j=1
gJiju
(k)
j +
N∑
j=i+1
gJiju
(k−1)
j + ti. (4.33)
Na forma vetorial, lembrando a forma da matriz GJ :
Iu(k) = −D−1Lu(k) −D−1Su(k−1) +D−1v,
que pode ser reescrito como:
(L+D)u(k) = −Su(k−1) + v.
Logo,
u(k) = −(L+D)−1Su(k−1) + (L+D)−1v. (4.34)
Assim, o me´todo de Gauss-Seidel e´ um esquema iterativo estaciona´rio linear cuja matriz de
iterac¸a˜o e´
GS = −(L+D)−1S.
A matriz −(L +D)−1 existe desde que o determinante de L +D seja na˜o nulo e este e´
o caso quando os elementos diagonais de A sa˜o na˜o nulos.
Para ilustrar este conceito retornamos a` equac¸a˜o (4.7) supondo que a enumerac¸a˜o sele-
cionada seja U1,1, U1,2, ..., U1,N , U2,1, U2,2, ... , isto e´, de baixo para cima e da esquerda para
a direita como na figura 4.8. Assim, para calcular U
(k)
i,j os valores ja´ calculados no k-e´simo
passo sa˜o usados em todos os pontos que esta˜o sobre todas as linhas abaixo da j-e´sima e
nos pontos da j-e´sima linha com coordenadas menores que i, isto e´, abaixo da linha so´lida
L na figura 4.8.
136 CAPI´TULO 4. EQUAC¸O˜ES ELI´PTICAS
i=0 1 2 3 4 5 6
j=0
1
2
4
5
3 (i,j)
L
Figura 4.8: Ilustrac¸a˜o gra´fica dos pontos utilizados na iterac¸a˜o de Gauss–Seidel
Consequentemente, a forma pra´tica para implementac¸a˜o do me´todo deGauss-Seidel para
a equac¸a˜o (4.7) sera´
U
(k)
i,j =
1
4
[U
(k−1)
i+1,j + U
(k)
i−1,j + U
(k−1)
i,j+1 + U
(k)
i,j−1 + h
2fij ]. (4.35)
Sobre-relaxac¸a˜o Sucessiva (SOR)
A simplicidade dos me´todos de Jacobi e Gauss-Seidel e´ um grande atrativo para sua
utilizac¸a˜o, especialmente por usua´rios que na˜o pretendem fazer um grande investimento
de tempo na implementac¸a˜o de um me´todo de soluc¸a˜o de sistemas lineares, como ja´ men-
cionamos. Mencionamos tambe´m, que infelizmente esses me´todos podem na˜o correponder
quanto a` sua rapidez de convergeˆncia, pois esta vai depender, como veremos na pro´xima
sec¸a˜o, do raio espectral da matriz G. Se este raio for pro´ximo de 1 a convergeˆncia pode
ser proibitivamente lenta. Uma tentativa para sanar essa dificuldade e trazer o raio es-
pectral para valores bem menores que um, consiste na seguinte modificac¸a˜o do me´todo de
Gauss-Seidel conhecido como sobre-relaxac¸a˜o sucessiva (SOR).
Sejam u
(k)
i as componentes do vetor obtido na k-e´sima iterac¸a˜o do me´todo de Gauss-
Seidel. A te´cnica SOR e´ definida por meio da relac¸a˜o
u
(k)
i = u
(k−1)
i + w[u
(k)
i − u(k−1)i ] = (1− w)u(k−1)i + wu(k)i , (4.36)
que significa que, o vetor a ser calculado no passo k e´ uma combinac¸a˜o linear entre o vetor
obtido na k-e´sima iterac¸a˜o do me´todo de Gauss-Seidel e do vetor obtido no passo anterior, na
verdade uma me´dia ponderada entre esses vetores, cujo fator de ponderac¸a˜o e´ w. Se w = 1,
o me´todo reduz-se ao me´todo da Gauss-Seidel. w e´ chamado paraˆmentro de relaxac¸a˜o e sua
escolha determina a velocidade de convergeˆncia.
Substituindo (4.33) em (4.36), temos a forma alge´brica do me´todo SOR:
u
(k)
i = (1− w)u(k−1)i + w[
i−1∑
j=1
gJiju
(k)
j +
N∑
j=i+1
gJiju
(k−1)
j + ti]. (4.37)
Em notac¸a˜o matricial podemos escrever
4.8. CONVERGEˆNCIA 137
Iu(k) = (1− w)Iu(k−1) − w[D−1Lu(k) −D−1Su(k−1) +D−1v]. (4.38)
Multiplicando ambos os membros de (4.38) por D e rearranjando, obtemos:
(D + wL)u(k) = [(1− w)D − wS]u(k−1) + wv.
Logo,
u(k) = (D + wL)−1{[(1− w)D − wS]u(k−1) + v}, (4.39)
cuja matriz de iterac¸a˜o e´
Gw = (D + wL)
−1[(1− w)D − wS].
Note que fazendo w = 1 na equac¸a˜o acima obtemos a matriz de iterac¸a˜o de Gauss-Seidel.
Espera-se dessa forma que com uma escolha adequada de w possamos reduzir o raio espectral
dessa matriz de iterac¸a˜o, o que faria esse me´todo ter uma convergeˆncia mais ra´pida. Na
pra´tica no entanto essa escolha do paraˆmetro w na˜o e´ ta˜o simples como pode parecer a
primeira vista. De fato esse e´ um problema extremamente complexo e em geral a escolha do
paraˆmetro que proporcionara´ melhor convergeˆncia e´ feita por experimentac¸a˜o ou de forma
emp´ırica basendo-se em propriedades do problema pra´tico que esta´ sendo resolvido.
4.8 Convergeˆncia
Consideremos um me´todo iterativo linear estaciona´rio (como na sec¸a˜o 4.7)
u(k) = Gu(k−1) + r.
A soluc¸a˜o exata u desse problema satisfaz:
u = Gu+ r.
Subtraindo membro a membro essas equac¸o˜es deduzimos que o erro na k-e´sima iterac¸a˜o e´
dado por
ek = u
(k) − u = G(uk−1 − u) = Gek−1.
Consequentemente,
ek = G
ke0. (4.40)
Portanto, a ana´lise da convergeˆncia de um me´todo iterativo esta´ intimanente relacionada
com o comportamento de Gk quando k → ∞. Para estudar esse comportamento com um
pouco mais de detalhe, faremos a seguir uma ra´pida revisa˜o de alguns conceitos de A´lgebra
Linear (ver, por exemplo, Varga, [22] ).
Seja u um vetor com N componentes complexas e A = (aij) uma matriz complexa NxN .
Sejam tambe´m u∗ e A∗ os respectivos transpostos conjugados de u e A. A norma euclidiana
de u e´ definida por
138 CAPI´TULO 4. EQUAC¸O˜ES ELI´PTICAS
||u|| = [u∗u]1/2 =
(
N∑
i=1
|ui|2
)1/2
(4.41)
e a norma espectral de A por:
||A|| = [λ(A∗A)]1/2, (4.42)
onde λ(A∗A) e´ o raio espectral de A∗A. O Raio espectral de uma matriz e´ definido como o
maior autovalor em valor absoluto, isto e´:
λ(A) = max {|λ|, tal que λ e´ autovalor de A} .
A norma espectral e o raio espectral esta˜o relacionados da seguinte forma:
i. Para qualquer matriz A tem-se ||A|| ≥ λ(A).
ii. Se A e´ hermitiana (isto e´, A∗ = A), enta˜o ||A|| = λ(A).
iii. Se λ(A) < 1 e n e´ grande, enta˜o ||An|| ≈ [λ(A)]n.
De (4.41) e (4.42) pode-se mostrar que
||A|| = sup
x 6=0
||Ax||
||x|| e ||Ax|| ≤ ||A||||x||. (4.43)
Tomando a norma em (4.40) e usando (4.43) obtemos a desigualdade fundamental para
o estudo da convergeˆncia dos me´todos iterativos:
||ek|| = ||Gke0|| ≤ ||Gk||||e0||. (4.44)
Consequentemente, se e0 na˜o e´ o vetor nulo, ||Gk|| fornece um limitante superior para a
raza˜o ρ = ||ek||||e0|| .
Podemos enta˜o enunciar o seguinte teorema:
Teorema 4.3 Se o raio espectral da matriz de iterac¸a˜o G satisfaz λ(G) < 1, enta˜o o pro-
cesso iterativo linear definido por u(k) = Gu(k−1) + r converge para a soluc¸a˜o u = A−1v
qualquer que seja o vetor inicial u(0).
Esse resultado pode ser utilizado, ver Golub e Van Loan [26], para mostrar que se A e´
sime´trica e definida positiva enta˜o o me´todo de Gauss-Seidel e´ convergente.
De (4.44) e da definic¸a˜o do raio espectral vemos que:
||ek|| ≤ λ(G)k ||e0||.
Reescrevendo essa relac¸a˜o com k+1 no lugar de k e dividindo-se uma pela outra encontramos:
λ(G) ≈ ||ek+1||||ek|| . (4.45)
4.8. CONVERGEˆNCIA 139
De forma que para valores grandes de k, ||ek+1||||ek|| se aproxima de λ(G). Portanto, na me´dia, o
erro decresce de um fator λ(G) a cada passo de iterac¸a˜o. Na verdade, se ||ek+1||||ek|| se aproxima
de λ(G), enta˜o, o nu´mero
R(G) = − log10 λ(G) (4.46)
e´ a taxa de convergeˆncia da iterac¸a˜o linear uk = Guk−1 + r, caracterizada pela matriz G.
Substituindo ||Gk|| por [λ(G)]k na equac¸a˜o (4.44) vemos que ρ ≈ [λ(G)]k. Assim, uma
boa aproximac¸a˜o para o nu´mero de iterac¸o˜es necessa´rias para reduzir o erro inicial de um
fator ρ pode ser calculado da forma a seguir.
Por definic¸a˜o temos:
ρ =
||ek||
||e0|| ≈ [λ(G)]
k.
Tomando agora o logar´ıtmo de ambos os lados obtemos:
k =
− log ρ
− logλ(G) =
− log ρ
R(G) . (4.47)
Note que ||ek|| = ρ||e0|| e portanto ρ pode ser interpretado como o fator de reduc¸a˜o do erro
||e0|| obtido depois de k iterac¸o˜es do me´todo, e portanto (4.47) deve ser interpretado como
uma estimativa para o nu´mero necessa´rio de iterac¸o˜es para reduzir um dado erro de um
fator ρ.
Acompanhe o desenvolvimento a seguir no qual vamos apresentar a comparac¸a˜o dos
va´rios me´todos iterativos atrave´s de um exemplo simples. Seja R o quadrado, 0 < x <
π, 0 < y < π, onde pretendemos determinar a soluc¸a˜o do problema de Dirichet para a
equac¸a˜o de Poisson, pela aplicac¸a˜o do me´todo dado pela equac¸a˜o (4.7), com M = N e
h = k, isto e´,
Ui−1,j − 4Ui,j + Ui+1,j + Ui,j−1 + Ui,j+1
h2
= −fij. (4.48)
Obviamente h = πN e R foi enta˜o dividido em (N − 1)2 quadrados de lado h, com
n = (N − 1)2 pontos interiores.
Denotaremos por Ah a matriz quadrada formada pela aplicac¸a˜o da equac¸a˜o (4.48) para
i, j = 1, 2..., N − 1, isto e´,
Ah =
1
h2


−4 1 1
1 −4 1 . . . 0
. . .
. . .
. . . 0
. . .
. . .
. . .
. . . 1
. . .
. . .
. . .
1
. . .
. . .
. . .
. . . 0
. . .
. . .
. . .
0
. . . 1 −4 1
1 1 −4


(4.49)
140 CAPI´TULO 4. EQUAC¸O˜ES ELI´PTICAS
Denotaremos por Xpq os (N − 1)2 autovetores de −Ah com correspondentes autovalores
µpq, p, q = 1, 2, . . . , N − 1.
Da relac¸a˜o
−AhXpq = µpqXpq, (4.50)
e´ poss´ıvel provar que os autovetores de −Ah, para cada par de inteiros (p, q), podem ser
obtidos variando-se os paraˆmetros i e j na expressa˜o:
Xpq = ( sen (iph) sen (jqh))
T i, j = 1, 2, . . . , N − 1. (4.51)
Os autovalores sa˜o:
µpq =
4
h2
[
sen2(
ph
2
) + sen2(
qh
2
)
]
. (4.52)
Facilmente vemos que
minµpq = µ11 =8
h2
sen2
h
2
−→ 2, quando h→ 0 e (4.53)
maxµpq = µN−1,N−1 =
8
h2
(1− sen2 h
2
) ∼ 8
h2
, quando h→ 0. (4.54)
A convergeˆncia do me´todo de Jacobi e´ determinada pelos autovalores de
GJ = −D−1(L + S).
Desde que A = L+D + S, temos
GJ = −D−1(A−D) = I −D−1A.
Em nosso problema, A = −Ah e D =
(
4
h2
)
I, de modo que
GJ = I +
h2
4
(Ah).
Como os autovalores de −Ah sa˜o dados por (4.52), os autovetores, λJpq, de GJ sa˜o
λJpq = 1− sen2
(
ph
2
)
− sen2
(
qh
2
)
=
cos ph+ cos qh
2
, p, q = 1, 2, . . . , N − 1.
Consequentemente, o raio espectral e´
λ(GJ ) = max |λJpq| = cosh ∼ 1−
h2
2
, quando h → 0,
e a taxa de convergeˆncia e´ portanto
4.8. CONVERGEˆNCIA 141
R(GJ ) = − log(cosh) ∼ − log(1− h
2
2
) =
h2
2
+O(h4). (4.55)
Portanto, a taxa de convergeˆncia do me´todo de Jacobi e´ aproximadamente h
2
2 , que e´ bastante
lenta para valores pequenos de h.
A convergeˆncia do me´todo de Gauss-Seidel aplicado a` equac¸a˜o (4.48) e´ estudada de
maneira ana´loga. O autovalor dominante, nesse caso, e´
λ(GS) = max |λSpq| = cos2 h ∼ 1− h2, quando h→ 0.
Consequentemente, a taxa de convergeˆncia e´
R(GS) = − log(cos2 h) ∼ h2 +O(h4),
que e´ duas vezes mais ra´pido do que o me´todo de Jacobi. Se a matriz A tem uma propriedade
chamada propriedade 2 A ( [Ames 1992] pa´ginas 168-170) e´ poss´ıvel mostrar que o me´todo
SOR, cuja matriz de iterac¸a˜o e´ dada por,
Gw = (D + wL)
−1[(1 − w)D − wS]
tem seus autovalores λwpq dados pelas soluc¸o˜es da equac¸a˜o:
(λwpq + w − 1)2
λwpq
= w2(λJpq)
2, (4.56)
onde λJpq e´ um autovalor da matriz de iterac¸a˜o GJ do me´todo de Jacobi.
Este resultado relaciona os autovalores da matriz de iterac¸a˜o do me´todo SOR com os da
matriz de iterac¸a˜o do me´todo de Jacobi e portanto permite a determinac¸a˜o dos autovalores
de Gw em func¸a˜o daqueles de GJ . A prova desse resultado esta ale´m dos objetivos deste
texto, mas pode ser encontrada em [37] nas pa´ginas 55-58.
Se w = 1, enta˜o o me´todo SOR se transforma no me´todo de Gauss-Seidel e encontramos
λSpq = (λ
J
pq)
2.
Assim, temos a seguinte relac¸a˜o para os raios espectrais
λ(GS) = [λ(GJ )]
2,
de onde segue que
R(GS) = 2R(GJ),
ou seja, a taxa de convergeˆncia do me´todo de Gauss-Seidel e´ duas vezes a do me´todo de
Jacobi, conforme ja´ hav´ıamos concluido.
2Uma matriz tem a propriedade A se existe uma matriz de permutac¸a˜o Π tal que ΠAΠ−1 =
(
D1 F
G D2
)
onde F e G sa˜o matrizes retangulares e D1, D2 matrizes diagonais. A
142 CAPI´TULO 4. EQUAC¸O˜ES ELI´PTICAS
Va´rios autores [37], [Ames 1992] e [31] estudam em detalhes a relac¸a˜o (4.56) na tentativa
de derivar um valor de w que minimize o raio espectral de Gw. E de fato esse estudo produz
o seguinte valor o´timo para o paraˆmetro w, no sentido de minimizar o raio espectral de Gw,
ver [Ames 1992] pa´ginas 171-173.
wotm =
2
1 +
√
1− (λ(GJ ))2
=
2
1 +
√
1− (λJ11)2
(4.57)
Com w = wotm temos que λ(Gw) = wotm − 1.
Para o sistema linear produzido pela equac¸a˜o (4.48) sabemos que λ(GJ ) = cosh e por-
tanto o raio espectral de Gw com w = wotm pode ser calculado e obtemos:
λ(Gw) = wotm − 1 = 2
1 +
√
1− (λ(GJ ))2
− 1 = 2
1 +
√
1− cos2 h − 1 =
1− senh
1 + senh
≈ 1− 2h.
Portanto a taxa de convergeˆncia do me´todo SOR utilizando o paraˆmetro o´timo e´:
R(Gwotm ) = log(λ(Gwotm )) ≈ 2h
que e´ consideravelmente maior que a taxa de convergeˆncia de Jacobi ou Gauss-Seidel.
A tabela abaixo apresenta alguns valores comparativos entre as taxas de convergeˆncia
dos me´todos de Gauss-Seidel e SOR com paraˆmetro o´timo, para valores pre´-fixados do
raio espectral da matriz de iterac¸a˜o de Jacobi. As colunas marcadas com k representam
o nu´mero de iterac¸o˜es de cada me´todo (a primeira e´ para Gauss-Seidel e a segunda para
SOR) necessa´rias para reduzir um dado erro de um fator de 10. Observe que quando o raio
espectral aproxima-se de 1 o me´todo SOR e´ muito mais eficiente do que o me´todo de Gauss-
Seidel. (Veja [37] pa´gina 61). As outras colunas mostram o raio espectral das matrizes de
iterac¸a˜o desses me´todos.
Tabela 4.1
λ(GJ )
2 k wotm λ(Gwotm) k
0.500 4 1.17 0.17 2
0.700 7 1.29 0.29 2
0.800 11 1.38 0.38 3
0.900 18 1.52 0.52 4
0.950 45 1.63 0.63 5
0.990 230 1.82 0.82 12
0.999 2300 1.94 0.94 37
Um dos grandes problemas para a aplicac¸a˜o pra´tica do me´todo SOR e´ a escolha do
paraˆmetro w, pois na˜o e´ via´vel o ca´lculo do raio espectral da matriz de iterac¸a˜o de Jacobi,
por ser esse um processo muito custoso computacionalmente. Nas aplicac¸o˜es utiliza-se a
seguinte estrate´gia: Comec¸amos com a iterac¸a˜o de Gauss-Seidel, isto e´ w = 1, calculamos o
seu res´ıduo resk = v −Au(k) e enta˜o podemos escrever:
resk = v −Au(k) = Au−Au(k) = A(u− u(k)) = −Aek. (4.58)
4.9. ME´TODO DOS GRADIENTES CONJUGADOS 143
A equac¸a˜o (4.58) indica que o res´ıduo e´ “proporcional” ao erro e consequentemente eles
apresentam o mesmo comportamento assinto´tico. Agora sabemos de (4.45) que ek ≈
λ(GJ )
2ek−1. Assim,
resk = −Aek ≈ −λ(GJ )2Aek−1 = λ(GJ )2resk−1 (4.59)
e portanto o quociente das normas dos res´ıduos de duas iterac¸o˜es consecutivas do me´todo de
Gauss-Seidel produz uma aproximac¸a˜o para o raio espectral λ(GJ )
2. Estimando esse valor
podemos utiliza´-lo para estimar o valor de wotm, isto e´, uma estimativa para o raio espectral
e´ derivada de (4.59) na forma:
λ(GJ )
2 ≈ ||resk||||resk−1||
que juntamente com (4.57) produz uma estimativa para wotm.
Observac¸a˜o 4.8.1 Uma outra questa˜o pra´tica fundamental e´ que nunca devemos subesti-
mar o paraˆmetro wotm mas superestima-lo, isto deve-se ao fato de que o comportamento do
raio espectral como func¸a˜o de w na˜o e´ diferencia´vel no ponto w = wotm, e tem tangente
infinita para w → w−otm mas tem tangente finita para w → w+otm, veja a figura em [37]
pa´gina 61.
Uma classe de me´todos que recentemente tem se tornado muito popular para soluc¸a˜o de
sistemas lineares derivados da discretizac¸a˜o de equac¸o˜es diferenciais parciais e´ o me´todo dos
gradientes conjugados, que passaremos a apresentar de forma suscinta.
4.9 Me´todo dos Gradientes Conjugados
O material dessa sec¸a˜o segue a apresentac¸a˜o em [Shewchuck 1994]. Alguns resultados
podem ser tambe´m encontrados em [26]. O me´todo dos gradientes conjugados (GC) tem sido
um dos me´todos mais utilizados recentemente para a soluc¸a˜o de sistemas lineares esparsos
sime´tricos e definidos positivos. A raza˜o para essa prefereˆncia e´ frequentemente justificada
pelas boas propriedades de convergeˆncia desse me´todo e sua versatilidade no tratamento de
sistemas esparsos, juntamente com a facilidade de implementac¸a˜o em ambientes paralelos.
Como veremos logo adiante, para a aplicac¸a˜o do me´todo GC tudo que precisamos saber e´
como calcular o produto matriz-vetor Ax, onde x e´ um vetor arbitra´rio. Na maioria das
vezes, e´ poss´ıvel calcular esse produto sem a necessidade de armazenamento da matriz de
coeficientes A. Por exemplo no caso da discretizac¸a˜o da equac¸a˜o de Poisson definida num
retaˆngulo, por diferenc¸as finitas de 5 pontos, temos que a coordenada m do vetor produto
y = AU pode ser calculada da forma:
ym =
Um+1 − 2Um + Um−1
h2
+
Um+p − 2Um + Um−p
k2
onde p representa o nu´mero de pontos na direc¸a˜o x. Vemos da fo´rmula acima que para
calcular o produto AU, tudo que temos que fazer e´ saber quais valores de U entram no
ca´lculo, na˜o sendo necessa´rio o armazenamento de uma matriz. No caso mais geral em que
o domı´nio na˜o e´ um retaˆngulo as considerac¸o˜es acima continuam va´lidas, mas nesse caso o
144 CAPI´TULO 4. EQUAC¸O˜ES ELI´PTICAS
nu´mero p varia com a coordenada m de y que esta´ sendo calculada, de forma que p sera´
enta˜o uma func¸a˜o de m. Computacionalmente essa dependeˆncia e´ resolvida utilizando-seenderec¸amento indireto, isto e´, os ı´ndices m + p e m − p sa˜o armazenados em varia´veis
indup(m) e inddown(m) que contera˜o as localizac¸o˜es das posic¸o˜es de U que devem entrar
na formac¸a˜o da coordenada m de y.
Comec¸amos a deduc¸a˜o do me´todo GC considerando como fariamos para minimizar o
funcional:
φ(x) =
1
2
xTAx− xTb
onde b e´ um vetor de n componentes, A uma matriz n× n sime´trica e definida positiva.
Definic¸a˜o 4.1 Uma matrix A e´ definida positiva se para todo vetor x na˜o nulo tem-se
xTAx > 0.
A definic¸a˜o acima na˜o e´ muito intuitiva, mas o leitor na˜o deve desesperar-se pois esse
conceito ficara´ mais claro quando explicarmos como ele influencia o gra´fico de uma forma
quadra´tica.
O ca´lculo dos pontos cr´ıticos de φ, leva-nos a` conclusa˜o de que o u´nico mı´nimo de φ
ocorre quando x = A−1b, com valor do mı´nimo igual a −b
TA−1b
2 . Dessa forma minimizar o
funcional φ e resolver o sistema linear Ax = b sa˜o problemas equivalentes. Para ilustrar o
que dissemos acima consideremos o seguinte sistema linear:
10x+ 2y = 12
2x+ 8y = 10
cuja soluc¸a˜o e´ (1, 1)T .
A soluc¸a˜o desse sistema e´ dada graficamente pela intersecc¸a˜o das retas y = 6 − 5x e
y = 1.25− 0.25x.
A matriz A, o vetor b e o vetor x sa˜o dados por:
A =
[
10 2
2 8
]
, b =
[
12
10
]
e x =
[
x
y
]
.
A matriz acima e´ definida positiva (verifique!). A forma quadra´tica φ(x) = 12x
TAx−xTb =
5x2 + 2xy + 4y2 − 12x− 10y associada tem o gra´fico da figura 4.9:
Como prometemos, uma interpretac¸a˜o gra´fica para a propriedade “definida positiva” e´
a seguinte: O gra´fico da func¸a˜o φ(x), no caso em que A e´ definida positiva, tem sempre a
forma de um ca´lice (veja a figura 4.9), o que implica que φ(x) tem um u´nico ponto cr´ıtico
que e´ um ponto de mı´nimo. Esse ca´lice pode ser bastante distorcido de forma que o corte
(intersecc¸a˜o) dele por um plano horizontal resulte em uma elipse e na˜o em um c´ırculo.
Se a propriedade xTAx > 0 for enfraquecida para xTAx ≥ 0 a garantia de um u´nico
ponto de mı´nimo fica comprometida como pode ser facilmente imaginado considerando-se
uma calha de sec¸a˜o parabo´lica (o eixo maior da elipse torna-se infinito). Todos os pontos
no fundo da calha sa˜o pontos de mı´nimo.
Uma estrate´gia para minimizar φ e´ o me´todo de ma´xima descida, no qual um ponto x0
sobre o parabolo´ide e´ escolhido como ponto inicial e descemos em direc¸a˜o ao fundo do ca´lice
por uma se´rie de pontos x1,x2,x3, · · · ate´ encontrarmos um ponto suficientemente pro´ximo
4.9. ME´TODO DOS GRADIENTES CONJUGADOS 145
−10
−5
0
5
10
−10
−5
0
5
10
−100
0
100
200
300
400
500
600
xy
f(x
,y)
Figura 4.9: Gra´fico da forma quadra´tica φ(x)
do ponto de mı´nimo. A descida na direc¸a˜o do ponto de mı´nimo e´ efetuada pelo algoritmo:
Para qualquer ponto xp dado, a direc¸a˜o em que a func¸a˜o φ decresce mais ra´pidamente e´ a
direc¸a˜o oposta ao gradiente ▽φ(xp), isto e´, na direc¸a˜o −▽ φ(xp) = b−Axp.
Definimos agora o res´ıduo em xp como rp = b−Axp. No me´todo de ma´xima descida um
nu´mero α deve ser encontrado de forma que φ(xp + αrp) seja mı´nimo, isto e´, minimizamos
a func¸a˜o φ na direc¸a˜o de busca rp. Temos enta˜o:
φ(xp + αrp) =
1
2
(xp + αrp)
TA(xp + αrp)− (xp + αrp)Tb.
Diferenciando essa expressa˜o em relac¸a˜o a α e igualando a zero para encontrar os pontos
cr´ıticos, encontramos o valor de α.
αcritico =
rTp rp
rTpArp
. (4.60)
Repetindo-se agora esse processo com o ponto xp + αcriticorp obtemos o seguinte algoritmo
(de ma´xima descida) para minimizac¸a˜o do funcional φ, ou equivalentemente para a soluc¸a˜o
do sistema Ax = b :
• k = 0, x0 = b, r0 = b−Ax0
• Enquanto rk 6= 0
• k = k + 1
• αk = rTk−1rk−1/rTk−1Ark−1
• xk = xk−1 + αkrk−1
• rk = b−Axk
146 CAPI´TULO 4. EQUAC¸O˜ES ELI´PTICAS
• Fim Enquanto
A convergeˆncia global e a velocidade de convergeˆncia do algoritmo acima sa˜o dadas pelo
teorema:
Teorema 4.4 Se A e´ sime´trica e definida positiva enta˜o o algoritmo acima produz uma
sequeˆncia xk satisfazendo:
φ(xk) +
1
2
bTA−1b ≤
(
1− λn(A)
λ1(A)
)(
φ(xk−1) +
1
2
bTA−1b
)
. (4.61)
onde λi(A) sa˜o os autovalores de A ordenados em ordem decrescente.
A demonstrac¸a˜o desse resultado pode ser encontrada em Luenberger [25] na pa´gina 218-
219. Uma interpretac¸a˜o geome´trica do teorema 4.4 pode ser obtida observando-se a figura
4.10. O fato dos autovalores de A serem bastante separados implica que o eixo maior da
elipse e´ muito maior do que o eixo menor e assim o me´todo faz um “zig-zag” ao longo do
vale tornando a convergeˆncia muito demorada.
x*
1
x
x
x
1
2
0 
Figura 4.10: Interpretac¸a˜o geome´trica da convergeˆncia no me´todo de ma´xima
descida
Como pode ser observado de (4.61) se a raza˜o λn(A)/λ1(A) for pequena a taxa de
convergeˆncia desse algoritmo e´ sofr´ıvel. Quando λn(A)/λ1(A) e´ pequeno as curvas de n´ıvel
da func¸a˜o φ sa˜o elipsoides muito alongados (figura 4.10) e devemos encontrar o mı´nimo que
esta´ localizado num vale com paredes laterais muito ı´ngremes e com o fundo relativamente
plano. Nesse caso o me´todo de ma´xima descida oscila de um lado pra outro nessas paredes
laterais ao inve´s de ir diretamente vale-abaixo. Essas oscilac¸o˜es e´ que fazem o processo de
convergeˆncia ser lento, pois pode ocorrer que um determinado passo seja tomado na mesma
direc¸a˜o de busca de um passo anterior. Seria mais razoa´vel que uma vez escolhida uma
direc¸a˜o de busca toma´ssemos um passo que minimizasse a func¸a˜o naquela direc¸a˜o de uma
vez por todas, sem a necessidade de retornarmos a ela num passo posterior. Uma cura para
esse problema esta´ na escolha de uma direc¸a˜o de descida diferente daquela da direc¸a˜o oposta
ao gradiente.
Suponha que tenhamos escolhido um conjunto de direc¸o˜es de busca ortogonais
p0,p1, · · ·pn−1. Em cada uma dessas direc¸o˜es no´s faremos exatamente um passo de forma a
obtermos uma das coordenadas da soluc¸a˜o x. Depois de n passos o processo devera´ terminar
com a soluc¸a˜o exata, uma vez que x tem somente n coordenadas. Em geral, para cada passo
escolhemos o ponto
xk+1 = xk + αkpk. (4.62)
4.9. ME´TODO DOS GRADIENTES CONJUGADOS 147
Para determinar o valor de αk usamos o fato de que ek+1 = x − xk+1 deve ser ortogonal a
pk, de forma que nunca mais precisaremos andar na direc¸a˜o de pk. Subtraindo x em ambos
os membros de (4.62) e fazendo o produto escalar com ek+1 encontramos:
αk = −p
T
k ek
pTk pk
.
A fo´rmula acima resolveria o problema na˜o fosse o fato de que na˜o conhecemos ek, pois
este depende da soluc¸a˜o x. A alternativa e´ escolher as direc¸o˜es de busca p0,p1, · · ·pn−1 de
forma que elas sejam A-ortogonais ou conjugadas ao inve´s de ortogonais, isto e´:
pTi Apj = 0, para i 6= j.
Assim, devemos escolher αk de forma que ek+1 seja A-ortogonal a pk, ou seja:
0 = pTkAek+1 = p
T
kAek + αkp
T
kApk.
Portanto
αk = −p
T
kAek
pTkApk
= −p
T
kA(x− xk)
pTkApk
= −p
T
k (b −Axk)
pTkApk
= − p
T
kArk
pTkApk
. (4.63)
A expressa˜o para αk encontrada acima e´ exatamente o ponto cr´ıtico da func¸a˜o f(α) =
φ(xk + αpk), e portanto a condic¸a˜o de A-ortogonalidade das direc¸o˜es de busca corresponde
a encontrar o mı´nimo de f(α) ao longo da direc¸a˜o pk exatamente como no caso do me´todo
de ma´xima descida. De fato, se tomarmos a direc¸a˜o pk = rk o valor de αk fica exatamente
como em (4.60).
Escolhendo as direc¸o˜es de busca como direc¸o˜es A–conjugadas e tomando o paraˆmetro αk
como em (4.63) podemos provar, como ja´ indicado acima o seguinte resultado.
Teorema 4.5 Se as direc¸o˜es de busca p0,p1, · · · ,pn−1 sa˜o A-conjugadas e αk e´ escolhido
como em (4.63) enta˜o o processo termina em n passos.
Prova: Exerc´ıcio.
Resta-nos agora especificar como as direc¸o˜es A–conjugadas devem ser escolhidas.Uma
maneira de gerar essas direc¸o˜es e´ o processo de Gram-Schmidt conjugado ( [Shewchuck 1994]
pa´gina 25). Nesse processo, dado um conjunto {u0,u1, · · ·un−1} de vetores linearmente
independentes um novo conjunto de direc¸o˜es A–conjugadas {p0,p1, · · ·pn−1} e´ gerado a
partir de combinac¸o˜es lineares dos vetores originais, isto e´, escolhendo p0 = u0, as demais
direc¸o˜es conjugadas podem ser geradas a partir da fo´rmula:
pi = ui +
i−1∑
k=0
βi,kpk (4.64)
onde βi,k = −u
T
i Apk
pT
k
Apk
esta˜o definidos para i > k. Uma dificuldade na utilizac¸a˜o da fo´rmula
(4.64) esta´ no fato de que todas as direc¸o˜es conjugadas calculadas pre´viamente precisam ser
148 CAPI´TULO 4. EQUAC¸O˜ES ELI´PTICAS
armazenadas para a construc¸a˜o da pro´xima, com um custo de O(n3) operac¸o˜es aritme´ticas.
O me´todo dos gradientes conjugados evita esse problema escolhendo o conjunto de vetores
linearmente independentes {u0,u1, · · ·un−1} como o conjunto dos res´ıduos {r0, r1, · · · rn−1}.
Com essa escolha pode-se provar (veja exerc´ıcio (4.19) que:
βi,j =
{
rTi ri
αi−1pTi−1Api−1
, i = j + 1,
0, i > j + 1.
O fato de que a maioria dos coeficientes βi,j se anulam significa que na˜o e´ necessa´rio o
armazenamento de um grande nu´mero de direc¸o˜es de busca anteriores para a construc¸a˜o
de uma nova e que o ca´lculo dessas direc¸o˜es envolve somente O(n) operac¸o˜es aritme´ticas.
Utilizando a notac¸a˜o simplificada βi = βi,i−1 e a expressa˜o para αi podemos escrever:
βi =
rTi ri
pTi−1ri−1
=
rTi ri
rTi−1ri−1
Juntando todas as fo´rmulas deduzidas nessa breve introduc¸a˜o, obtemos o algoritmo simpli-
ficado do me´todo dos gradientes conjugados:
i. p0 = r0 = b−Ax0
ii. αi =
rTi ri
pT
i
Api
iii. xi+1 = xi + αipi
iv. ri+1 = ri − αiApi
v. βi+1 =
rTi+1ri+1
rT
i
ri
vi. pi+1 = ri+1 + βi+1pi
O me´todo CG e´ essencialmente um me´todo direto, uma vez que na˜o podemos gerar
direc¸o˜es ortogonais indefinidamente. Podemos gerar no ma´ximo n vetores ortogonais, mas
na pra´tica, devido a erros de arredondamento, a ortogonalidade e´ perdida ao longo do
processo e portanto o me´todo na˜o termina num nu´mero finito de iterac¸o˜es. Ale´m disso para
os problemas para os quais o me´todo CG e´ aplicado o valor de n e´ muito grande, de tal forma
que n iterac¸o˜es e´ ainda uma quantidade inaceita´vel. Dessa forma e´ costumeiro considerar o
me´todo CG como um me´todo iterativo. Com relac¸a˜o a convergeˆncia desse me´todo temos o
seguinte resultado.
Teorema 4.6 Seja A sime´trica e definida positiva, enta˜o o algoritmo dos gradientes con-
jugados produz uma sequeˆncia de vetores x0,x1 . . . com a seguinte propriedade:
|| x− xk ||A≤ 2 || x− x0 ||A
(√
κ− 1√
κ+ 1
)k
.
onde κ = λmaxλmin e λmax e λmin sa˜o respectivamente o maior e o menor autovalor de A.
4.10. EXERCI´CIOS 149
A prova desse resultado pode ser encontrada em [25], pag. 248 ou [Shewchuck 1994], pag.
36. Uma implicac¸a˜o imediata do teorema 4.6 e´ que se os autovalores de A esta˜o bastante
separados enta˜o a convergeˆncia do me´todo CG pode ser bastante lenta, e sera´ de apenas
uma iterac¸a˜o no caso em A tenha todos os autovalores iguais. De forma que a convergeˆncia
do me´todo CG sera´ ta˜o mais ra´pida quanto mais agrupados estiverem os autovalores de A.
Considere uma matriz M sime´trica e definida positiva e o sistema resultante da pre´-
multiplicac¸a˜o do sistema Ax = b por M−1, isto e´ o sistema M−1Ax = M−1b, que obvia-
mente tem a mesma soluc¸a˜o que o sistema original. E´ poss´ıvel, com uma escolha cuidadosa
da matriz M fazer com que os autovalores de M−1A estejam mais agrupados do que os
de A, de forma que o me´todo CG aplicado ao sistema M−1Ax = M−1b convergira´ mais
rapidamente do que quando aplicado ao sistema original Ax = b. A matriz M deve ser es-
colhida de forma que M−1 seja uma boa aproximac¸a˜o para A−1. Esse processo e´ conhecido
na literatura como pre´-condicionamento, e e´ muito utilizado para acelerar a convergeˆncia do
me´todo CG. Resta agora a escolha de uma matriz M que tenha a propriedade de agrupar
os autovalores de A. Muitas sa˜o as escolhas poss´ıveis mas esta ana´lise esta´ ale´m das pre-
tenso˜es deste livro, de forma que referimos ao livro [26] ou ao trabalho [Shewchuck 1994]
para maiores detalhes.
4.10 Exerc´ıcios
4.1 Escreva um programa MATLAB para resolver o problema:
∂2u
∂x2
+
∂2u
∂y2
= −2
definido no quadrado [−1, 1]× [−1, 1] com condic¸a˜o de Dirichlet nula na fronteira. Utilize
h = 0.2. Compare seu resultado com a soluc¸a˜o exata:
u(x, y) = 1−y2−32
π3
∞∑
n=0
(−1)n
(2n+ 1)3
sech
(
(2n+ 1)π
2
)
cosh
(
(2n+ 1)πx
2
)
cos
(
(2n+ 1)πy
2
)
.
4.2 Escreva um programa MATLAB para resolver o problema:
∂2u
∂x2
+
∂2u
∂y2
− 10u = 0
definido no quadrado [−1, 1]× [−1, 1] com condic¸o˜es de fronteira dadas por:
i. u = 0 para y = 1 e −1 ≤ x ≤ 1;
ii. u = 1 para y = −1 e −1 ≤ x ≤ 1;
iii. ∂u∂x = −0.5u para x = 1 e −1 < y < 1;
iv. ∂u∂x = 0.5u para x = −1 e −1 < y < 1.
150 CAPI´TULO 4. EQUAC¸O˜ES ELI´PTICAS
Utilize uma malha uniforme com h = 0.1.
4.3 Considere o problema
uxx + uyy = 0
definido no domı´nio:
R = {(x, y), x2 + y2 ≤ 1, x ≥ 0, y ≥ 0}
que corresponde ao semi-c´ırculo superior de centro na origem e raio 1, com condic¸o˜es de
fronteira:
u(x, 0) = 0, −1 ≤ x ≤ 1, u(x, y) = 100, x2 + y2 = 1,
cuja soluc¸a˜o anal´ıtica em coordenadas polares e´:
u(r, θ) =
400
π
∞∑
n=1
1
2n− 1
( r
2
)2n−1
sen (2n− 1)θ.
Obter a discretizac¸a˜o desse problema em coordenadas polares com δr = 0.1, δθ = π/10. Usar
MATLAB para resolver o sistema linear resultante.
4.4 Como ja´ mencionado va´rias vezes, a fo´rmula de 5 pontos e´ de ordem O(h2). Se
porventura necessitarmos de uma fo´rmula mais precisa para discretizar a equac¸a˜o de Laplace,
devemos utilizar mais pontos. Mostre que uma fo´rmula de ordem O(h4) pode ser obtida
utilizando-se os pontos da mole´cula da figura 4.11 e e´ dada por:
U0 =
1
60
(−U7 + 16U3 + 16U1 − U5 − U6 + 16U2 + 16U4 − U8) .
1 5
2
37
6
4
8
0
Figura 4.11: Mole´cula de ca´lculo para a fo´rmula de O(h4)
No entanto essa fo´rmula na˜o pode ser aplicada para pontos pro´ximos a` fronteira, pois
ela utiliza dois pontos em cada direc¸a˜o. Poder-se-ia utilizar a mole´cula de ca´lculo da figura
4.12 para deduzir o esquema nume´rico (4.65), que tambe´m e´ de ordem O(h4).
4.10. EXERCI´CIOS 151
0 13
7 4
526
8
Figura 4.12: Mole´cula de ca´lculo para a fo´rmula de O(h4) utilizando um ponto em
cada direc¸a˜o
U0 =
1
20
(4(U1 + U2 + U3 + U4) + U5 + U6 + U7 + U8) . (4.65)
Mostre que no caso da equac¸a˜o de Poisson o esquema (4.65) transforma-se em:
4 (U1 + U2 + U3 + U4) + U5 + U6 + U7 + U8 − 20U0 = −h
2
2
(8f0 + f1 + f2 + f3 + f4) .
Calcule o ETL em todos os casos.
4.5 Considere a numerac¸a˜o como na figura 4.13
x
y
1
3
4
5
6
9
1020 24 13
16 21 11 25
2 17 7 22 12
14 18 8 23
15 19
Figura 4.13: Numerac¸a˜o “red–black” diagonal
Obtenha a matriz do sistema linear resultante. Generalize esse resultado para uma malha
com N pontos na direc¸a˜o x e M pontos na direc¸a˜o y.
152 CAPI´TULO 4. EQUAC¸O˜ES ELI´PTICAS
Repita esse exerc´ıcio para a numerac¸a˜o “red–black” da figura 4.14
x
y
1
13
7
2
6
5
9 10
11 12
16
20
21 22 23
24 25
19 8
18174
14 15 3
Figura 4.14: Numerac¸a˜o “red–black” horizontal
4.6 A equac¸a˜o biharmoˆnica e´ dada por:
∆∆u = uxxxx + 2uxxyy + uyyyy = f(x, y).
Aproximando o operador ∆∆u por:
∆∆u ≈ α0U0 + α1
4∑
i=1
Ui + α2
8∑
i=5
Ui + α3
12∑
i=9
Ui
numa malha uniformente espac¸ada de h, obtenha valores para os paraˆmetros α0, α1, α2 e α3
tal que a fo´rmula tenha ordem O(h2). Deduza a fo´rmula do ETL. A mole´cula computacional
e´ dada na figura 4.15.4.7 Considere o problema el´ıptico:
∂
∂x
(
a(x, y)
∂u
∂x
)
+
∂
∂y
(
b(x, y)
∂u
∂y
)
= f(x, y)
com condic¸a˜o de Dirichlet sobre a fronteira de um retaˆngulo. Mostre que a matriz resultante
da discretizac¸a˜o de 5 pontos e´ sime´trica.
4.8 Mostre que
∆δV±(x, y) = ±∆δV (x, y) +N0 ≥ 0.
4.9 Obtenha os demais elementos do vetor r do exemplo (4.4.1) e escreva detalhadamente
a matriz A.
4.10. EXERCI´CIOS 153
0 1 911 3
7 4 8
6 2 5
10
x
y
12
Figura 4.15: Mole´cula de ca´lculo para a equac¸a˜o biharmoˆnica
4.10 Mostre que a discretizac¸a˜o de 5 pontos da equac¸a˜o de Poisson para a mole´cula da
figura 4.16 e´ dada por:
α0U0 + α1U1 + α2U2 + α3U3 + α4U4 = f0
onde os coeficientes α sa˜o calculados de:
α0 = −2
(
1
h1h3
+
1
h2h4
)
; α1 =
2
h1(h1 + h3)
; α2 =
2
h2(h2 + h4)
;
α3 =
2
h3(h1 + h3)
; α4 =
2
h4(h2 + h4)
;
h 1
0 1
2
3
4
h
h
h
2
3
4
Figura 4.16: Mole´cula de ca´lculo para a dicretizac¸a˜o de 5 pontos numa malha na˜o
uniformemente espac¸ada
154 CAPI´TULO 4. EQUAC¸O˜ES ELI´PTICAS
Calcule o erro de truncamento local e determine a ordem de consisteˆncia dessa dis-
cretizac¸a˜o. Mostre que quando h1 = h3 = h e h2 = h4 = k essa discretizac¸a˜o e´ de ordem
O(h2 + k2). Explique como essa mole´cula pode ser utilizada para discretizar a equac¸a˜o de
Poisson num domı´nio geral.
4.11 Utilizar a te´cnica derivada no exerc´ıcio anterior para aproximar a soluc¸a˜o do problema
do exerc´ıcio (4.3) na malha da figura 4.17.
u=100
u=0
Figura 4.17: Malha para um domı´nio semi–circular
Utilizar MATLAB na soluc¸a˜o do sistema linear.
4.12 Considere o caso 4 × 4 da matriz Ah de (4.49). Utilizando MATLAB calcule os
autovalores de Ah. Resolva agora o sistema linear resultante pelo me´todo de Jacobi, tambe´m
utilizando MATLAB e confirme que a taxa de convergeˆncia desse me´todo e´ cerca de 0.5.
Repita esse mesmo exerc´ıcio para Gauss-Seidel.
4.13 Lembrando que a matriz de iterac¸a˜o do me´todo SOR e´:
Gw = (D + wL)
−1[(1− w)D − wS]
e lembrando que o determinante de uma matriz triangular e´ o produto dos seus elementos
diagonais, mostre que det(Gw) = (1 − w)n, onde n e´ a dimensa˜o do problema. Utilizando
agora que det(Gw) = λ1λ2 . . . λn onde λi e´ um autovalor de Gw, mostre que:
λ(Gw) ≥ |1− w|.
Conclua que o me´todo SOR so´ pode ser u´til na pra´tica se 0 < w < 2.
4.14 Mostre que (4.52) e´ um autovalor da matriz Ah definida em (4.49) com autovetor
dado por (4.51).
Sugesta˜o: Discretizando o problema:
uxx + uyy = αu
definido no retaˆngulo [0, a]× [0, b] com condic¸a˜o de fronteira de Dirichlet nula na fronteira,
por diferenc¸as finitas de 5 pontos obtemos o problema:
Ui+1,j + Ui−1,j + Ui,j+1 + Ui,j−1 + (β − 4)Ui,j = 0; β = h2α,
4.10. EXERCI´CIOS 155
com condic¸o˜es de fronteira U0,j = UN,j = Ui,0 = Ui,M = 0, cuja soluc¸a˜o pode ser obtida por
separac¸a˜o de varia´veis e e´ dada por:
Ui,j = sen (α1i) sen (α2j)
com β = 4− 2(cos(α1) + cos(α2)) e α1 = pπN , α2 = qπM , p e q inteiros.
Portanto para cada par de inteiros p e q teremos (N −1)× (M −1) autovalores distintos:
βp,q = 4− 2
(
cos(
pπ
N
) + cos(
qπ
M
)
)
.
Conclua o exerc´ıcio utilizando identidades trigonome´ticas. Note que (4.52) corresponde ao
caso a = b = 1.
4.15 Prove que para matrizes 2 × 2 Gauss-Seidel e´ convergente se e somente se Jacobi
tambe´m o e´.
4.16 Mostre que o me´todo de Jacobi na˜o e´ convergente para qualquer valor de a que faz a
matriz abaixo definida positiva.
A =

 1
√
2
2 a√
2
2 1
√
2
2
a
√
2
2 1

 .
O que poderia ser afirmado sobre o me´todo de Gauss-Seidel?
Ja´ para a matriz
A =
(
1 2 4
1
8 1 1−1 4 1
)
ocorre o contra´rio, o me´todo de Jacobi e´ convergente enquanto que o de Gauss-Seidel na˜o
e´. Prove esse fato.
4.17 Utilizar MATLAB para desenhar o gra´fico de λ(Gw) como func¸a˜o de w no intervalo
[1, 2] para o caso em que (λJ11)
2 = 0.95.
Sugesta˜o: Para cada valor de w resolver a equac¸a˜o (4.56) plotando o maior mo´dulo das
ra´ızes.
4.18 Demonstre o teorema (4.5). Sugesta˜o: Consulte [Shewchuck 1994] pa´ginas 24-25.
4.19 Mostre que os nu´meros βi,k definidos em (4.64) satisfazem:
βi,j =
{
rTi ri
αi−1pTi−1Api−1
, i = j + 1,
0, i > j + 1.
Sugesta˜o: Consulte [Shewchuck 1994] pa´ginas 30-31.
4.20 Programar em MATLAB o algoritmo do gradiente conjugado.
156 CAPI´TULO 4. EQUAC¸O˜ES ELI´PTICAS
4.21 Mostre que o nu´mero k de iterac¸o˜es necessa´rio para reduzir a norma do erro de um
valor ǫ, isto e´, ||ek|| < ǫ||e0|| satisfaz:
k ≤ 1
2
√
κ(A) ln
(
2
ǫ
)
.
Sugesta˜o: Utilize o teorema 4.6.
4.22 No caso do me´todo CG com pre´-condicionamento, uma dificuldade e´ que a matriz
M−1A pode na˜o ser nem sime´trica nem definida positiva, mesmo M−1 e A sendo. Mostre
que existe uma matriz E tal que M = ETE, e portanto o sistema Ax = b pode ser transfor-
mado em E−1AE−T xˆ = E−1b, onde xˆ = ETx. Mostre que a matriz E−1AE−T e´ sime´trica
e definida positiva, sendo portanto poss´ıvel a utilizac¸a˜o do me´todo CG para obter sua soluc¸a˜o.
Deduza o algoritmo CG para os sistema transformado. A obtenc¸a˜o da matriz E apesar de
poss´ıvel e´ um processo caro que devemos evitar. Fazendo uma mudanc¸a de varia´veis conve-
niente no me´todo CG que voceˆ obteve, derive um novo algoritmo CG que na˜o dependa da
matriz E.
4.23 Aplicando o teorema 4.6 para a matriz Ah definida em (4.49) calcule a velocidade de
convergeˆncia do me´todo GC em func¸a˜o do paraˆmetro h.
Cap´ıtulo 5
Equac¸o˜es Hiperbo´licas
5.1 Introduc¸a˜o
Ao contra´rio das equac¸o˜es parabo´licas, onde, em geral, a soluc¸a˜o e´ mais suave do que os
dados do problema, nas equac¸o˜es hiperbo´licas, as descontinuidades sa˜o transportadas sem
suavizac¸a˜o, podendo haver tambe´m a formac¸a˜o de singularidades (choques) mesmo no caso
de dados iniciais bem comportados.
Os modelos mais simples para o estudo das equac¸o˜es hiperbo´licas sa˜o a equac¸a˜o de
advecc¸a˜o ut+ aux = 0, a equac¸a˜o escalar conservativa ut+(f(u))x = 0 e a equac¸a˜o da onda
utt − a2uxx = 0.
Nesta introduc¸a˜o vamos abordar alguns aspectos anal´ıticos desse tipo de equac¸a˜o, que
causam dificuldades significativas no seu tratamento nume´rico. O problema de valor inicial,
ou problema de Cauchy, para tais equac¸o˜es consiste em encontrar uma func¸a˜o u(x, t) no semi
planoD = {(x, t)/t ≥ 0,−∞ < x <∞}, que satisfac¸a a equac¸a˜o, juntamente com a condic¸a˜o
inicial. Em geral, a soluc¸a˜o no sentido cla´ssico e´ cont´ınua e suficientemente diferencia´vel, mas
isto nem sempre acontece. Torna-se imprescind´ıvel que o espac¸o de soluc¸o˜es seja ampliado
para que, por exemplo, soluc¸o˜es cla´ssicas por partes sejam poss´ıveis; dizemos que essas
soluc¸o˜es existem no sentido fraco ou sa˜o soluc¸o˜es fracas. Um tratamento anal´ıtico, nesse
caso, envolve soluc¸o˜es no sentido de distribuic¸o˜es, que esta´ ale´m do escopo deste livro.
Para o leitor interessado em maiores detalhes sobre o to´pico de soluc¸o˜es no sentido de
distribuic¸o˜es, recomendamos a leitura de [Cryer 1983], [Debnath 1990] ou [Taylor 1996].
Vamos inicialmente tentar entender detalhadamente va´rios aspectos da equac¸a˜o escalar de
advecc¸a˜o para em seguida analisar a equac¸a˜o da onda e tambe´m sistemas de equac¸o˜es.
5.1.1 Equac¸a˜o escalar de advecc¸a˜o
Seja, para u(x, t) a equac¸a˜o de primeira ordem:
ut + aux = 0, em D
u(x, 0) = u0(x), ∀x. (5.1)
157
158 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
Soluc¸a˜o Cla´ssica
A deduc¸a˜o da soluc¸a˜o para a equac¸a˜o (5.1) pode ser estabelecida, considerando uma
transformac¸a˜o linear x = x(s) e t = t(s). Portanto u(x, t) = u(x(s), t(s)). A transformac¸a˜o
mais simples que podemos tentar e´: x(s) = x + c1s e t(s) = t + c2s, onde c1 e c2 sa˜o
constantes a serem determinadas.Diferenciando u(x(s), t(s)) com relac¸a˜o ao paraˆmetro s
obtemos:
du
ds
= ut
dt
ds
+ ux
dx
ds
.
Esta expressa˜o transforma-se na equac¸a˜o (5.1) quando
dx
ds
= a e
dt
ds
= 1, ou seja, c1 = a e
c2 = 1 e portanto x(s) = x+ as e t(s) = t+ s. Ale´m disso
du
ds
= ut + aux.
Como duds = 0 em D, conforme a equac¸a˜o (5.1), temos que u e´ constante em relac¸a˜o a s.
Substituindo s = −t em u(x(s), t(s)) = u(x+ as, t+ s), obtemos u(x− at, 0) que usando a
condic¸a˜o inicial fornece u(x− at, 0) = u0(x− at). Portanto, como u e´ constante em relac¸a˜o
a s e vale u0(x− at) para qualquer s, obtemos em s = 0 u(x(0), t(0)) = u(x, t) = u0(x− at)
e claramente,
u(x, t) = u0(x− at)
e´ soluc¸a˜o da equac¸a˜o (5.1).
Podemos dizer que a soluc¸a˜o foi determinada a partir de
dx
dt
= a (5.2)
que define as caracter´ısticas da equac¸a˜o (5.1).
Exemplo 5.1.1 Consideremos a equac¸a˜o:
ut + tux = 3 (5.3)
onde a condic¸a˜o inicial e´ dada sobre o eixo x. As caracter´ısticas de (5.3) sa˜o as soluc¸o˜es
da equac¸a˜o diferencial ordina´ria:
dx
dt
= t,
que sa˜o dadas pela famı´lia de curvas (para´bolas)
x =
t2
2
+A
onde o paraˆmetro A e´ uma constante possivelmente distinta para cada caracter´ıstica. Para
a caracter´ıstica passando por (x0, 0) temos A = x0 e portanto a curva e´ definida por t
2 =
2(x− x0).
5.1. INTRODUC¸A˜O 159
00u=3t+u (x )
t
xx0
Figura 5.1: Curvas caracter´ısticas para a equac¸a˜o (5.3)
A soluc¸a˜o ao longo de uma caracter´ıstica gene´rica e´ dada por:
du
dt
= 3.
Resolvendo encontramos u = 3t + B e usando agora a condic¸a˜o inicial para t = 0 temos
B = u0(x0) e portanto u = 3t+ u0(x0) ao longo dessa caracter´ıstica. A figura 5.1 ilustra as
caracter´ısticas de (5.3). Considerando a condic¸a˜o inicial
u(x, 0) =


6, x < 8
x− 2, 8 ≤ x < 12
22− x, 12 ≤ x < 18
4, x ≥ 18
,
sabendo que a soluc¸a˜o exata e´ u(x, t) = 3t+B e que as curvas caracter´ısticas sa˜o dadas por
x = t2/2 +A temos, para um x0 fixado, os seguintes valores para as constantes A e B:
• A = x0, ∀x0
• B = 6 se x0 < 8; B = x0 − 2 se 8 ≤ x < 12; B = 22− x0 se 12 ≤ x < 18 e B = 4 se
x0 ≥ 18.
Portanto, ao longo da caracter´ıstica partindo de x0 a soluc¸a˜o e´ dada por:
u(x, t) =


3t+ 6, x < 8
3t+ x0 − 2, 8 ≤ x < 12
3t+ 22− x0, 12 ≤ x < 18
3t+ 4, x ≥ 18
,
Como a caracter´ıstica e´ determinada por x = t2/2 + x0 obtemos, por substituic¸a˜o , a
soluc¸a˜o geral 

3t+ 6, x < 8 + t
2
2
3t− t22 + x− 2, 8 + t
2
2 ≤ x < 12 + t
2
2
3t+ 22− x+ t22 , 12 + t
2
2 ≤ x < 18 + t
2
2
3t+ 4, x ≥ 18 + t22
,
160 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
que pode ser visualizada nas figuras 5.2 e 5.3
0
5
10
15
20
25
30
0
1
2
3
4
5
6
0
5
10
15
20
25
30
xt
U(
x,t
)
Figura 5.2: Soluc¸a˜o exata
0 5 10 15 20 25 30
0
1
2
3
4
5
6
7
Características da Equação
x
t
0 5 10 15 20 25 30
0
5
10
15
20
25
Perfil da Solução
x
U
Figura 5.3: Caracter´ısticas e perf´ıs da soluc¸a˜o
5.1. INTRODUC¸A˜O 161
Caracter´ısticas e Formac¸a˜o de Singularidades
Observando a expressa˜o da soluc¸a˜o u(x, t) = u0(x − at), constatamos que em qualquer
ponto (x, t) a soluc¸a˜o e´ completamente determinada por seu valor no ponto iniciall (x0, 0),
ou seja u0(x0). Dizemos que o valor inicial foi transportado domı´nio adentro por meio de
x− at = x0. Em outras palavras, a soluc¸a˜o e´ constru´ıda por esse transporte.
No caso da equac¸a˜o (5.1), a soluc¸a˜o u(x, t) e´ constante ao longo de cada curva x−at = x0,
pois dudt = 0. De fato:
du(x(t), t)
dt
= ut +
dx
dt
ux = ut + aux = 0.
Essas curvas sa˜o as caracter´ısticas, uma vez que dxdt = a.
Note que se a e´ constante, enta˜o as caracter´ısticas sa˜o retas paralelas; se a depende
apenas de u, isto e´, a = a(u), as caracter´ısticas ainda sera˜o retas, mas na˜o necessariamente
paralelas, podendo interceptar-se umas a`s outras. Mesmo no caso mais simples da equac¸a˜o
(5.1), onde u e´ uma constante, possivelmente distinta, ao longo de cada curva caracter´ıstica,
na intersec¸a˜o de duas dessas curvas o valor de u na˜o estara´ unicamente definido, ou seja
teremos nesse ponto uma singularidade. Por outro lado, se a na˜o depende de u mas de
x e/ou t, as caracter´ısticas na˜o mais sera˜o retas, mas na˜o havera´ cruzamentos se a(x, t) e´
t-Lipschitz. No caso mais geral, a = a(x, t, u) as caracter´ısticas na˜o sera˜o retas e novamente
e´ poss´ıvel ocorrer singularidades. A figura 5.4 ilustra esses casos.
x
t
a > 0 x
t
a=a(x,t)=t
t
xa=a(u)
t
xa=a(u)
Figura 5.4: Diferentes tipos de caracter´ısticas para a equac¸a˜o (5.1)
Observac¸a˜o 5.1.1 Como vimos, uma equac¸a˜o hiperbo´lica na˜o esta´ completamente estab-
elecida sem as condic¸o˜es iniciais. As caracter´ısticas “transportam” a informac¸a˜o inicial
162 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
Γ
T
Q
P
Figura 5.5: Ilustrac¸a˜o de uma curva inicial tangente a`s curvas caracter´ısticas
dada sobre a curva Γ(x(s), t(s)) domı´nio adentro construindo a soluc¸a˜o. No caso de Γ ser
ela mesma uma caracter´ıstica, a equac¸a˜o faz com que um valor u(s) seja transportado ao
longo de Γ. Portanto, os valores iniciais sobre Γ devem ser compat´ıveis com a equac¸a˜o, e
nesse caso o domı´nio de existeˆncia da soluc¸a˜o e´ formado apenas pela curva inicial.
Observac¸a˜o 5.1.2 Mesmo no caso de Γ ser suave, algum cuidado e´ necessa´rio pois po-
dem ocorrer incompatibilidades. Por exemplo, na figura 5.5, o valor inicial em Q deve ser
compat´ıvel com aquele transportado a partir de P. Esse problema ocorre porque a curva Γ
tornou-se tangente a`s caracter´ısticas no ponto T . A partir do ponto de tangeˆncia a curva Γ
deveria ser considerada uma curva de fronteira e na˜o uma curva inicial. Sem muito rigor,
uma curva inicial e´ aquela da qual partem as curvas caracter´ısticas, enquanto uma curva de
fronteira e´ aquela para a qual as caracter´ısticas afluem.
Observac¸a˜o 5.1.3 Para equac¸o˜es mais gerais
ut + aux + bu = d
as caracter´ısticas sa˜o dadas por dxdt = a e u e´ determinado por
du
dt = d− bu. Enta˜o se a na˜o
depende de u e: a condic¸a˜o inicial, a, b, e d sa˜o suficientemente suaves, a soluc¸a˜o sempre
existira´ no sentido cla´ssico.
Observac¸a˜o 5.1.4 Nem sempre duas equac¸o˜es com o mesmo conjunto de caracter´ısticas
teˆm a mesma soluc¸a˜o, pois se prescrevermos valores iniciais distintos a cada uma delas, o
valor transportado ao longo de cada caracter´ıstica sera´ distinto.
Observac¸a˜o 5.1.5 Na pra´tica, existe sempre uma restric¸a˜o no domı´nio, de maneira que,
ale´m de se especificar valores iniciais sobre Γ, tambe´m sa˜o estabelecidos dados de fronteira
sobre uma curva Ω. Em alguns casos a fronteira Ω desempenha um papel semelhante a`quele
da curva de condic¸a˜o inicial Γ (caso (a) da figura 5.6, onde as curvas caracter´ısticas partem
da curva Ω), em outros e´ preciso compatibilidade (caso (b) da figura 5.6 onde as curvas
caracter´ısticas chegam na curva Ω trazendo informac¸o˜es da condic¸a˜o inicial).
E´ poss´ıvel tambe´m a formac¸a˜o de singularidades, dependendo dos valores especificados
na fronteira; casos (a) e (b) da figura 5.7.
5.1. INTRODUC¸A˜O 163
x(a)Γ
t
(b)Γx
t
Ω
Ω
Figura 5.6: Condic¸o˜es iniciais e de fronteira
x xΓ
?
Γ
t
Ω
t Ω
(b)(a)
Figura 5.7: Formac¸a˜o de singularidades
Exemplo 5.1.2 Consideremos o problema
ut + ux = 1
u(0, t) = 0
u(x, 0) =
{
0, 0 ≤ x < 3
x− 3, x ≥ 3.
(5.4)
As caracter´ısticas sa˜o retas paralelas dx = dt, ou seja x = t+A como no caso (a) da figura
5.6. Enta˜o t = x + x0 e t = x + t0 sa˜o as caracter´ısticas passando pelos pontos (x0, 0)
e (0, t0) respectivamente. A soluc¸a˜o ao longo de cada caracter´ıstica partindo do eixox e´
u = t + B1 e do eixo t e´ u = x + B2. Assim, utilizando as condic¸o˜es iniciais, (verifique)
u = x sobre as caracter´ısticas partindo do eixo t; u = t sobre as caracter´ısticas partindo do
intervalo 0 ≤ x < 3 e u = x − 3 sobre as caracter´ısticas partindo do eixo x, com x ≥ 3.
Na expressa˜o da soluc¸a˜o ao longo das caracter´ısticas, podemos substituir os valores de x e t
para obter a soluc¸a˜o geral u(x, t).
Temos enta˜o, considerando a condic¸a˜o inicial para t = 0,
u(x, t) =
{
t, t ≤ x < 3 + t
x− 3, x ≥ 3 + t ,
164 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
0
5
10
15
0
5
10
15
0
2
4
6
8
10
12
14
16
xt
Figura 5.8: Soluc¸a˜o exata do problema (5.4)
e tambe´m, partindo da condic¸a˜o de “contorno” (x = 0), u(x, t) = x, t > x, podemos escrever
a expressa˜o da soluc¸a˜o como:
u(x, t) =
{
x, x < t
t, t ≤ x < 3 + t
x− 3, x ≥ 3 + t
,
que pode ser visulaizada na figura 5.8.
Observe na figura 5.8 que esta´ havendo propagac¸a˜o de descontinuidade de contacto ao
longo das caracter´ısticas pontilhadas, conforme figura 5.9. Apesar da condic¸a˜o inicial ser
cont´ınua em (0, 0) houve formac¸a˜o de descontinuidade na derivada devido a` uma mudanc¸a
brusca em Γ.
Me´todo das Caracter´ısticas
Como vimos, as equac¸o˜es hiperbo´licas se tornam substancialmente mais simples se as car-
acter´ısticas forem utilizadas como um sistema natural de coordenadas. Um me´todo nume´rico
para aproximac¸a˜o da soluc¸a˜o de uma equac¸a˜o hiperbo´lica sugerido por esse sistema de co-
ordenadas e´ o chamado me´todo das caracter´ısticas, pelo qual se faz a discretizac¸a˜o e ca´lculo
da soluc¸a˜o ao longo das caracter´ısticas.
Em linhas gerais, e´ feita a discretizac¸a˜o da condic¸a˜o inicial e a partir dela integra-se
a equac¸a˜o da caracter´ıstica usando me´todos de soluc¸a˜o nume´rica de equac¸o˜es ordina´rias.
Frequentemente o me´todo de Euler ou um me´todo de Runge-Kutta e´ utilizado.
Uma abordagem mais sistema´tica fixa um espac¸amento k em t como ilustrado na figura
5.10, e calcula a posic¸a˜o da curva caracter´ıstica e uma aproximac¸a˜o para a soluc¸a˜o em cada
um dos n´ıveis. Para ilustrar o me´todo das caracter´ısticas vamos considerar a equac¸a˜o escalar
5.1. INTRODUC¸A˜O 165
0
5
10
15
0
5
10
15
0
2
4
6
8
10
12
14
16
18
xt
Figura 5.9: Caracter´ısticas e perf´ıs da soluc¸a˜o
t
xP
R
Q
Figura 5.10: Me´todo das caracter´ısticas com discretizac¸a˜o temporal
but + aux = r.
Supondo, como ja´ feito anteriormente, que x, t e u sa˜o func¸o˜es de um paraˆmetro s e difer-
enciando a equac¸a˜o acima com relac¸a˜o a esse paraˆmetro obtemos:
du
ds
= ut
dt
ds
+ ux
dx
ds
.
Assim, uma escolha natural para a parametrizac¸a˜o e´ aquela que satisfaz:
dx
ds
= a,
dt
ds
= b,
du
ds
= r,
que definem as equac¸o˜es caracter´ısticas para a equac¸a˜o original. Claramente foi consider-
ada a regularidade da soluc¸a˜o; no caso de descontinuidades um tratamento especial se faz
166 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
necessa´rio para utilizar-se o me´todo das caracter´ısticas. E´ portanto poss´ıvel obter aprox-
imac¸o˜es da soluc¸a˜o ao longo das caracter´ısticas usando o devido deslocamento (vide figura
5.10) fazendo:
xQ − xP
δs
= aP ,
tQ − tP
δs
= bP ,
uQ − uP
δs
= rP . (5.5)
Enta˜o, fixando tQ = tP + k, podemos eliminar δs para obter:
xQ = xP +
aP
bP
(tQ − tP ) = xP + σaP , uQ = uP + rP
bP
(tQ − tP ) = up + σrP ,
onde
σ =
tQ − tP
bP
=
k
bP
.
Note que as aproximac¸o˜es em (5.5) foram deduzidas pela discretizac¸a˜o das equac¸o˜es
originais pelo me´todo de Euler. Um melhor resultado, especialmente quando a, b ou r sa˜o
func¸o˜es de (x, t, u), poderia ser obtido utilizando-se a regra dos trape´zios que resulta em:
xQ − xP
δs
=
1
2
(aP + aQ),
tQ − tP
δs
=
1
2
(bP + bQ),
uQ − uP
δs
=
1
2
(rP + rQ). (5.6)
As equac¸o˜es (5.5) e (5.6) podem enta˜o ser utilizadas como um par previsor-corretor, com
(5.5) atuando como o previsor e (5.6) atuando como o corretor. Podemos levar essa ide´ia
um passo adiante e construir um me´todo iterativo conforme o que segue.
Calculamos uma primeira aproximac¸a˜o de
x
(0)
Q − xP
δs
= aP ,
t
(0)
Q − tP
δs
= bP ,
u
(0)
Q − uP
δs
= rP
e para m = 0, 1, . . . corrigimos esse valor utilizando,
x
(m+1)
Q − xP
δs
=
1
2
(aP+a
(m)
Q ),
t
(m+1)
Q − tP
δs
=
1
2
(bP+b
(m)
Q ),
u
(m+1)
Q − uP
δs
=
1
2
(rP+r
(m)
Q ).
E´ poss´ıvel tambe´m o ca´lculo de xQ e uQ na equac¸a˜o (5.6), tendo eliminado δs usando σ,
apo´s a aproximac¸a˜o de tQ pelo me´todo de Euler.
No caso de uma equac¸a˜o na˜o linear, por exemplo se a = a(x, t, u), o sistema de equac¸o˜es
resultantes similar a (5.6) torna-se na˜o linear. O caso de singularidades ou de descon-
tinuidade nos dados devem ser tratados de maneira espec´ıfica.
O leitor e´ incentivado a resolver os dois exemplos anteriores pelo me´todo das carac-
ter´ısticas, conforme exerc´ıcio (5.1).
Domı´nios de Dependeˆncia e Influeˆncia
Considerando a equac¸a˜o de advecc¸a˜o podemos dizer que cada ponto P da curva ini-
cial influencia a soluc¸a˜o em todos os pontos sobre a caracter´ıstica passando por P (regia˜o
5.1. INTRODUC¸A˜O 167
Q
P
x
Γ
Região de dependência
Região de influência
Figura 5.11: Regio˜es de influeˆncia e dependeˆncia
de influeˆncia) e, a soluc¸a˜o em cada ponto Q do domı´nio so´ depende dos pontos sobre a
caracter´ıstica que vai dele ate´ a condic¸a˜o inicial (regia˜o de dependeˆncia). Veja figura 5.11.
Quando, ha´ descontinuidades nos dados, elas sera˜o transportadas sem suavizac¸a˜o ao
longo das caracter´ısticas, sendo isto uma das principais propriedades das equac¸o˜es hiperbo´licas
e que traz dificuldades adicionais do ponto de vista do tratamento nume´rico. As descon-
tinuidades ao longo das caracter´ısticas sa˜o denominadas descontinuidades de contato quando
referem-se a descontinuidades nos dados, isto e´, a condic¸a˜o inicial e´ dada por uma func¸a˜o
cont´ınua mas com derivada descont´ınua, por exemplo.
u
x
1 2
u(x,t ) u(x,t )21
x+at x+at
Figura 5.12: Evoluc¸a˜o da soluc¸a˜o no tempo
Afim de melhor ilustrar os conceitos introduzidos nesta sec¸a˜o apresentamos alguns ex-
emplos gra´ficos. A figura 5.12 representa a evoluc¸a˜o de uma onda no tempo com velocidade
a constante, sem deformac¸a˜o do perfil. Para este mesmo caso em que a e´ constante, os
gra´ficos da figura 5.13 ilustram a ac¸a˜o da equac¸a˜o hiperbo´lica sobre um perfil inicial atrave´s
das caracter´ısticas. Apresentamos na figura 5.13 as soluc¸o˜es para diferentes casos de condic¸a˜o
inicial.
Soluc¸a˜o Fraca
Na˜o havendo regularidade na soluc¸a˜o, devido a` propagac¸a˜o de descontinuidades, e´ preciso
entender a soluc¸a˜o na˜o no sentido global imposto pelas derivadas (soluc¸a˜o cla´ssica), mas em
um sentido local e mais fraco. Por exemplo, admitir-se-ia uma soluc¸a˜o (soluc¸a˜o fraca) que
por partes seja cont´ınua e diferencia´vel. Quando soluc¸o˜es fracas sa˜o admitidas, o problema de
valor inicial pode apresentar uma multiplicidade de soluc¸o˜es (ver observac¸a˜o 5.1.7), sendo
168 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
a(t)=t
0
0
0
0
0
0
0
0
x
t
x
t
s=x−at
x
t
s=x−at
u (x−at)
x
t
s=x−at
u (x−at)
u (x)u (x)
u (x)
u (x−at)
u (x)
u (x−t )2
Figura 5.13: Propagac¸a˜o da condic¸a˜o inicial pelas caracter´ısticas
necessa´rias informac¸o˜es adicionais para a escolha da soluc¸a˜o mais adequada. Assim, um
crite´rio frequentemente adotado, para a escolha da soluc¸a˜o fraca e´ toma´-la como o limite
das soluc¸o˜es de uma sequeˆncia de problemas com condic¸o˜es iniciais cont´ınuas convergindo
pontualmente paraa condic¸a˜o inicial original. Outra alternativa e´ toma´-la como o limite
de uma regularizac¸a˜o da pro´pria equac¸a˜o. Esta regularizac¸a˜o pode ser obtida pela adic¸a˜o a`
equac¸a˜o hiperbo´lica original de um termo que a transforme em uma equac¸a˜o parabo´lica.
Regularizac¸a˜o dos Dados
Para exemplificar a primeira situac¸a˜o consideremos o seguinte problema, que e´ conhecido
na literatura como equac¸a˜o de Burgers na˜o viscosa:
ut + uux = 0
u(x, 0) =
{
0, x ≤ 0
1, x > 0.
(5.7)
O valor da soluc¸a˜o u(x, t) e´ constante ao longo de cada caracter´ıstica, uma vez que,
du
dt
=
du(x(t), t)
dt
= ut + uux = 0.
Desse fato e de (5.2) resulta que as caracter´ısticas sa˜o retas dadas por:
x(t) = u(x(t), t)t+ c2 = c1t+ c2
5.1. INTRODUC¸A˜O 169
Para t = 0, x(0) = x0 = c2 e como u e´ constante ao longo da caracter´ıstica x(t), seu valor e´
dado por u(x(0), 0) = u(x0, 0) = u0.
Assim x = u0t+x0 e´ a reta caracter´ıstica que passa por (x0, 0), cuja inclinac¸a˜o depende
do valor de u0 inicial. As caracter´ısticas, em geral sa˜o na˜o paralelas.
A condic¸a˜o inicial para o problema (5.7) e´ claramente descont´ınua em x = 0. Essa
condic¸a˜o inicial pode ser aproximada pela sequeˆncia de func¸o˜es cont´ınuas:
uǫ(x, 0) =
{
0, x ≤ 0
x/ǫ, 0 < x ≤ ǫ
1, x > ǫ.
u (x,0)ε
x
t
u(x,0)
(b)
ε x
t
(a)
u(x,t) u(x,t)
Figura 5.14: Condic¸o˜es iniciais cont´ınuas tendendo para descont´ınua e carac-
ter´ısticas
A figura 5.14-b representa a situac¸a˜o limite da figura 5.14-a quando ǫ→ 0. As soluc¸o˜es
dos problemas intermedia´rios sa˜o cont´ınuas e convergem para a soluc¸a˜o do problema original
(5.7), quando ǫ → 0, que nesse caso e´ tambe´m cont´ınua para t > 0. Essa situac¸a˜o surge
como consequeˆncia do valor da condic¸a˜o inicial para x ≤ 0 ser menor do que o valor para
x > 0, o que permite a variac¸a˜o cont´ınua das inclinac¸o˜es das caracter´ısticas na regia˜o da
descontinuidade. Como pode ser observado pela figura 5.14-b essa soluc¸a˜o representa uma
expansa˜o e por isso e´ comumente chamada na literatura de onda de rarefac¸a˜o.
Observac¸a˜o 5.1.6 Note que se
uǫ(x, 0) =
{
0, x ≤ −ǫ
(x+ ǫ)/ǫ, −ǫ < x ≤ 0
1, x > 0
o limite para ǫ → 0 produz a mesma soluc¸a˜o ilustrada na figura 5.14-b. O ideal seria
trabalharmos com um intervalo de comprimento ǫ centrado na origem ou seja:
uǫ(x, 0) =
{
0, x ≤ ǫ/2
(2x+ ǫ)/(2ǫ), −ǫ/2 < x ≤ ǫ/2
1, x > ǫ/2.
170 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
Verifique que no limite, ǫ→ 0, a soluc¸a˜o da equac¸a˜o (5.7) e´ dada por:
u(x, t) =
{
0, x ≤ 0
x/t, 0 < x ≤ t
1, x > t.
Observac¸a˜o 5.1.7 Os exerc´ıcios (5.6) e (5.7) mostram que soluc¸o˜es fracas na˜o sa˜o u´nicas
e pode-se obter diferentes soluc¸o˜es dependendo do procedimento utilizado para encontra´-las.
Na situac¸a˜o oposta,
ut + uux = 0
u(x, 0) =
{
1, x ≤ 0
0, x > 0
(5.8)
quando a condic¸a˜o inicial a` direita da descontinuidade tem valor menor que a` esquerda,
temos enta˜o a situac¸a˜o ilustrada na figura 5.15. Nesse caso para ǫ > 0 e condic¸a˜o inicial
uǫ(x, 0) como na figura 5.15(a), existe um tǫ onde as caracter´ısticas se interceptam dando
origem a` formac¸a˜o de uma descontinuidade ou choque.
u (x,0)ε
tε
x
t
(a) (b)
ε x
t
choque
u(x,0)
choque
Figura 5.15: Condic¸o˜es iniciais cont´ınuas tendendo para descont´ınua e carac-
ter´ısticas
A figura 5.16 detalha a soluc¸a˜o em perfis para diversos valores de t enfatizando a formac¸a˜o
do choque em t = tǫ.
O problema agora e´ determinar como e em que direc¸a˜o o choque se propaga. No caso
do modelo simples que estamos considerando, esse problema pode ser abordado da seguinte
maneira.
A soluc¸a˜o cla´ssica do problema (5.8), com condic¸a˜o inicial uǫ(x, 0), existe somente para
t < tǫ. No ponto t = tǫ a soluc¸a˜o tem uma descontinuidade do mesmo tipo que a condic¸a˜o
inicial original, situada na posic¸a˜o x = ǫ, e portanto podemos considerar o mesmo problema
com a mesma condic¸a˜o inicial transladada para o ponto (ǫ, tǫ), isto e´ o problema:
ut + uux = 0
u(x, tǫ) =
{
1, x ≤ ǫ
0, x > ǫ.
(5.9)
5.1. INTRODUC¸A˜O 171
ε
tε tε
t 1
t 2
t3
t
x
u(x,0)
u(x, )
u(x, )
u(x, )
u(x, )
Figura 5.16: Perfis da soluc¸a˜o para valores de t
Regularizando a condic¸a˜o inicial do problema (5.9) obtemos uma nova soluc¸a˜o cla´ssica
que existe ate´ t = 2tǫ. Analogamente, um novo problema poderia ser considerado com
condic¸a˜o inicial:
u(x, 2tǫ) =
{
1, x ≤ 2ǫ
0, x > 2ǫ.
Esse processo poderia enta˜o ser repetido para 3tǫ, 4tǫ, · · ·, produzindo uma sequeˆncia de
problemas cujas soluc¸o˜es cla´ssicas existem ate´ t = 3tǫ, t = 4tǫ, etc. A figura 5.17 e´ uma
tentativa de ilustrar esse processo.
tε
u (x,0)ε1
2
ε
2ε
x
ttε
uε2 (x,t )ε
Figura 5.17: Localizac¸a˜o aparente do choque numa posic¸a˜o inclinada
A discussa˜o acima foi apresentada com o objetivo de ilustrar a composic¸a˜o dos efeitos
da na˜o-linearidade da equac¸a˜o, com a descontinuidade da condic¸a˜o inicial, na formac¸a˜o do
choque. Observamos que, a primeira vista, parece que a contribuic¸a˜o da condic¸a˜o inicial
para a formac¸a˜o do choque vem somente dos valores a` direita da descontinuidade. Note que
as caracter´ısticas emanando da condic¸a˜o inicial a` esquerda da descontinuidade permanecem
172 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
paralelas em todo o domı´nio, enquanto que aquelas emanando da condic¸a˜o inicial a` direita
da descontinuidade interceptam-se sobre a caracter´ıstica passando pelo ponto de descon-
tinuidade.
O mesmo desenvolvimento pode ser feito considerando-se a condic¸a˜o inicial:
uǫ(x, 0) =
{
1, x ≤ −ǫ
−x/ǫ, −ǫ < x ≤ 0
0, x > 0
e obtemos a figura 5.18.
tε
uε1(x,0)
2
t
−ε
−ε
tε
x
uε2(x,t )ε
Figura 5.18: Localizac¸a˜o aparente do choque na vertical
Sugerimos que o leitor resolva o exerc´ıcio (5.8), para convencer-se de que a soluc¸a˜o do
problema e´ de fato a apresentada na figura 5.18.
Se observarmos atentamente a figura 5.18, notamos que ela ilustra uma situac¸a˜o oposta
a`quela da figura 5.17, no que diz respeito ao papel desempenhado pela condic¸a˜o inicial na
formac¸a˜o do choque. Agora sa˜o as caracter´ısticas a` direita da descontinuidade que per-
manecem paralelas, enquanto aquelas a` esquerda interceptam-se para formar o choque.
Na passagem ao limite com ǫ → 0, a figura 5.17 da´ a ilusa˜o de que o choque esta´
localizado sobre a caracter´ıstica inclinada passando pela descontinuidade, enquanto que a
figura 5.18 sugere que este mesmo choque deveria estar localizado sobre a caracter´ıstica
vertical passando pela mesma descontinuidade. No entanto, nenhuma dessas duas situac¸o˜es
correspondem a` verdadeira localizac¸a˜o do choque que esta´, na realidade, situado entre elas.
Essa configurac¸a˜o intuitiva pode ser obtida pelo processo de passagem ao limite na sequeˆncia
de problemas obtidos da regularizac¸a˜o centralizada na descontinuidade, isto e´, considerando
a sequeˆncia de problemas
ut + uux = 0
uǫ(x, 0) =
{
1, x ≤ −ǫ/2
(ǫ− 2x)/(2ǫ), −ǫ/2 < x ≤ ǫ/2
0, x > ǫ/2.
(5.10)
A repetic¸a˜o do argumento utilizado para produzir a figura 5.17 leva-nos a` figura 5.19,
que ilustra o choque produzido pela soluc¸a˜o da sequeˆncia de problemas (5.10).
5.1. INTRODUC¸A˜O 173
tε
x
2
t
ε
−ε/2 ε/2
tε
ε
1u (x,0)
u (x,t )ε2 ε
Figura 5.19: Localizac¸a˜o real do choque
A figura 5.19 sugere que o choque deve estar localizado na me´dia daquelas posic¸o˜es
indicadas pelas figuras 5.17 e 5.18, ou em outras palavras, a condic¸a˜o inicial em cada lado
da descontinuidade participa igualmente na formac¸a˜o do choque.
Como pode-se observar nos pontos tǫ, 2tǫ, 3tǫ, . . . esta´ havendo a intersecc¸a˜o das carac-
ter´ısticas a` esquerda e a` direita da descontinuidade. Assim para ǫ→ 0, em todos os pontosdo choque devemos ter cruzamento das caracter´ısticas que prove´m da condic¸a˜o inicial.
t
u(x,0)
u(x,t)
x
Figura 5.20: Caso limite mostrando a localizac¸a˜o final do choque
A figura 5.20 mostra a posic¸a˜o do choque; note como a soluc¸a˜o descont´ınua se propaga.
Observe que a soluc¸a˜o da equac¸a˜o (5.8) pode ser dada por:
u(x, t) =
{
1, x ≤ t/2
0, x > t/2.
A propriedade de que o choque deve ser determinado pelas condic¸o˜es iniciais e´ muito
importante porque fornece um crite´rio simples para escolha da soluc¸a˜o descont´ınua que
melhor representa a f´ısica do modelo.
174 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
Regularizac¸a˜o da Equac¸a˜o
Como ja´ mencionado no in´ıcio desta sec¸a˜o uma soluc¸a˜o fraca pode ser obtida pelo limite
de aproximac¸o˜es cont´ınuas dos dados iniciais, ou como um caso limite de regularizac¸a˜o da
pro´pria equac¸a˜o pela adic¸a˜o de um termo parabo´lico, isto e´, pela adic¸a˜o de viscosidade arti-
ficial a` equac¸a˜o original. Assim, por exemplo, pode ser considerada a seguinte regularizac¸a˜o:
uǫt + au
ǫ
x = ǫu
ǫ
xx, t > 0
para ǫ > 0, suficientemente pequeno. A soluc¸a˜o uǫ(x, t) e´ sempre suave e limǫ→0 uǫ(x, t) =
u(x, t). Note que na pra´tica resolve-se uma sequeˆncia de problemas com valores decrescentes
de ǫ.
O efeito da parabolizac¸a˜o e´ a suavizac¸a˜o da soluc¸a˜o, como ilustrado pelas figuras 5.21 e
5.22, que representam a soluc¸a˜o do problema
ut + ux = 1 + ǫuxx
com condic¸a˜o inicial linear por partes
u(x, 0) =
{
6, x ≤ 3
x+ 3, 3 ≤ x < 7
17− x, x ≥ 7.
(5.11)
Note que para ǫ = 0, a condic¸a˜o inicial seria transportada domı´nio adentro sem suavizac¸a˜o
.
0
0.2
0.4
0.6
0
5
10
15
4
5
6
7
8
9
10
11
tx
u
(x,
t)
0 2 4 6 8 10 12 14
4
5
6
7
8
9
10
11
x
u
(x,
.)
t=0
t=0.54
Figura 5.21: Gra´fico da soluc¸a˜o e perfis nos tempos t = 0 e t = 0.54 para ǫ = 0.2
Para o caso da equac¸a˜o de Burgers com condic¸a˜o inicial constante por partes, com
apenas um salto (Problema de Riemann), pode ser provado que as soluc¸o˜es obtidas atrave´s
do processo limite, tanto no caso de modificac¸a˜o da condic¸a˜o inicial quanto no caso da
parabolizac¸a˜o da equac¸a˜o, coincidem, ver exerc´ıcios (5.9-5.10) [23]. No entanto o caso geral
de equac¸o˜es hiperbo´licas na˜o lineares pode apresentar singularidades mesmo se os dados
5.1. INTRODUC¸A˜O 175
0
0.2
0.4
0.6
0
5
10
15
4
5
6
7
8
9
10
11
tx
u
(x,
t)
0 2 4 6 8 10 12 14
4
5
6
7
8
9
10
11
x
u
(x,
.)
t=0
t=0.54
Figura 5.22: Gra´fico da soluc¸a˜o e perfis nos tempos t = 0 e t = 0.54 para ǫ = 0.01
iniciais forem regulares. Portanto, a regularizac¸a˜o das condic¸o˜es iniciais na˜o e´ suficiente para
garantir a existeˆncia de uma soluc¸a˜o cla´ssica para o problema na˜o linear com condic¸a˜o inicial
uǫ(x, 0). Por outro lado a equac¸a˜o parabolizada com dados iniciais descont´ınuos sempre tem
uma soluc¸a˜o cla´ssica. Dessa forma, a segunda te´cnica de regularizac¸a˜o e´ preferida, por
generalizar-se para outros problemas.
Como esperamos ficou claro dessa discussa˜o, soluc¸o˜es fracas na˜o sa˜o, em geral, unica-
mente determinadas. Os processos de passagem ao limite discutidos acima, fornecem um
crite´rio lo´gico para a escolha da soluc¸a˜o fraca que melhor representa a f´ısica do problema.
Dizemos que neste caso a soluc¸a˜o fraca satisfaz a condic¸a˜o de entropia.
O processo de passagem ao limite oferece se´rias dificuldades do ponto de vista pra´tico,
principalmente com relac¸a˜o a` obtenc¸a˜o de uma soluc¸a˜o nume´rica. Dessa forma, para a
classe dos problemas de conservac¸a˜o de fluxos, que modelam situac¸o˜es reais importantes,
foram estabelecidas propriedades, a serem descritas logo a seguir, que se observadas, levam
a` soluc¸a˜o que satisfaz a condic¸a˜o de entropia. No entanto, para o caso de uma equac¸a˜o geral
a escolha da soluc¸a˜o entro´pica e´ um problema ainda na˜o resolvido ( [23], pa´gina 75).
Leis de Conservac¸a˜o
Diversos aspectos das equac¸o˜es hiperbo´licas foram abordados ate´ aqui, ficando claro,
que esses tipos de equac¸o˜es oferecem diversas dificuldades (por exemplo, admitem soluc¸o˜es
com descontinuidades). No sentido de oferecer resultados pra´ticos, a pesquisa nessa a´rea
evoluiu na direc¸a˜o das equac¸o˜es na forma de lei de conservac¸a˜o, onde conseguiu-se estabelecer
resultados importantes principalmente no que concerne a` compreensa˜o sobre choques.
Uma lei de conservac¸a˜o estabelece que a variac¸a˜o de uma quantidade u(x, t) definida em
um domı´nio D so´ depende do fluxo de u atrave´s da fronteira ∂D. Se o fluxo de u e´ dado
por uma func¸a˜o f , enta˜o
d
dt
∫
D
udx = −
∫
∂D
fηds (5.12)
onde η e´ o vetor normal a` ∂D apontando para o exterior de D. Se u e f sa˜o bem comportadas
176 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
enta˜o (5.12) pode ser reescrita na forma:∫
D
(ut + (f(u))x)dx = 0. (5.13)
Como o conjunto D e´ arbitra´rio, (5.13) resulta em:
ut + (f(u))x = 0 (5.14)
que e´ a equac¸a˜o na forma de conservac¸a˜o. E´ importante observar que a forma integral (5.13)
na˜o impo˜e exigeˆncias de diferenciabilidade ta˜o restritivas quanto a forma diferencial (5.14).
Por isso a formulac¸a˜o integral e´ frequentemente usada para a construc¸a˜o de soluc¸o˜es fracas.
No caso de um sistema de equac¸o˜es de conservac¸a˜o, um bom exemplo de (5.14) e´ a equac¸a˜o
de Euler da dinaˆmica dos gases em que u = (ρ, ρv, ρE)T e´ o vetor de estado das varia´veis
conservadas e f = (ρv, ρv2 + P, ρvE + Pv)T , sendo ρ, v, E e P a massa espec´ıfica do gas, a
velocidade, a pressa˜o e a energia total, respectivamente.
A equac¸a˜o na forma de conservac¸a˜o fornece informac¸o˜es mais detalhadas sobre o choque.
De fato, seja uma curva x = ξ(t) ao longo da qual a soluc¸a˜o u e´ descont´ınua e seja [a, b] um
intervalo na varia´vel espacial x que contenha ξ(t), como ilustrado pela figura 5.23.
ξ(t)
x
t
[ ]
a b
Figura 5.23: Parametrizac¸a˜o do choque
Sejam ue e ud valores limites de u a` esquerda e a` direita de ξ(t), definimos enta˜o a func¸a˜o:
I(t) =
∫ b
a
u(x, t)dx
enta˜o
dI
dt
=
∫ ξ(t)
a
utdx+ ues+
∫ b
ξ(t)
utdx− uds
onde s = dξdt . No caso de um choque estaciona´rio s representa sua inclinac¸a˜o.
Como, ut = −(f(u))x, obtemos,
dI
dt
= f(ua)− f(ue) + ues− f(ub) + f(ud)− uds (5.15)
5.1. INTRODUC¸A˜O 177
onde ua e ub representam a soluc¸a˜o u nos pontos a e b. Mas, pela lei de conservac¸a˜o
dI
dt
= f(ua)− f(ub)
e portanto a equac¸a˜o (5.15) pode ser reescrita como:
s(ue − ud) = f(ue)− f(ud). (5.16)
A expressa˜o (5.16) e´ conhecida como condic¸a˜o de Rankine-Hugoniot. Na literatura essa
condic¸a˜o e´ frequentemente escrita na forma
s =
[f(u)]
[u]
,
onde [ ] denota uma func¸a˜o que fornece o valor do salto na descontinuidade.
Note que havera´ choque quando [u] 6= 0, caso contra´rio teremos a chamada descon-
tinuidade de contato. Assim, como x = ξ(t) e s = [f(u)][u] a posic¸a˜o do choque e´ dada por:
dx
dt
=
[f(u)]
[u]
.
Por exemplo, no caso da equac¸a˜o de Burgers
ut + uux = 0 (5.17)
que pode ser colocada na forma conservativa
ut + (f(u))x = 0
onde f(u) = u
2
2 e´ a func¸a˜o de fluxo, a condic¸a˜o de Rankine-Hugoniot indica que o choque
sera´ dado pela curva:
dx
dt
=
u2e/2− u2d/2
ue − ud =
ue + ud
2
.
confirmando o que ja´ hav´ıamos observado na figura 5.20.
Observac¸a˜o 5.1.8 Chamamos a atenc¸a˜o do leitor para o fato de que a forma conservativa
em que uma equac¸a˜o hiperbo´lica e´ escrita determina a soluc¸a˜o fraca escolhida pelo processo
de Rankine–Hugoniot e portanto influencia a posic¸a˜o do choque. Duas formas conservativas
distintas e equivalentes de uma mesma equac¸a˜o geram soluc¸o˜es fracas diferentes,por exemplo
a equac¸a˜o
(u2)t + (
2
3
u3)x = 0 (5.18)
e´ equivalente a` equac¸a˜o de Burgers pois e´ uma forma conservativa para u2 obtida pela mul-
tiplicac¸a˜o de (5.17) por 2u. Se considerarmos o problema de Riemann para (5.17) e (5.18)
com condic¸a˜o inicial tal que ue > ud enta˜o (5.17) possue um choque com inclinac¸a˜o:
s1 =
[f(u)]
[u]
=
[u
2
2 ]
[u]
=
1
2
(ue + ud)
178 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
ja´ (5.18) possue choque com inclinac¸a˜o:
s2 =
[23u
3]
[u2]
=
2(u2e + ueud + u
2
d)
3(ue + ud)
diferente portanto de s1.
Problema de Riemann
Um problema de Riemann e´ constitu´ıdo de uma equac¸a˜o diferencial parcial na forma de
conservac¸a˜o tendo como condic¸a˜o inicial a func¸a˜o de Heaviside, isto e´ uma func¸a˜o da forma:
Heav(x) =
{
ue, se x ≤ 0
ud, se x > 0
.
Mais precisamente, um problema de Riemann e´ dado por:
ut + (f(u))x = 0 (5.19)
u(x, 0) = Heav(x), (5.20)
com ue 6= ud. Como ja´ mencionado anteriormente esse tipo de equac¸a˜o possui soluc¸o˜es na˜o
diferencia´veis e em muitos casos nem mesmo cont´ınuas ao longo da curva caracter´ıstica que
passa pela origem.
Por exemplo para a equac¸a˜o ut + aux = 0 para a constante positiva, com a condic¸a˜o
inicial u(x, 0) = Heav(x) temos que a soluc¸a˜o e´ constante por partes e dada pela expressa˜o:
u(x, t) =
{
ue, se x ≤ at
ud, se x > at
ou graficamente como na figura 5.24.
ue
ud
ue
ud
x
t
Figura 5.24: Soluc¸a˜o do problema de Riemann
No caso da equac¸a˜o de Burgers na˜o viscosa a soluc¸a˜o podera´ apresentar onda de rarefac¸a˜o
ou onda de choque, conforme ue < ud ou ue > ud, respectivamente, conforme ja´ estabelecido
na subsec¸a˜o Regularizac¸a˜o dos dados.
5.1. INTRODUC¸A˜O 179
ue
ud
ue
udue
ud
ud
ue
x
t
x
t
Figura 5.25: Soluc¸o˜es da equac¸a˜o de Burgers
Condic¸o˜es de Entropia
A escolha da soluc¸a˜o entro´pica, via regularizac¸a˜o dos dados ou da pro´pria equac¸a˜o e´
quase sempre de dif´ıcil tratamento. A literatura apresenta condic¸o˜es alternativas quando as
equac¸o˜es esta˜o escritas na forma de leis de conservac¸a˜o . Como vimos, um crite´rio, no caso
da equac¸a˜o escalar, e´ que as condic¸o˜es iniciais compartilhem a construc¸a˜o e evoluc¸a˜o das
descontinuidades. Por exemplo e´ o que ocorre no caso de choque, onde a descontinuidade vai
se formar se a inclinac¸a˜o das caracter´ısticas a` esquerda for maior do que a` direita do ponto
de descontinuidade da condic¸a˜o inicial. Uma outra forma de apresentac¸a˜o deste crite´rio e´:
Crite´rio 1: Seja s a condic¸a˜o de Rankine-Hugoniot, enta˜o a soluc¸a˜o u(x, t) e´ a soluc¸a˜o
entro´pica, se ao longo da descontinuidade vale a relac¸a˜o:
f ′(ue) > s > f ′(ud).
Em outras palavras, as caracter´ısticas partem da condic¸a˜o inicial em direc¸a˜o da descon-
tinuidade, ou seja, a inclinac¸a˜o da descontinuidade esta´ entre as inclinac¸o˜es das carac-
ter´ısticas a` sua esquerda e a` sua direita.
Note que se f e´ convexa enta˜o a condic¸a˜o se reduz a ue > ud. No caso de f ser coˆncava
teremos ud > ue, veja exerc´ıcio (5.12).
Uma condic¸a˜o mais geral foi estabelecida por Oleinik [Oleinik 1957].
Crite´rio 2: A soluc¸a˜o u(x, t) e´ a soluc¸a˜o entro´pica se ao longo da descontinuidade vale
a relac¸a˜o:
f(u)− f(ue)
u− ue ≥ s ≥
f(u)− f(ud)
u− ud
para todo u entre ue e ud.
Note que se f e´ convexa esta relac¸a˜o reduz-se a`quela do crite´rio 1. Ver exerc´ıcio (5.3).
Uma outra relac¸a˜o importante diz respeito a` expansa˜o de uma rarefac¸a˜o e foi tambe´m
estabelecida por Oleinik, [Oleinik 1957] para f ′′ > 0.
180 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
Crite´rio 3: A soluc¸a˜o u(x, t) e´ entro´pica se existe uma constante E tal que para δ > 0,
t > 0 e qualquer x ∈ IR, tem-se:
u(x+ δ, t)− u(x, t)
δ
<
E
t
.
Aspectos adicionais sobre condic¸o˜es de entropia incluindo func¸o˜es de entropia podem ser
obtidos, por exemplo, em LeVeque [23].
No caso escalar com f convexa, um problema de Riemann apresenta alternativamente,
ou choque ou rarefac¸a˜o como soluc¸a˜o entro´pica. No caso em que f e´ coˆncava a mesma
afirmac¸a˜o e´ verdadeira. Pore´m, quando f tem um ponto de inflexa˜o os dois tipos de soluc¸a˜o
entro´pica podem desenvolver-se simultaneamente. Ver figura 5.26.
O exemplo mais simples e interessante e´ aquele dado pela equac¸a˜o de Buckley–Leverett
que modela o escoamento de um fluido em meio poroso com duas fases, por exemplo a injec¸a˜o
de a´gua para extrac¸a˜o de petro´leo. O modelo e´ dado por:
ut + (f(u))x = 0, com f(u) =
u2
u2 + c(1− u)2 , (5.21)
e c constante.
A soluc¸a˜o u(x, t) representa a saturac¸a˜o de a´gua satisfazendo portanto a desigualdade
0 ≤ u(x, t) ≤ 1.
Pode ser demonstrado (veja por exemplo LeVeque [23], pa´gina 48) que para o problema
de Riemann com ue = 1 (a´gua) e ud = 0 (o´leo) a soluc¸a˜o possui uma rarefac¸a˜o com um
choque no extremo da a´rea de rarefac¸a˜o, chamada de uma rarefac¸a˜o seguida de choque.
ud
ud
ue
ue
u*
x
t
Figura 5.26: Perfis da soluc¸a˜o da equac¸a˜o de Buckley-Leverett
O ponto u∗ e´ determinado pela intersecc¸a˜o da envolto´ria convexa de f(u) com o gra´fico
de f(u) (vide linha tracejada da figura 5.27). Para uma visualizac¸a˜o detalhada da construc¸a˜o
do ponto u∗ veja a figura 5.27.
Verifique que a posic¸a˜o do choque e´ dada pela direc¸a˜o f ′(u∗).
Observac¸a˜o 5.1.9 Se f(u) tem va´rios pontos de inflexa˜o a soluc¸a˜o pode apresentar uma
composic¸a˜o de choques e rarefac¸o˜es.
5.1. INTRODUC¸A˜O 181
0 0.2 0.4 0.6 0.8 1
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
u
f(u
)
u*
Figura 5.27: Definic¸a˜o de u∗
Informac¸o˜es mais detalhadas sobre a equac¸a˜o de Buckley-Leverett podem ser encontradas
em ( [Leme 1981], pa´gina 96).
Se no lugar de uma equac¸a˜o escalar tivermos um sistema de equac¸o˜es a soluc¸a˜o do
problema de Riemann torna-se muito mais dif´ıcil, pois em cada ponto (x, t) passam p
caracter´ısticas havendo portanto diversas possibilidades de propagac¸a˜o e formac¸a˜o de de-
scontinuidades, acarretando dificuldades na selec¸a˜o da soluc¸a˜o entro´pica. Uma discussa˜o
mais detalhada desse assunto pode ser encontrada em Sod [36], LeVeque [23], Jeffrey [38],
Godlewski [39] e Thomas [33].
5.1.2 Equac¸a˜o da onda
Consideremos a equac¸a˜o da onda:
utt − a2uxx = 0, (5.22)
u(x, 0) = f(x), ∀x,
ut(x, 0) = g(x), ∀x.
Fazendo a mudanc¸a de varia´veis: ξ = x + at e η = x − at, de modo que φ(η, ξ) = u(x, t),
temos
∂
∂x
≡ ∂
∂ξ
+
∂
∂η
e
∂
∂t
≡ a
(
∂
∂ξ
− ∂
∂η
)
.
Assim a equac¸a˜o (5.22) se reduz a:
4a2
∂2φ
∂ξ∂η
≡ 0.
A soluc¸a˜o geral desta equac¸a˜o e´ da forma:
182 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
φ(η, ξ) = Q(η) + P (ξ).
Portanto, a soluc¸a˜o geral da equac¸a˜o (5.22) e´ dada por:
u(x, t) = P (x+ at) +Q(x− at), (5.23)
onde P e Q sa˜o func¸o˜es arbitra´rias (duas vezes diferencia´veis). Desde que P (x + at) e´
constante ao longo das linhas x+at = constante, esta parte da soluc¸a˜o pode ser considerada
como uma onda que se propaga para a esquerda, com velocidade a > 0, quando o tempo
avanc¸a. De forma semelhante, Q(x − at) representa uma onda se movendo para a direita
com velocidade a. As linhas no plano (x, t), ao longo das quais as ondas viajam,
x± at = constante,
sa˜o as curvas caracter´ısticas da equac¸a˜o. Note que a equac¸a˜o da onda (de ordem 2) tem
duas famı´lias de caracter´ısticas, enquanto a equac¸a˜o de advecc¸a˜o (de ordem 1) tem apenas
uma.
Quando aplicamos as condic¸o˜es iniciais da equac¸a˜o (5.22), na soluc¸a˜o (5.23), obtemos:
P (x) +Q(x) = f(x),
P ′(x) −Q′(x) = 1
a
g(x).
Integrando a segunda relac¸a˜o no intervalo [0, x], temos:
P (x)−Q(x) = 1
a
∫ x
0
g(y)dy +Q(0)− P (0).
Assim, obtemos
P (x) =
1
2
f(x) +
1
2a∫ x
0
g(y)dy +M
e
Q(x) =
1
2
f(x)− 1
2a
∫ x
0
g(y)dy −M,
onde M = 12 [P (0)−Q(0)].
A soluc¸a˜o da equac¸a˜o (5.22), e´ dada, portanto, por:
u(x, t) = φ(η, ξ) = P (ξ) +Q(η)
=
1
2
[f(x+ at) + f(x− at)] + 1
2a
∫ x+at
x−at
g(y)dy. (5.24)
5.1. INTRODUC¸A˜O 183
Os valores da soluc¸a˜o em um ponto (x0, t0) fixo dependem somente dos valores iniciais
sobre o segmento de reta no eixo x delimitado pelas retas x−at = x0−at0 e x+at = x0+at0.
Este segmento e´ chamado de intervalo de dependeˆncia do ponto (x0, t0). Inversamente, o
conjunto de pontos (x, t) no qual a soluc¸a˜o e´ influenciada pelos dados iniciais em um ponto
(x0, 0) e´ a regia˜o limitada pelas linhas x+ at = x0 e x− at = x0. Esta regia˜o e´ chamada de
domı´nio de influeˆncia do ponto (x0, 0).
at at
x- at at00
x0 t 0,( )
x-0 0 x0 0+
t
x
Intervalo de dependência
x+at=x-at= x0 0+
Figura 5.28: Intervalo de dependeˆncia de (x0, t0)
Dominio de
influencia
, 0)
x+at=x x-at=x 00
(x0
influência
Domínio det
x
Figura 5.29: Domı´nio de influeˆncia de (x0, 0)
Esta ra´pida deduc¸a˜o reforc¸a o papel ba´sico das caracter´ısticas na construc¸a˜o da soluc¸a˜o.
Note que para equac¸o˜es hiperbo´licas mais gerais (a ≡ a(x, t, u)) > 0 teremos duas famı´lias
de caracter´ısticas na˜o necessariamente linhas retas, mas os mesmos conceitos se aplicam.
Exemplo 5.1.3 Vamos considerar a equac¸a˜o
utt − 4uxx = 0 0 < x < 1, t ≥ 0
u(x, 0) = sen (2πx), 0 < x < 1,
ut(x, 0) = 0, 0 < x < 1,
u(0, t) = u(1, t) = 0, t > 0,
cuja soluc¸a˜o exata e´ u(x, t) = sen (2πx) cos (4πt) e as caracter´ısticas sa˜o x± 2t = c.
184 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
Conforme (5.24) e como g(x) = 0, temos que a soluc¸a˜o sera´ a me´dia de duas ondas que
se propagam, para a direita e para a esquerda, com velocidade 2 nas direc¸o˜es x−2t e x+2t,
ou seja,
u(x, t) =
1
2
( sen (2π(x− 2t)) + sen (2π(x+ 2t)) = sen (2πx) cos (4πt).
As figuras em 5.30 representam 5 perfis das ondas sen (2π(x − 2t)) e sen (2π(x + 2t)).
0 5 10 15 20 25 30 35 40
−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
0 5 10 15 20 25 30 35 40
−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
Figura 5.30: Perfis de uma onda propagando-se para a direita e esquerda
−− : Representa a condic¸a˜o inicial
Os perfis da me´dia das duas ondas, que coincidem com os respectivos perfis da soluc¸a˜o
exata, sa˜o mostrados na figura 5.31.
0 5 10 15 20 25 30 35 40
−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
Figura 5.31: Me´dia dos perfis das ondas esquerda e direita
−− : Representa a condic¸a˜o inicial
A soluc¸a˜o u(x, t) e´ mostrada na figura 5.32.
5.1. INTRODUC¸A˜O 185
0
10
20
30
40
0
50
100
150
200
−1
−0.5
0
0.5
1
Figura 5.32: Soluc¸a˜o do exemplo (5.1.3)
Sistemas de Equac¸o˜es Hiperbo´licas Lineares
A equac¸a˜o da onda e´ um modelo interessante tambe´m porque pode representar a classe
dos sistemas lineares hiperbo´licos, uma vez que essa equac¸a˜o pode ser transformada em um
sistema com duas equac¸o˜es de primeira ordem.
Introduzindo uma nova varia´vel v(x, t) com vt = aux a equac¸a˜o da onda transforma-se
no sistema equivalente: {
ut = avx
vt = aux
ou em forma matricial (
u
v
)
t
−
(
0 a
a 0
)(
u
v
)
x
=
(
0
0
)
, (5.25)
com as respectivas condic¸o˜es iniciais.
Denotando por V = (u, v)T o sistema (5.25) toma a forma Vt+AVx = 0. As direc¸o˜es das
caracter´ısticas sa˜o dadas pelos autovalores de A que sa˜o λ1 = a e λ2 = −a. Considerando
os autovetores associados podemos desacoplar o sistema, por meio da diagonalizac¸a˜o de A
e de uma mudanc¸a de varia´veis, chamada varia´veis das caracter´ısticas. Sendo A = TΛT−1
a nova varia´vel sera´ dada por W = T−1V e o sistema com Λ diagonal se torna
Wt + ΛWx = Θ.
O valor deW e´ constante ao longo de cada caracter´ıstica e por isso e´ chamado de Riemann
invariante.
Os autovetores para a equac¸a˜o (5.25) sa˜o (1, 1)T e (1,−1)T e portanto as varia´veis das
caracter´ısticas sa˜o u+ v e u− v. Logo o sistema torna-se:(
u+ v
u− v
)
t
+
(
a 0
0 −a
)(
u+ v
u− v
)
x
=
(
0
0
)
.
186 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
Uma preocupac¸a˜o sempre presente quando trabalhamos com sistemas esta´ ligada a` es-
pecificac¸a˜o de condic¸o˜es de fronteira. Se essas condic¸o˜es de fronteira na˜o forem cuidadosa-
mente especificadas ocorrera´ incompatibilidade e o problema na˜o sera´ enta˜o bem posto.
Para ilustrar essa situac¸a˜o vamos considerar um sistema 2 × 2 ligeiramente mais geral.
Seja (
u
v
)
t
−
(
b a
a b
)(
u
v
)
x
=
(
0
0
)
, t > 0, 0 < x < 1.
Os autovalores sa˜o λ1 = b+ a e λ2 = b− a e as varia´veis caracter´ısticas sa˜o u+ v e u− v
e portanto obtemos o sistema:(
u+ v
u− v
)
t
+
(
b+ a 0
0 b− a
)(
u+ v
u− v
)
x
=
(
0
0
)
. (5.26)
As caracter´ısticas propagam informac¸o˜es nas direc¸o˜es λ1 = b+ a e λ2 = b− a.
Se 0 < a < b enta˜o λ1 > 0 e λ2 > 0 e ambas as caracter´ısticas se propagam para a direita
no plano (x, t). Nesse caso as condic¸o˜es de fronteira devera˜o ser especificadas em x = 0.
Se 0 < b < a enta˜o uma caracter´ıstica propaga-se para a direita (λ1 > 0) enquanto a
outra propaga-se para a esquerda (λ2 < 0). Devemos enta˜o especificar valores para x = 0
e tambe´m para x = 1. Como λ1 esta´ associado a` varia´vel u + v da caracter´ıstica e λ2 esta´
associado a` varia´vel u− v, devemos especificar u+ v em x = 0 e u− v em x = 1. Na verdade
as seguintes condic¸o˜es tornam o problema bem posto, ( [Quarteroni 1997], pa´gina 453).
u+ v = α0(t)(u − v) + β0(t), para x = 0
u− v = α1(t)(u + v) + β1(t), para x = 1.
Considerando a fronteira x = 0, quando λ > 0 dizemos que a caracter´ıstica associada
esta´ entrando no domı´nio e quando λ < 0 a caracter´ıstica associada esta´ saindo. Assim
devemos especificar condic¸o˜es de fronteira para as varia´veis caracter´ısticas em x = 0 em
mesmo nu´mero das caracter´ısticas que esta˜o entrando no domı´nio e, em x = 1 o mesmo
nu´mero de caracter´ısticas saindo do domı´nio. Algebricamente esse procedimento para um
sistema linear n× n toma a forma a seguir.
Para m ≤ n
Λ =
(
Λ+ Θ
Θ Λ−
)
e W =
(
W+
W−
)
as condic¸o˜es
W+(t, 0) = α0(t)W
−(t, 0) + β0(t)
W−(t, 1) = α1(t)W+(t, 1) + β1(t)
tornam o problema bem posto, onde Λ+ = diag(λ1, λ2, . . . , λm) com λi > 0 e W
+ =
(w1, w2, . . . , wm)
T , sa˜o as varia´veis caracter´ısticas associadas a valores positivos de λ e Λ− =
diag(λm+1, λm+2, . . . , λn) com λi < 0 e W
− = (wm+1, wm+2, . . . , wn)T sa˜o as varia´veis
caracter´ısticas associadas com valores negativos de λ.
E´ claro que para sistemas na˜o lineares essa ana´lise e´ muito mais complexa.
5.1. INTRODUC¸A˜O 187
Me´todo das caracter´ısticas
Mostramos anteriormente que as equac¸o˜es hiperbo´licas sa˜o substancialmente simplifi-
cadas se as caracter´ısticas, isto e´, o sistema natural de coordenadas, forem utilizadas. Assim,
um dos primeiros me´todos nume´ricos desenvolvidos e que procura aproveitar a vantagem de
construir a soluc¸a˜o seguindo as caracter´ısticas foi chamado de me´todo das caracter´ısticas.
Primeiramente e´ preciso obter as caracter´ısticas, que para o caso de uma equac¸a˜o de
segunda ordem, pode ser feito como a seguir.
Considere a equac¸a˜o de segunda ordem:
auxx + buxt + cutt = e, (5.27)
temos que:
d(ux) = uxxdx+ uxtdt, (5.28)
d(ut) = uxtdx + uttdt.
As equac¸o˜es (5.27) e (5.28) formam um sistema linear de 3 equaco˜es para uxx, uxt e utt:(
c b a
dt dx 0
0 dt dx
)(
utt
uxt
uxx
)
=
(
e
d(ut)
d(ux)
)
.
As inclinac¸o˜es das direc¸o˜es caracter´ısticas da equac¸a˜o (5.27) sa˜o dadas por:
det
(
c b a
dt dx 0
0 dt dx
)
=0,
ou seja, sa˜o as ra´ızes da equac¸a˜o quadra´tica:
c
(
dx
dt
)2
− b
(
dx
dt
)
+ a = 0, (5.29)
que sa˜o dadas por:
dx
dt
=
1
2c
(
b±
√
b2 − 4ac
)
.
Temos, portanto, duas direc¸o˜es para as caracter´ısticas.
Denotando as derivadas de ordens 1 e 2 por:
∂u
∂x
= p,
∂u
∂t
= q,
∂2u
∂x2
= r,
∂2u
∂x∂t
= s, e
∂2u
∂t2
= y,
as equac¸o˜es diferenciais para p e q satisfazem, conforme (5.28)
dp =
∂p
∂x
dx +
∂p
∂t
dt = rdx + sdt
188 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
e
dq =
∂q
∂x
dx+
∂q
∂t
dt = sdx+ ydt.
Usando (5.29) e eliminando e e y com a ajuda de (5.27) podemos dizer que ao longo das
direc¸o˜es caracter´ısticas, as diferenciais dp e dq esta˜o relacionadas pela equac¸a˜o:
c
dq
dt
dx
dt
+ a
dp
dt
− edx
dt
= 0,
que pode ser reescrita na forma:
c
dx
dt
dq + adp− edx = 0. (5.30)
Vamos supor que a equac¸a˜o (5.27) seja hiperbo´lica, assim as ra´ızes da equac¸a˜o (5.29) sa˜o
reais e distintas. Sejam elas:
dx
dt
= f e
dx
dt
= g. (5.31)
A discretizac¸a˜o agora e´ feita sem maiores dificuldades. Escolhe-se um espac¸amento sobre
a curva de condic¸o˜es iniciais, por exemplo para os pontos P , Q, W , etc. A partir desses
pontos e seguindo as curvas carater´ısticas dadas por (5.31), a soluc¸a˜o nume´rica vai sendo
constru´ıda.
Consideremos enta˜o Γ uma curva na˜o caracter´ıstica, sobre a qual os valores para u, p
e q sa˜o conhecidos. Sejam P e Q pontos sobre Γ e seja f a caracter´ıstica atrave´s de P
interceptando a caracter´ıstica g atrave´s de Q no ponto R(xR, tR), figura 5.33.
f
g
P
Q
W
R
ST
x
t Γ
Figura 5.33: Caracter´ısticas para a equac¸a˜o de segunda ordem
Como uma primeira aproximac¸a˜o podemos considerar os arcos PR e QR como sendo
linhas retas com inclinac¸o˜es fP e gQ respectivamente. Enta˜o as equac¸o˜es (5.31) podem ser
aproximadas por:
xR − xP = fP (tR − tP ) (5.32)
5.1. INTRODUC¸A˜O 189
e
xR − xQ = gQ(tR − tQ), (5.33)
ou seja, obtivemos duas equac¸o˜es para duas inco´gnitas xR e tR.
Pela equac¸a˜o (5.30) as relac¸o˜es diferenciais ao longo das caracter´ısticas sa˜o:
cfdq + adp− edx = 0
e
cgdq + adp− edx = 0.
A primeira pode ser aproximada ao longo de PR pela equac¸a˜o:
cP fP (qR − qP ) + aP (pR − pP )− eP (xR − xP ) = 0 (5.34)
e a segunda ao longo de QR pela equac¸a˜o:
cQgQ(qR − qQ) + aQ(pR − pQ)− eQ(xR − xQ) = 0. (5.35)
Obtivemos agora 2 equac¸o˜es para as inco´gnitas pR e qR.
O valor de u em R pode ser obtido de:
du =
∂u
∂x
dx+
∂u
∂t
dt = pdx+ qdt,
substituindo os valores de p e q ao longo de PR pelos seus valores me´dios e aproximando a
u´ltima equac¸a˜o por:
uR − uP = 1
2
(pP + pR)(xR − xP ) + 1
2
(qP + qR)(tR − tP ). (5.36)
Esta primeira aproximac¸a˜o para uR pode agora ser melhorada substituindo os valores
dos va´rios coeficientes pela me´dia dos valores em pontos vizinhos. As equac¸o˜es (5.32) e
(5.33) para melhorar os valores de xR e tR se tornam, enta˜o:
xR − xP = 1
2
(fP + fR)(tR − tP )
e
xR − xQ = 1
2
(gQ + gR)(tR − tQ)
e as equac¸o˜es (5.34) e (5.35) para melhorar os valores de pR e qR se tornam:
1
2
(cP + cR)
1
2
(fP + fR)(qR − qP ) + 1
2
(aP + aR)(pR − pP )− 1
2
(eP + eR)(xR − xP ) = 0
e
1
2
(cQ + cR)
1
2
(gQ + gR)(qR − qQ) + 1
2
(aQ + aR)(pR − pQ)− 1
2
(eQ + eR)(xR − xQ) = 0.
Um valor melhor para uR pode enta˜o ser calculado da equac¸a˜o (5.36).
190 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
A repetic¸a˜o deste u´ltimo ciclo de operac¸o˜es produzira´ um valor mais preciso para uR.
Computacionalmente o nu´mero de iterac¸o˜es necessa´rias para obtermos a precisa˜o desejada
deve ser pequeno e isto e´ garantido pelo refinamento da discretizac¸a˜o inicial.
Da mesma maneira calcula-se a soluc¸a˜o em S, usando Q e W . E´ poss´ıvel enta˜o avanc¸ar
com o ca´lculo da soluc¸a˜o no ponto T pelo mesmo processo, mas usando R e S no lugar de
P e Q.
Uma das desvantagens pra´ticas desse me´todo e´ que, ale´m dele poder ser aplicado apenas
para problemas simples, os valores da soluc¸a˜o sa˜o obtidos numa malha irregular. E´ poss´ıvel
contornar a situac¸a˜o de malha irregular construindo-se um me´todo h´ıbrido conhecido como
me´todo de Hartree, para o qual faz-se a discretizac¸a˜o do domı´nio como se fosse para diferenc¸as
finitas. A partir de cada ponto da malha, cuja posic¸a˜o ja´ e´ conhecida, calcula-se por in-
terpolac¸a˜o os valores da soluc¸a˜o retrocedendo ao longo da caracter´ıstica ate´ a intersecc¸a˜o
desta com uma linha horizontal da malha, conforme figura 5.34. Note que os paraˆmetros de
malha devem ser tais que a condic¸a˜o CFL seja satisfeita, ou seja o espac¸amento e´ escolhido
de forma que uma caracter´ıstica na˜o intercepta uma linha vertical da malha.
k
h
x
t
P
Figura 5.34: Ilustrac¸a˜o do me´todo de Hartree
5.2 Diferenc¸as Finitas para a Equac¸a˜o de Advecc¸a˜o
Vamos iniciar o estudo dos me´todos nume´ricos de diferenc¸as finitas, considerando a
equac¸a˜o modelo:
ut + aux = 0 (a > 0, constante), t > 0, x ∈ IR, (5.37)
juntamente com a condic¸a˜o inicial
u(x, 0), x ∈ IR.
Vamos considerar, tambe´m, a regia˜o
t ≥ 0, −∞ < x <∞,
5.2. DIFERENC¸AS FINITAS PARA A EQUAC¸A˜O DE ADVECC¸A˜O 191
coberta por uma malha retangular com linhas paralelas aos eixos x e t e espac¸amento dado
respectivamente por h e k,
P
k
h
x
t
U(x)
Figura 5.35: Domı´nio discretizado
Um ponto gene´rico pode ser dado pelas coordenadas ih em x e jk em t. Por exemplo,
P pode ser dado por x = ih e t = (j + 1)k, ou seja, P = (ih, (j + 1)k). Para a deduc¸a˜o das
fo´rmulas vamos usar pontos gene´ricos P,Q por exemplo, mas ao final elas sera˜o reescritas
em func¸a˜o de ı´ndices i, j.
Fo´rmulas de Diferenc¸as Finitas Expl´ıcitas
Nesta sec¸a˜o apresentaremos fo´rmulas expl´ıcitas de primeira e de segunda ordem. Al-
gumas observac¸o˜es sobre estabilizac¸a˜o e convergeˆncia acompanham os me´todos aqui con-
stru´ıdos.
Antes, pore´m, vamos introduzir a condic¸a˜o de Courant-Friedrichs-Lewy (CFL) [9], que
se aplica a esquemas de diferenc¸as para equac¸o˜es hiperbo´licas e e´ uma condic¸a˜o essencial
para a convergeˆncia e estabilidade do me´todo.
Condic¸a˜o CFL
A condic¸a˜o CFL estabelece um crite´rio mı´nimo e simples a ser exigido de um me´todo
convergente. A motivac¸a˜o para a condic¸a˜o CFL pode ser desenvolvida como segue.
Todos os pontos que contribuem para a soluc¸a˜o exata em um ponto P (veja figura
5.36), devem influenciar a soluc¸a˜o nume´rica, sob pena de no limite h, k → 0, obtermos uma
aproximac¸a˜o que na˜o representa a soluc¸a˜o exata. Em outras palavras, todos os pontos da
malha que esta˜o contidos na regia˜o de dependeˆncia devem estar envolvidos no ca´lculo da
soluc¸a˜o aproximada em P . E´ suficiente portanto, que os pontos envolvidos no ca´lculo de
Ui,j+1 contenham a regia˜o de dependeˆncia para u(ih, (j + 1)k).
Essa e´ a condic¸a˜o mı´nima, considerada ana´loga a` zero–estabilidade, exigida para a con-
vergeˆncia de um me´todo.
Uma maneira pra´tica de saber se um me´todo satisfaz a condic¸a˜o CFL e´ observar sua
mole´cula de ca´lculo de Ui,j+1, pois por meio dela sabemos a regia˜o de dependeˆncia nume´rica
192 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
do me´todo, que e´ dada pelo “cone” dos pontos que influenciam o ca´lculo de Ui,j+1. Esta
regia˜o deve conter as caracter´ısticas passando por P .
Por exemplo, no caso de um me´todo expl´ıcito que utilize 3 pontos no n´ıvel j, isto e´
ui−1,j , ui,j e ui+1,j para construir Ui,j+1 (como na figura 5.40) essa condic¸a˜o exige que uma
caracter´ıstica passando por P = (ih, (j + 1)k) (figura 5.35) corte a linha t = jk, entre os
pontos ((i−1)h, jk) e ((i+1)h, jk). Em outras palavras, o intervalo de dependeˆncia nume´rica
deve conter o intervalo de dependeˆncia da soluc¸a˜oanal´ıtica. As ilustrac¸o˜es da figura 5.36
indicam as situac¸o˜es em que o me´todo de Lax–Wendroff satisfaz a condic¸a˜o CFL e a outra
em que esta e´ violada.
Claramente um me´todo impl´ıcito satisfaz a condic¸a˜o CFL.
Se a condic¸a˜o CFL na˜o for satisfeita, na˜o ha´ convergeˆncia do me´todo, quando h → 0,
com ν = kh , ν constante. Isso significa que a relac¸a˜o
k
h e´ essencial para que haja convergeˆncia
do esquema considerado.
(a) (b)
P
k
h
x
t
U(x)
P
k
h
x
t
U(x)
Figura 5.36: Relac¸a˜o kh para a qual Lax–Wendroff:
a) satisfaz CFL,
b) na˜o satisfaz CFL
Me´todo de Euler Expl´ıcito
A maneira mais intuitiva de resolvermos a equac¸a˜o (5.37) seria usarmos diferenc¸as pro-
gressivas no tempo e central no espac¸o, ou seja,
Ui,j+1 − Ui,j = −νa
2
(Ui+1,j − Ui−1,j). (5.38)
Apesar de um me´todo simples, este constitui-se em um me´todo inadequado por ser incondi-
cionalmente insta´vel, veja exerc´ıcio (5.19).
Me´todo de Lax–Friedrichs
A simples substituic¸a˜o de Ui,j em (5.38) pela me´dia (Ui+1,j+Ui−1,j)/2, leva a um me´todo
esta´vel conhecido como me´todo de Lax-Friedrichs, a saber
Ui,j+1 =
1
2
(Ui+1,j + Ui−1,j)− νa
2
(Ui+1,j − Ui−1,j). (5.39)
5.2. DIFERENC¸AS FINITAS PARA A EQUAC¸A˜O DE ADVECC¸A˜O 193
Esquema Expl´ıcito de Primeira Ordem
Nesse me´todo, vamos considerar os seguintes pontos:
P = (ih, (j + 1)k), Q = ((i− 1)h, jk) e S = (ih, jk),
que representam a mole´cula da figura 5.37.
P
SQ
Figura 5.37: Mole´cula do me´todo expl´ıcito
Suponhamos que a soluc¸a˜o, ou uma aproximac¸a˜o para a soluc¸a˜o, do problema e´ conhecida
nos pontos Q e S e que determinaremos uma aproximac¸a˜o para a soluc¸a˜o no ponto P .
Desenvolvendo a soluc¸a˜o u do problema, no ponto P , em se´rie de Taylor, temos:
uP = uS + k
∂
∂t
uS +
k2
2!
∂2
∂t2
uS +
k3
3!
∂3
∂t3
uS + · · ·
uP = exp
(
k
(
∂
∂t
))
uS
uP = exp
(
−ka ∂
∂x
)
uS , pois
∂
∂t
= −a ∂
∂x
.
Consideremos, agora, as aproximac¸o˜es de primeira ordem:
uP ≃ uS − ak ∂
∂x
uS e
∂
∂x
uS ≃ 1
h
(uS − uQ).
Assim,
uP ≃ uS − ak
h
(uS − uQ).
Obtivemos, portanto, a fo´rmula de diferenc¸as
UP = (1− νa)US + νaUQ, (5.40)
onde ν = k/h. Essa fo´rmula corresponde a
Ui,j+1 = (1− νa)Ui,j + νaUi−1,j ,
194 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
Para determinarmos o erro de truncamento local, utilizaremos as se´ries de Taylor:
uP = uS + k
∂
∂t
uS +
k2
2!
∂2
∂t2
uS + · · ·
uQ = uS − h ∂
∂x
uS +
k2
2!
∂2
∂x2
uS − · · ·
Substituindo essas expresso˜es na equac¸a˜o (5.40), obtemos:
uS + k
∂
∂t
uS +
k2
2!
∂2
∂t2
uS + · · · = uS − k
h
auS +
k
h
a
(
uS − h ∂
∂x
uS +
h2
2!
∂2
∂x2
uS − · · ·
)
.
O erro de truncamento local e´ dado, portanto, por:
k2
2!
(
∂2
∂t2
us − k
h
a
∂2
∂x2
us
)
+ · · ·
Seja R o ponto onde a caracter´ıstica passando por P intercepta o n´ıvel da malha sobre
o qual esta˜o os pontos Q e S. Para que a condic¸a˜o CFL seja satisfeita devemos ter, nesse
esquema, o ponto R situado entre os pontos Q e S, veja figura 5.38.
k
h
P
SQ dR
Figura 5.38: Representac¸a˜o de uma caracter´ıstica passando pelo ponto P .
No caso da equac¸a˜o (5.37), a caracter´ıstica e´ a reta x+ at = constante, cuja inclinac¸a˜o,
em func¸a˜o de x e´ dada por tan θ = 1a . Podemos deduzir pela figura 5.38 que a inclinac¸a˜o
de uma reta passando por P e R, sera´ dada por tan θ = kd , onde k e´ o espac¸amento e d e´ a
distaˆncia entre R e S. Logo d = ka,
A condic¸a˜o CFL exige que 0 ≤ d ≤ h, ou 0 ≤ ka ≤ h, ou melhor ainda,
0 ≤ k
h
a = νa ≤ 1 (h 6= 0).
Note que este me´todo e´ mais apropriado no caso em que os valores de fronteira sa˜o fixados
a` esquerda do domı´nio.
Me´todo Upwind
No me´todo anterior, uma condic¸a˜o essencial para garantir a condic¸a˜o CFL e´ a > 0.
Evidentemente, se a < 0, devemos usar diferenc¸a progressiva para aproximac¸a˜o da derivada
5.2. DIFERENC¸AS FINITAS PARA A EQUAC¸A˜O DE ADVECC¸A˜O 195
espacial. O me´todo upwind, tambe´m conhecido como me´todo de Courant–Isaacson–Rees,
incorpora as duas condic¸o˜es em um u´nico me´todo, de maneira a ser geral o suficiente para
resolver problemas onde a ≡ a(x, t, u). O me´todo upwind tem a seguinte expressa˜o:
Ui,j+1 =
{
Ui,j − νa(Ui,j − Ui−1,j), se a > 0
Ui,j − νa(Ui+1,j − Ui,j), se a < 0.
direção de propagação dir
eçã
o d
e p
rop
ag
açã
o
tt
xx
a<0
a>0
Figura 5.39: Direc¸o˜es de Propagac¸a˜o do Me´todo Upwind.
Com um pouco de a´lgebra podemos reescrever esse me´todo como:
Ui,j+1 − Ui,j + νa
2
(Ui+1,j − Ui−1,j) = |a|ν
2
(Ui+1,j − 2Ui,j + Ui−1,j). (5.41)
Comparando esse me´todo com o de Euler, suas expresso˜es diferem apenas no termo
do lado direito da igualdade que e´ uma aproximac¸a˜o para uxx, representando portanto a
resoluc¸a˜o nume´rica do problema parabolizado. Esse termo de segunda ordem, estabiliza
o me´todo de Euler mas introduz suavizac¸a˜o na soluc¸a˜o nume´rica, que e´ uma propriedade
marcante dos me´todos do tipo upwind.
O me´todo upwind e´ portanto a composic¸a˜o de dois me´todos assime´tricos que sera˜o usados
alternativamente conforme a variac¸a˜o do valor de a(x, t, u).
Esquema de Lax-Wendroff
Os pontos envolvidos nesse esquema sa˜o:
P = (ih, (j + 1)k), Q = ((i+ 1)h, jk), S = (ih, jk) e T = ((i+ 1)h, jk),
com a correspondente mole´cula dada pela figura 5.40.
Expandindo uP em se´rie de Taylor, temos:
uP = uS + k
∂
∂t
uS +
k2
2
∂2
∂t2
uS + · · ·
Eliminando os termos com derivadas em t
(
∂
∂t = −a ∂∂x
)
, obte´m-se
196 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
TQ S
P
Figura 5.40: Mole´cula do esquema de Lax-Wendroff
uP = uS − ka ∂
∂x
uS +
k2
2
a2
∂2
∂x2
uS − · · ·
Truncando a expressa˜o acima, de maneira a manter os termos de ate´ segunda ordem, e
enta˜o usando diferenc¸a central para a segunda derivada na varia´vel x, vamos obter o me´todo
conhecido como esquema de Lax-Wendroff:
UP = US − ka
2h
(UT − UQ) + k
2a2
2h2
(UQ − 2US + UT )
ou
Ui,j+1 = Ui,j − νa
2
(Ui+1,j − Ui−1,j) + ν
2a2
2
(Ui+1,j − 2Ui,j + Ui−1,j). (5.42)
Portanto, a fo´rmula de segunda ordem, e´ dada por:
UP = (1 − ν2a2)US − νa
2
(1− νa)UT + νa
2
(1 + νa)UQ,
ou genericamente
Ui,j+1 = (1 − ν2a2)Ui,j − νa
2
(1− νa)Ui+1,j + νa
2
(1 + νa)Ui−1,j .
O erro de truncamento para a aproximac¸a˜o de Lax-Wendroff e´ da O(h2 + k2).
Para que a condic¸a˜o CFL seja satisfeita, nesse esquema, devemos ter o ponto R entre os
pontos Q e T . A condic¸a˜o CFL exige que 0 ≤ d ≤ h, ou seja, 0 ≤ |νa| ≤ 1, (h 6= 0).
Note que esse me´todo pode ser aplicado tambe´m para a < 0, sendo em qualquer caso,
apropriado quando as condic¸o˜es de fronteira sa˜o fixadas em ambos os lados do domı´nio.
Vamos agora examinar a estabilidade da fo´rmula de Lax-Wendroff. Usando o me´todo
de Neumann, pode ser mostrado que o fator de amplificac¸a˜o ζ (ver subsec¸a˜o Dissipac¸a˜o e
Dispersa˜o) e´ dado por:
ζ = (1− τ2) + τ
2
2
(eIβh + e−Iβh)− τ
2
(eIβh + e−Iβh)
ζ = (1− 2τ2 sen2βh
2
)− Iτ senβh,
5.2. DIFERENC¸AS FINITAS PARA A EQUAC¸A˜O DE ADVECC¸A˜O 197
onde τ = νa.
Assim,
|ζ| = [1− 4τ2(1 − τ2) sen4βh
2
]1/2.
De onde segue que:
|ζ| ≤ 1, se 0 < τ ≤ 1.
A condic¸a˜o de estabilidade para o me´todo de Lax-Wendroff, coincide, portanto, com a
condic¸a˜o CFL. Esse me´todo e´ portanto expl´ıcito e esta´vel se a condic¸a˜o CFL for satisfeita.
Em resumo, o esquema de Lax-Wendroff (5.42) e´ obtido inserindo-se um pequeno termo
difusivo positivo no lado direito da equac¸a˜o modelo, isto e´, o me´todo resultante e´ a dis-
cretizac¸a˜o da equac¸a˜o :
ut = −aux + 1
2
a2kuxx.
A adic¸a˜o do termo 12a
2kuxx estabiliza uma aproximac¸a˜o insta´vel. Por outro lado causauma excessiva suavizac¸a˜o na soluc¸a˜o pois corresponde a` resoluc¸a˜o do problema original
parabolizado.
Uma outra questa˜o pra´tica importante diz respeito a` necessidade de especificar, artifi-
cialmente, pontos na fronteira, por exigeˆncia do me´todo nume´rico.
Suponhamos que desejamos resolver o problema
ut + aux = 0, a > 0, t > 0, 0 ≤ x ≤ 1
com condic¸o˜es auxiliares
u(x, 0) = u0(x), 0 ≤ x ≤ 1
u(0, t) = g(t), t > 0.
Se usarmos o me´todo de Lax–Wendroff da esquerda para a direita, aproximac¸o˜es da soluc¸a˜o
podem ser calculadas para todos os pontos 0 ≤ xi < 1 exceto para x = 1, pois a mole´cula
computacional desse me´todo (veja a figura 5.40), envolve pontos a` direita e a` esquerda
do ponto a ser calculado. Nesse caso podemos optar entre utilizar um outro me´todo com
mole´cula assime´trica para o ca´lculo da soluc¸a˜o em x = 1, ou enta˜o introduzir artificial-
mente uma condic¸a˜o de fronteira em x = 1, que e´ conhecida como condic¸a˜o de fronteira
nume´rica. Dois aspectos, no entanto, devem ser considerados quando utilizamos cada uma
das opc¸o˜es acima. No primeiro caso, devemos tomar cuidado se optarmos pela utilizac¸a˜o
de um me´todo de ordem mais baixa pois este pode diminuir a ordem da aproximac¸a˜o final
e eventualmente produzir instabilidades. No segundo caso, especialmente em se tratando
da soluc¸a˜o de sistemas de equac¸o˜es, a condic¸a˜o de fronteira nume´rica comporta-se como
um refletor das ondas que se propagam de dentro do domı´nio, gerando reflexo˜es espu´rias
na soluc¸a˜o, contaminando-a (vide [41]). Um me´todo dissipativo amortece os efeitos dessas
soluc¸o˜es paras´ıticas diminuindo seus efeitos na soluc¸a˜o nume´rica. Mais acerca desse assunto,
na discussa˜o sobre dissipac¸a˜o e dipersa˜o.
198 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
Esquema Leap Frog
Esse esquema envolve treˆs n´ıveis de tempo e tem precisa˜o de segunda ordem. O me´todo
de Leap Frog envolve quatro pontos da malha:
P = (ih, (j + 1)k), W = (ih, (j − 1)k), Q = ((i− 1)h, jk) e T = ((i+ 1)h, jk),
com mole´cula dada pela figura 5.41.
Q
P
W
T
Figura 5.41: Mole´cula do esquema Leap Frog
O esquema utiliza diferenc¸a central em x e t sendo dado por:
UP = UW − νa(UT − UQ)
ou genericamente por
Ui,j+1 = Ui,j−1 − νa (Ui+1,j − Ui−1,j) .
Esse me´todo e´ esta´vel para 0 < νa ≤ 1, que coincide com a condic¸a˜o CFL.
E´ um esquema de dois passos e necessita, portanto, de mais um n´ıvel de tempo no in´ıcio
do processo (j = 1), que geralmente e´ calculado por algum outro me´todo de passo 1.
Me´todo de Beam–Warming
Para obter-se um me´todo com melhor precisa˜o podemos lanc¸ar ma˜o do uso de um nu´mero
maior de pontos na mole´cula computacional desse me´todo, por exemplo como no caso do
me´todo de Lax-Wendroff que e´ de ordem 2 e usa 3 pontos. O me´todo de Beam–Warming e´
assime´trico e utiliza 3 pontos sendo dado por:
Ui,j+1 = Ui,j − νa
2
(3Ui,j − 4Ui−1,j + Ui−2,j) + ν
2a2
2
(Ui,j − 2Ui−1,j + Ui−2,j) .
Me´todo de MacCormack
Uma maneira alternativa de construc¸a˜o de um me´todo de ordem superior e´ atrave´s
da introduc¸a˜o de um passo intermedia´rio imitando um previsor–corretor. O me´todo de
5.2. DIFERENC¸AS FINITAS PARA A EQUAC¸A˜O DE ADVECC¸A˜O 199
MacCormack foi constru´ıdo inicialmente para problemas gerais na forma conservativa, no
entanto para o caso particular da equac¸a˜o de advecc¸a˜o esse esquema reduz-se a:
Ui,j+ 1
2
= Ui,j − νa (Ui+1,j − Ui,j)
Ui,j+1 =
1
2
(
Ui,j − Ui,j+ 1
2
)
− νa
2
(
Ui,j+ 1
2
− Ui−1,j+ 1
2
)
.
Fo´rmulas de Diferenc¸as Finitas Impl´ıcitas
Apresentaremos agora fo´rmulas de diferenc¸as finitas impl´ıcitas. Tais fo´rmulas so´ podem
ser aplicadas para problemas de valor de fronteira.
Um t´ıpico problema dessa classe, para a equac¸a˜o hiperbo´lica de primeira ordem, e´
fornecido por (5.37), com a condic¸a˜o inicial:
u(x, 0), 0 < x <∞,
mais a condic¸a˜o de fronteira:
u(0, t), 0 ≤ t <∞.
Nesta sec¸a˜o apresentaremos dois me´todos: um impl´ıcito de primeira ordem e o me´todo
de impl´ıcito de Wendroff.
Esquema Impl´ıcito de Primeira Ordem
O mais simples me´todo impl´ıcito envolve os pontos:
P = (ih, (j + 1)k), V = ((i− 1)h, (j + 1)k) e S = (ih, jk).
A mole´cula associada e´ aquela da figura (5.42).
P
S
V
Figura 5.42: Mole´cula do me´todo impl´ıcito
Usando o desenvolvimento de uS em se´rie de Taylor e a relac¸a˜o das derivadas, propiciada
pela equac¸a˜o temos:
uS = uP − k ∂
∂t
uP +
k2
2!
∂2
∂t2
uP − · · ·
uS = uP + ak
∂
∂x
uP +
a2k2
2!
∂2
∂x2
uP + · · · .
200 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
Considerando apenas o termo de primeira ordem na expansa˜o e utilizando a aproximac¸a˜o
∂
∂x
uP ≃ 1
h
(uP − uV ),
teremos
US = UP + νa(UP − UV )
US = (1 + νa)UP − νaUV .
ou genericamente
Ui,j = (1 + νa)Ui,j+1 − νaUi−1,j+1.
Este me´todo e´ incondicionalmente esta´vel.
Note que no caso da presenc¸a de uma fronteira a` esquerda podemos calcular Ui,j+1
explicitamente se caminharmos sempre da esquerda para a direita. Caso a fronteira seja
fixada a` direita, seria preciso deduzir um me´todo onde V estaria a` direita de P e enta˜o
caminhar´ıamos da direita para a esquerda.
Esquema Impl´ıcito de Wendroff
Uma outra fo´rmula impl´ıcita e´ atribuida a Wendroff, a qual e´ tambe´m conhecida como
me´todo box. Essa fo´rmula envolve os seguintes pontos:
P = (ih, (j + 1)k), W = ((i+ 1)h, (j + 1)k), S = (ih, jk) e T = ((i+ 1)h, jk),
com mole´cula da forma mostrada na figura (5.43).
P
S
T
W
Figura 5.43: Mole´cula do esquema impl´ıcito de Wendroff
O me´todo e´ obtido da seguinte maneira:
∆xuS = uT − uS (por definic¸a˜o).
Assim,
uT = (1 +∆x)uS .
Mas,
uT =
(
uS + h
∂
∂x
uS +
h2
2!
∂2
∂x2
uS + · · ·
)
= exp
(
h
∂
∂x
)
uS .
5.2. DIFERENC¸AS FINITAS PARA A EQUAC¸A˜O DE ADVECC¸A˜O 201
Logo,
1 + ∆x = exp
(
h
∂
∂x
)
,
ou
∂
∂x
=
1
h
log(1 + ∆x).
De maneira ana´loga:
∂
∂t
=
1
k
log(1 + ∆t).
Substituindo essa expressa˜o na equac¸a˜o (5.37), obtemos:
log(1 + ∆t)uS = −νa log(1 + ∆x)uS
ou
uP = (1 +∆x)
−νauS . (5.43)
Note que o operador (1 + ∆x)
−νa na˜o possui uma expressa˜o o´bvia e simples em termos
de poteˆncias inteiras de (1 + ∆x), o que permitiria sua aplicac¸a˜o na malha retangular em
questa˜o. Para solucionar esse problema propomos que o operador em (5.43) seja aproximado
como na expressa˜o abaixo:
uP = (1 + α∆x)
−1(1 + β∆x)uS , (5.44)
onde α e β sa˜o constantes arbitra´rias a serem convenientemente determinadas.
Expandindo os lados direitos das equac¸o˜es (5.43) e (5.44) e igualando os coeficientes de
∆x e ∆
2
x, encontramos:
α =
1
2
(1 + νa), β =
1
2
(1− νa).
Logo,
[1 +
1
2
(1 + νa)∆x]uP = [1 +
1
2
(1− νa)∆x]uS .
Esta fo´rmula e´ novamente incondicionalmente esta´vel e pode ser explicitada na forma:
UW = US +
1− νa
1 + νa
(UT − UP ),
ou genericamente
Ui+1,j+1 = Ui,j +
1− νa
1 + νa
(Ui+1,j − Ui,j+1),
a qual juntamente com as condic¸o˜es iniciais e de fronteira a` esquerda do domı´nio permite o
ca´lculo de aproximac¸o˜es (expl´ıcitas) para todos os pontos da malha.
Note que se a fronteira estiver a` direita tambe´m e´ poss´ıvel a determinac¸a˜o expl´ıcita a
partir de UP .
202 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
Observac¸a˜o 5.2.1 Evidentemente outros esquemas nume´ricos podem ser construidos con-
siderando-se diferentes mole´culas computacionais, pore´m as te´cnicas sa˜o semelhantes. O
leitor e´ estimulado a experimentar com outros me´todos de criac¸a˜o pro´pria. O leitor e´ tambe´m
fortemente encorajado, para na˜o dizer obrigado, a considerar a adaptac¸a˜o dos me´todos aqui
apresentados para o caso em que a ≡ a(x, t, u). Nos exerc´ıcios apresentamos um roteiro
para essa tarefa!
Dissipac¸a˜o e Dispersa˜oPara uma noc¸a˜o intuitiva dos conceitos de dissipac¸a˜o e dispersa˜o consideremos uma
func¸a˜o perio´dica u(t) de per´ıodo T e uma aproximac¸a˜o gene´rica U(t) de u(t). A func¸a˜o u(t)
pode ser pensada como o deslocamento de uma part´ıcula no tempo, e nesse caso o gra´fico
de u(t) e´ dado pela figura 5.44.
t
u(t)
Figura 5.44: Posic¸a˜o da part´ıcula no tempo t
Por outro lado, essa mesma func¸a˜o u(t) pode ser considerada como a trajeto´ria da
part´ıcula no espac¸o de fase, que e´ parametrizada pela func¸a˜o t→ (u(t), u′(t)). Nesse caso o
gra´fico e´ a curva fechada apresentada na figura 5.45.
u’(t) x
t=0
u(t)
Figura 5.45: Trajeto´ria da part´ıcula no tempo t
Vamos imaginar que o in´ıcio seja em t = 0 e que apo´s um tempo t0 a part´ıcula tenha
percorrido a trajeto´ria ate´ o ponto assinalado com x na figura ??. A aproximac¸a˜o U(t) pode
5.2. DIFERENC¸AS FINITAS PARA A EQUAC¸A˜O DE ADVECC¸A˜O 203
desviar da soluc¸a˜o correta u(t) de 3 maneiras distintas. A primeira situac¸a˜o e´ caracterizada
pelo crescimento do erro na soluc¸a˜o aproximada e o conseguente desvio da trajeto´ria da
part´ıcula como ilustrado pelas figuras 5.46. Dizemos neste caso que a soluc¸a˜o aproximada
U(t) e´ insta´vel.
u’(t) x
t=0
u(t)
x
U(t)
t
u(t)
Figura 5.46: Instabilidade da soluc¸a˜o aproximada
A segunda situac¸a˜o e´ caracterizada pelo oposto da primeira, isto e´, a trajeto´ria da
part´ıcula desvia-se para o interior da curva, nesse caso temos um amortecimento da soluc¸a˜o
e dizemos que a soluc¸a˜o aproximada e´ dissipativa, conforme ilustrado nas figuras 5.47
u’(t) x
t=0
u(t)
t
u(t)
U(t)
x
Figura 5.47: Dissipac¸a˜o da soluc¸a˜o aproximada
A u´ltima possibilidade e´ caracterizada quando a soluc¸a˜o aproximada percorre a mesma
trajeto´ria da soluc¸a˜o exata mas com velocidade diferente como ilustrado na figura 5.48.
Temos nesse caso o fenoˆmeno de dispersa˜o.
Vemos que nos dois primeiros casos a soluc¸a˜o e´ “amplificada” por um fator de ampli-
ficac¸a˜o maior ou menor do que um e no terceiro a dispersa˜o esta´ relacionada com a velocidade
com que a soluc¸a˜o aproximada percorre a trajeto´ria.
Em geral, na pra´tica, acontece uma combinac¸a˜o desses fenoˆmenos.
Discutiremos em seguida de forma mais te´cnica a dissipac¸a˜o e dispersa˜o no contexto de
diferenc¸as finitas, para equac¸a˜o hiperbo´lica escalar:
ut + aux = 0 (a > 0), (5.45)
no semiplano {t > 0,−∞ < x <∞}.
Se o dado inicial e´ desenvolvido em uma se´rie de Fourier
204 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
u’(t) x
t=0
u(t)
t
u(t)
x
Figura 5.48: Dispersa˜o da soluc¸a˜o aproximada
u(x, 0) =
∞∑
j=0
Aje
Iβjx
enta˜o, pela linearidade do problema, as propriedades da soluc¸a˜o podem ser avaliadas pela
propagac¸a˜o de um u´nico modo de Fourier eIβx. Considerando enta˜o u(x, 0) = eIβx, a soluc¸a˜o
em (5.45) e´ dada por:
u(x, t) = eIβ(x−at) (5.46)
e assim cada “modo” e´ transportado com amplitude unita´ria e velocidade constante a inde-
pendente da frequeˆncia β.
Investigaremos agora as correspondentes propriedades de diferenc¸as finitas substitu´ıdas
em (5.45). O passo inicial na ana´lise segue do me´todo de Von Neumann para estabilidade,
onde assumimos que as aproximac¸o˜es finitas Um,n podem ser expressas como
Um,n = ζ
neIβxm . (5.47)
A substituic¸a˜o dessa expressa˜o na equac¸a˜o de diferenc¸a apropriada produz uma expressa˜o
para o fator de ampliac¸a˜o ζ. E´ conveniente escrever ζ = |ζ|e−Iβαk, assim (5.47) se torna
Um,n = |ζ|neIβ(xm−αtn), (tn = nk), (5.48)
que permite uma comparac¸a˜o mais direta com a soluc¸a˜o exata (5.46).
Se o fator de ampliac¸a˜o ζ tem mo´dulo maior que um, o me´todo e´ insta´vel e se
|ζ| ≤ 1− σ(βh)2s, (|βh| ≤ π), (5.49)
para alguma constante positiva σ e algum inteiro positivo s, o correspondente me´todo de
diferenc¸a finita e´ dissipativo de ordem 2s.
Exemplo 5.2.1 O me´todo de Lax-Wendroff e´ dissipativo de ordem 4.
O fator de ampliac¸a˜o ζ e´:
|ζ| =
[
1− 4τ2(1 − τ2) sen4 βh
2
]1/2
, (τ = νa).
5.2. DIFERENC¸AS FINITAS PARA A EQUAC¸A˜O DE ADVECC¸A˜O 205
Para τ2 ≤ 1 esta expressa˜o tem decaimento mono´tono de valor |ζ| = 1 em βh = 0 e
|ζ| = |1− 2τ2| em βh = π. Para pequenos valores de βh, encontramos, pela se´rie de Taylor,
que
|ζ| ≃ 1− τ
2
2
(1− τ2)(βh)4
e a ordem de dissipac¸a˜o na˜o pode, desta forma ser menor que 4. A desigualdade (5.49) e´
satisfeita para σ = τ
2
2 (1− τ2)π4, por exemplo.
Exemplo 5.2.2 O me´todo de Leap Frog na˜o e´ dissipativo, pois |ζ| = 1.
As soluc¸o˜es de esquemas dissipativos decaem para zero quando n → ∞ e assim eles
podem na˜o ser apropriados para integrar equac¸o˜es hiperbo´licas sobre longos intervalos de
tempo. O decaimento de modos de alta frequeˆncia e´ muito maior que os de baixa frequeˆncia;
isto significa que, para dados iniciais gerais, a soluc¸a˜o nume´rica sera´ suavizada, bem como
amortecida quando ela avanc¸a no tempo.
As propriedades de dispersa˜o das aproximac¸o˜es de diferenc¸a relacionam-se com a ve-
locidade de propagac¸a˜o da soluc¸a˜o nume´rica. Referente a` representac¸a˜o (5.48) da soluc¸a˜o
nume´rica, o me´todo e´ dito ser dispersivo se a velocidade de propagac¸a˜o α depende da
frequeˆncia β.
Novamente usando o me´todo da Lax-Wendroff, para efeito de ilustrac¸a˜o, o fator de
amplificac¸a˜o ζ pode ser expresso na forma |ζ| = e−Iβαk, desde que α seja escolhido de modo
a satisfazer
tan(αβk) =
τ senβh
1− 2τ2 sen2 12βh
. (5.50)
Claramente α depende da frequeˆncia β e o me´todo e´ desta forma dispersivo, de fato
para βh ≃ π, vemos que esta˜o pro´ximas de ser estaciona´rias. Para ondas de frequeˆncia
baixa, βh e´ pequeno e podemos usar expansa˜o em se´rie de Taylor para estimar α. Usando
as aproximac¸o˜es:
senβh = βh− (βh)
3
6
e (1− x)−1 ≃ 1 + x,
segue de (5.50) que
tan(αβk) ≃ τβh(1 + (βh)
2
6
(3τ2 − 1)).
Agora, desde que:
tan−1x ≃ x− x
3
3
,
obtemos:
206 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
αβk ≃ τβh(1 − (βh)
2
6
(1− τ2))
que leva a
α ≃ a(1− (βh)
2
6
(1− τ2)).
Isto mostra que α < a para modos de baixa frequeˆncia, e a soluc¸a˜o nume´rica, desta forma,
fica atra´s da soluc¸a˜o verdadeira, isto e´, existe um erro da fase. A magnitude do erro da fase
aumenta com a frequeˆncia e resulta em uma perda de precisa˜o que e´ particularmente evidente
quando o dado inicial esta´ na forma de um sinal bem definido (por exemplo, uma func¸a˜o
escada). Efeitos dispersivos sa˜o usualmente menos evidentes em esquemas dissipativos, ja´
que os modos com maior erro de fase sa˜o aqueles que sa˜o excessivamente amortecidos. Por
esta raza˜o, frequentemente, e´ bene´fico introduzir mecanismos dissipativos em esquemas de
diferenc¸a dispersivos. Mais detalhes podem ser obtidos em [TRE86].
5.3 Diferenc¸as Finitas para a Equac¸a˜o da Onda
Consideremos, agora, a equac¸a˜o da onda
utt − a2uxx = 0,
u(x, 0) = f(x), 0 ≤ x ≤ 1
ut(x, 0) = g(x), 0 ≤ x ≤ 1
u(0, t) = h1(x), t > 0
u(1, t) = h2(x), t > 0.
Praticamente todas as te´cnicas anteriores se aplicam aqui, com as devidas adaptac¸o˜es.
Assim, optamos por uma abordagem mais gene´rica, usando diferenc¸as centrais e fazendo
uma me´dia ponderada de valores dos esta´gios j − 1, j e j + 1. Temos enta˜o:
Ui+1,j − 2Ui,j + Ui−1,j
k2
=
a2
h2
{η (Ui+1,j+1 − 2Ui+1,j + Ui+1,j−1)
+ (1− 2η) (Ui,j+1 − 2Ui,j + Ui,j−1) (5.51)
+ η (Ui−1,j+1 − 2Ui−1,j + Ui−1,j−1)} ,
cujo erro de truncamento, para ν = kh e´:
a2h2k2
[
1
12
(1− ν2) + ην2
]
utttt + · · · .
A ana´lise da estabilidade, por von Neumann, leva a:
5.3. DIFERENC¸AS FINITAS PARA A EQUAC¸A˜O DA ONDA 207
e2λ − 2
(
1− 2ν
2 sen βk2
1 + 4ην2 sen βk2
)
eλ + 1 = 0.
Com um pouco de a´lgebra e´ poss´ıvel demonstrar que teremos me´todos:
incondicionalmente esta´vel se η ≥ 1
4
e ν <∞
e condicionalmente esta´vel se 0 < η <
1
4e 0 < ν <
1
1− 4η .
Observac¸a˜o 5.3.1 E´ importante chamar a atenc¸a˜o para o fato de que o me´todo (5.51) e´
um esquema de dois passos e portanto e´ necessa´rio o conhecimento da soluc¸a˜o em dois n´ıveis
iniciais de tempo, da mesma forma que o me´todo Leap Frog.
A ana´lise da estabilidade pelo me´todo da matriz (veja a sec¸a˜o (3.2)), para o me´todo
obtido tomando η = 1/2 em (5.51), pode ser feita, para Nh = 1 e σ = k
2a2
h2 , como segue.
Na notac¸a˜o do cap´ıtulo 3, a forma matricial da equac¸a˜o de diferenc¸as (5.51) para η = 12
e´:
AUj+1 = 2Uj −AUj−1 − cj
onde o vetor cj conte´m informac¸o˜es das condic¸o˜es de fronteira,
A =


1 + σ −σ2 0 . . . 0−σ2 1 + σ −σ2 . . . 0
...
...
0 . . . −σ2 1 + σ −σ2
0 . . . 0 −σ2 1 + σ


e Uj e´ o vetor Uj = (U1,j , U2,j, · · · , UN−1,j)T .
Podemos enta˜o considerar o vetor erro ej que satisfaz:
ej+1 = 2A
−1ej − ej−1. (5.52)
Uma maneira de continuarmos a ana´lise do comportamento desse erro, da´-se pela ob-
servac¸a˜o de que (5.52) pode ser reescrita na forma:(
ej+1
ej
)
=
(
2A−1 −I
I Θ
)(
ej
ej−1
)
ou seja,
Ej+1 = PEj .
208 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
O crescimento do erro depende enta˜o dos autovalores de P , que sa˜o obtidos da equac¸a˜o
det
(
2λ−1j − λ 1
1 −λ
)
= 0
onde λj e´ autovalor da matriz A. Os autovalores de A sa˜o conhecidos, pois essa matriz tem
uma estrutura que permite calcula´-los explicitamente,
λj = 1 + σ(1− cos
(
jπ
N
)
), j = 1, 2, . . . , N − 1.
Logo, calculando o determinante, e´ imediato verificar que todos os autovalores λ de P
satisfazem |λ| < 1 e conclu´ımos que esse me´todo e´ incondicionalmente esta´vel.
Em relac¸a˜o a condic¸a˜o CFL, devemos notar que para a equac¸a˜o da onda o domı´nio de
dependeˆncia nume´rica deve conter ambas as caracter´ısticas passando por um ponto P da
malha. Um exemplo concreto da necessidade da condic¸a˜o CFL para a convergeˆncia de um
me´todo de diferenc¸as finitas para a equac¸a˜o da onda foi apresentado por Isaacson ( [IK66]
pa´gina 488).
Suponhamos que queremos resolver a equac¸a˜o da onda,
utt − a2uxx = 0, a > 0
u(x, 0) = f(x), ∀x,
ut(x, 0) = g(x), ∀x,
que assumimos ter u(x, t) como soluc¸a˜o .
Seja agora o mesmo problema com as condic¸o˜es iniciais
u(x, 0) = f(x), ∀x,
ut(x, 0) = g
∗(x) = g(x) +
{
0 x ≤ c
4a(x− c) x ≥ c (5.53)
onde c e´ um nu´mero fixo e arbitra´rio.
Pode ser demonstrado (ver exerc´ıcio (5.28)) que a soluc¸a˜o da equac¸a˜o da onda com as
condic¸o˜es iniciais (5.53), e´:
u∗(x, t) = u(x, t) +
{
0 x+ at ≤ c
(x+ at− c)2 x+ at ≥ c ≥ x− at
4at(x− c) x− at ≥ c
. (5.54)
As inclinac¸o˜es das caracter´ısticas sa˜o ± 1a e as “inclinac¸o˜es ” dos pontos da malha
(domı´nio de dependeˆncia nume´rica) sa˜o ± kh . A condic¸a˜o CFL impo˜e kh ≤ 1a .
Consideremos um me´todo de diferenc¸as finitas e uma discretizac¸a˜o do eixo x que tenha c
como um dos pontos dessa discretizac¸a˜o, qualquer que seja o refinamento da mesma, ou seja,
para cada h→ 0 existe um ı´ndice m tal que xm = c. Se U e U∗ sa˜o as as soluc¸o˜es nume´ricas
dos dois problemas acima com as diferentes condic¸o˜es iniciais, que sa˜o coincidentes para
x ≤ c, haveremos de ter U∗(xi, tj) = U(xi, tj) para xi + hk tj ≤ c.
5.3. DIFERENC¸AS FINITAS PARA A EQUAC¸A˜O DA ONDA 209
Se a malha e´ tal que a condic¸a˜o CFL e´ violada teremos pontos (xi, tj) que satisfazem
simultaneamente as seguintes condic¸o˜es :
xi +
h
k
tj ≤ c e xi + atj ≥ c ≥ xi − atj . (5.55)
Na figura (5.49) as caracter´ısticas correspondem a`s linhas cheias enquanto que as in-
clinac¸o˜es nume´ricas correspondem a`s linhas tracejadas. A regia˜o hachurada entre essas
linhas inclue os pontos da condic¸a˜o (5.55) e demarca os pontos onde as soluc¸o˜es nume´ricas
U e U∗ coincidem, mas as soluc¸o˜es exatas na˜o. Por outro lado a regia˜o hachurada abaixo da
caracter´ıstica demarca os pontos onde as soluc¸o˜es exatas coincidem, assim como as soluc¸o˜es
nume´ricas. O argumento de que o me´todo na˜o pode ser convergente e´ consequeˆncia da ob-
servac¸a˜o de que, na regia˜o hachurada entre a caracter´ıstica e a inclinac¸a˜o nume´rica, sendo
as soluc¸o˜es nume´ricas coincidentes, temos U = U∗ → u(6= u∗) e portanto na˜o podemos ter
U∗ → u∗, ou seja, fazendo h → 0 e k → 0 com hk fixo, tal que para qualquer refinamento
existe i com xi = c, na˜o havera´ convergeˆncia de U
∗(x, t) para u∗(x, t) e portanto a condic¸a˜o
CFL e´ essencial para a convergeˆncia do me´todo.
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
����������
�
�
�
�
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
���������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�������������
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
������������������������������������������������������
������������������������������������������������������
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
����
����
����
����
����
����
����
����
����
����
����
����
Soluções Exatas Coincidentes
Soluções Numéricas Coincidentes
c x
x+at=c
x+(h/k)t=c
Figura 5.49: Ilustrac¸a˜o das regio˜es onde as soluc¸o˜es
nume´ricas coincidem mas as exatas na˜o
Me´todos para a Sistemas de Segunda Ordem
Como vimos, a equac¸a˜o da onda pode ser colocada na forma de um sistema de equac¸o˜es
de primeira ordem. Assim e´ poss´ıvel utilizar praticamente todos os me´todos estudados
(para a equac¸a˜o de advecc¸a˜o ), devidamente adaptados, para a equac¸a˜o da onda na forma
de sistema. A dificuldade mais presente na soluc¸a˜o de sistemas esta´ associada a` prescric¸a˜o de
uma fronteira nume´rica a exemplo dos me´todos de Lax–Wendroff e Leap Frog. Teoricamente
e´ poss´ıvel prescrever essesvalores de maneira adequada, mas para isso seria necessa´rio
transformar o sistema na sua forma canoˆnica via o ca´lculo dos seus autovalores, o que
na˜o e´ via´vel na pra´tica. Para superar o problema de prescrever uma fronteira nume´rica,
210 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
te´cnicas baseadas em heur´ısticas foram propostas por va´rios autores, como por exemplo a
utilizac¸a˜o da direc¸a˜o das caracter´ısticas para orientar a imposic¸a˜o da quantidade e a selec¸a˜o
das varia´veis sob as quais devemos impor condic¸o˜es. O nu´mero de condic¸o˜es de fronteira
deve sempre ser compat´ıvel com o nu´mero de caracter´ısticas partindo da curva onde essa
condic¸a˜o sera´ imposta. Outra maneira de superar o problema da fronteira nume´rica e´ fazer
UN,j+1 = UN,j, ou seja, utilizar na fronteira o valor nos pontos adjacentes e interior ao
domı´nio.
Um me´todo bastante adequado para soluc¸a˜o da equac¸a˜o da onda na forma de sistema
(lembre-se que nesse caso a soluc¸a˜o da equac¸a˜o da onda e´ um vetor (u, v)T , veja (5.25))
e´ o me´todo Leap Frog em sua versa˜o compacta (equac¸o˜es em (5.56)), que usa uma malha
diferenciada (staggered grid), onde os valores da varia´vel u sa˜o localizados nos no´s da malha
e os valores de v sa˜o localizados nos centros das ce´lulas da malha (conforme figura (5.49)).
Na pra´tica isso corresponde a utilizarmos uma malha duas vezes mais fina que aquela da
notac¸a˜o .
O me´todo Leap Frog aplicado enta˜o ao sistema (5.25) produz o sistema de equac¸o˜es de
diferenc¸as;
Ui,j+1 − Ui,j + aν
(
Vi+ 1
2
,j+ 1
2
− Vi− 1
2
,j+ 1
2
)
= 0, i = 1, 2, . . . , N − 1
Vi+ 1
2
,j+ 3
2
− Vi+ 1
2
,j+ 1
2
+ aν (Ui+1,j+1 − Ui,j+1) = 0, i = 0, 1, . . .N − 1. (5.56)
+ ++
+U
V
i
j
Figura 5.50: Aplicac¸a˜o do me´todo Leap Frog para a
equac¸a˜o da onda na forma de sistema
Observa-se facilmente que se valores para u forem especificados em cada lado do domı´nio
o me´todo na˜o exigira´ valores extras para a fronteira nume´rica. Por outro lado, aplicac¸a˜o do
me´todo Leap Frog em uma malha co-localizada (unstaggered) exige a espeficac¸a˜o de u e v
em cada fronteira, sendo um deles portanto considerado fronteira nume´rica.
Me´todos para Equac¸o˜es Hiperbo´licas em Duas Dimenso˜es Espaciais
Alguns modelos simples de uma equac¸a˜o hiperbo´lica de dimensa˜o 2 para u = u(x, y, t)
sa˜o:
equac¸a˜o de advecc¸a˜o ut + aux + buy = 0
equac¸a˜o da onda utt − a2uxx − b2uyy = 0
equac¸a˜o de Burgers ut + uux + uuy = 0
sistemas conservativos ut + (f(u))x + (g(u))y = 0.
5.4. ME´TODOS NUME´RICOS PARA LEIS DE CONSERVAC¸A˜O 211
Vamos nessa sec¸a˜o apenas enfatizar que e´ poss´ıvel estender os me´todos ate´ aqui estudados
para equac¸o˜es de dimensa˜o maior ou igual a 2, principalmente os me´todos cla´ssicos, sem
significativa dificuldade. Devemos entretanto estar conscientes de que existe deficieˆncia na
pro´pria teoria que trata das equac¸o˜es hiperbo´licas multidimensionais.
Na˜o apenas os me´todos precisam ser adaptados, mas tambe´m as ana´lises de estabilidade,
incluindo a condic¸a˜o CFL. As te´cnicas entretanto sa˜o bastante semelhantes.
Muito do que foi feito para as equac¸o˜es parabo´licas multidimensionais pode ser adaptado
para as equac¸o˜es hiperbo´licas como por exemplo me´todos do tipo ADI, LOD e hopscotch.
O tratamento dos me´todos nume´ricos para equac¸o˜es com dimensa˜o 2, com abrangeˆncia
bastante razoa´vel pode ser encontrado em [32]. Para uma discussa˜o interessante sobre a
equac¸a˜o de Burgers ver [FLE91]. Me´todos TVD para equac¸o˜es hiperbo´licas em dimensa˜o 2
podem ser encontrados em [LG85]. Para uma discussa˜o mais espec´ıfica e abrangente sobre
me´todos para sistemas conservativos multidimensionais citamos [23], [39] e [33].
Os me´todos ate´ aqui estudados na˜o foram constru´ıdos especificamente para o tratamento
de descontinuidades e sa˜o comumente denominados me´todos cla´ssicos na literatura. Na
pro´xima sec¸a˜o estudaremos me´todos espec´ıficos para o tratamento desses problemas.
5.4 Me´todos Nume´ricos para Leis de Conservac¸a˜o
As equac¸o˜es hiperbo´licas na forma de conservac¸a˜o esta˜o sempre intimamente ligadas a`
presenc¸a de soluc¸o˜es com descontinuidades de contacto e choques. Problemas mais com-
plexos, como e´ o caso das equac¸o˜es de Euler para a dinaˆmica dos gases (ver [23]), impo˜em
dificuldades extremas em relac¸a˜o ao uso de caracter´ısticas. Isto incentivou a pesquisa
de me´todos de diferenc¸as finitas. Infelizmente, os me´todos cla´ssicos utilizando diferenc¸as
centrais na˜o produziram resultados satisfato´rios. Observac¸o˜es mais minuciosas levaram a`
criac¸a˜o dos me´todos upwind que consistem na utilizac¸a˜o de diferenc¸as assime´tricas de acordo
com a direc¸a˜o de propagac¸a˜o da soluc¸a˜o. Mais informac¸o˜es sobre me´todos upwind podem
ser obtidas nas refereˆncias [Harteen 1983], [van Leer 1985] e [Osher 1982].
As tentativas de construc¸a˜o de me´todos de ordem superior a um esbarram na presenc¸a
de fortes oscilac¸o˜es nas vizinhanc¸as das descontinuidades, uma vez que ha´ contaminac¸a˜o
da malha provocada pelas aproximac¸o˜es por diferenc¸as. Muita energia e esforc¸o foram
necessa´rios para a construc¸a˜o de me´todos de ordem mais alta que na˜o geram oscilac¸o˜es e
que sa˜o generaliza´veis para problemas mais complexos, por exemplo sistemas de equac¸o˜es
e problemas multidimensionais. Todas as melhorias e aperfeic¸oamento dos me´todos, jun-
tamente com a base teo´rica necessa´ria, foram desenvolvidos para problemas escalares e
posteriormente estendidos a problemas mais complexos.
Os caminhos naturais de tratamento de descontinuidades tiveram ao longo do tempo
pelo menos treˆs vertentes principais, ale´m do me´todo de amostragem uniforme; foram elas,
shock fitting, front tracking e shock capturing. Inicialmente, procurou-se via a utilizac¸a˜o
de informac¸o˜es sobre as caracter´ısticas, a construc¸a˜o de me´todos que seguissem as de-
scontinuidades (shock fitting) por meio da combinac¸a˜o das caracter´ısticas e tambe´m das
condic¸o˜es de Rankine–Hugoniot. Esses me´todos impo˜em se´rias dificuldades de programac¸a˜o
pois envolvem o ajuste automa´tico do choque, sendo de dif´ıcil generalizac¸a˜o para sistemas
de equac¸o˜es. Para uma introduc¸a˜o simples sobre esse assunto consultar [9] e para uma apre-
sentac¸a˜o mais completa veja [10]. Uma outra opc¸a˜o, tambe´m de dif´ıcil programac¸a˜o, consiste
na construc¸a˜o de me´todos cujo objetivo primeiro e´ acompanhar o desenvolvimento das de-
212 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
scontinuidades e suas interac¸o˜es domı´nio adentro (front tracking). Nesse me´todo procura-se
maior precisa˜o na localizac¸a˜o das descontinuidades. Para um detalhamento desse assunto
sugerimos a leitura de [11]. A vertente que mais teve sucesso foi aquela relacionada com
a construc¸a˜o de me´todos de diferenc¸as finitas com propriedades adequadas para evitar as
oscilac¸o˜es e que na˜o envolvem qualquer tratamento especial da descontinuidade (shock cap-
turing), cuja propriedade essencial deles exigida e´ conhecida como variac¸a˜o total amortecida
(Total Variation Diminishing) ou TVD.
Seguindo a filosofia de trabalho ate´ aqui adotada, apresentaremos esses me´todos para o
caso escalar. Isso possibilita o estudo das ide´ias conceituais e ba´sicas com a devida atenc¸a˜o
e clareza, as generalizac¸o˜es sa˜o relativamente simples, e o leitor encorajado a pesquisa´-las.
Para a construc¸a˜o de uma classe de me´todos conservativos convergentes para a soluc¸a˜o
entro´pica, utilizando conceitos mais sofisticados veja [AIS97].
Uma observac¸a˜o relevante e´ que sempre podemos resolver uma dada equac¸a˜o sem antes
coloca´-la na forma conservativa. A esse respeito, um exemplo dado em [23], que utiliza a
equac¸a˜o de Burgers e´ bastante importante pois mostra que para condic¸o˜es iniciais descon-
tinuas, pode haver convergeˆncia para uma outra soluc¸a˜o .Exemplo 5.4.1 Dada a equac¸a˜o de Burgers
ut + uux = 0
u(x, 0) =
{
1 x < 0
0 x ≥ 0
podemos resolveˆ-la pelo me´todo
Ui,j+1 − Ui,j + νUi,j (Ui,j − Ui−1,j) = 0.
Tomando uma discretizac¸a˜o em que x = 0 e´ um ponto da malha, podemos supor que
Ui,0 =
{
1 i < 0
0 i ≥ 0.
Por substituic¸a˜o na fo´rmula acima, obtemos Ui,1 = Ui,0, ∀i e portanto Ui,j = Ui,0, ∀i.
Fazendo h, k → 0 e mantendo x = 0 como um ponto da malha, temos que a soluc¸a˜o
nume´rica converge para:
u(x, t) =
{
1 x < 0 t > 0
0 x ≥ 0 t > 0
que como sabemos na˜o representa a real posic¸a˜o do choque, ou seja, a soluc¸a˜o nume´rica esta´
convergindo para uma outra soluc¸a˜o . Isto ocorre porque o me´todo usado na˜o e´ conservativo.
Entretanto, e´ preciso chamar a atenc¸a˜o para o fato de ser poss´ıvel construir me´todos na˜o
conservativos que convergem para a soluc¸a˜o de equac¸o˜es na forma conservativa (vide por
exemplo [TW90]).
Uma forma mais adequada para o me´todo nume´rico desse exemplo seria
Ui,j+1 − Ui,j + ν
2
(
U2i,j − U2i−1,j
)
= 0
que utiliza a func¸a˜o fluxo f(v) = 12v
2 pela qual a equac¸a˜o de Burgers fica na forma conser-
vativa.
5.4. ME´TODOS NUME´RICOS PARA LEIS DE CONSERVAC¸A˜O 213
Me´todo Conservativo
Dizemos que um me´todo de diferenc¸as finitas para aproximar a equac¸a˜o (5.14) esta´ em
forma consevativa (ou forma de conservac¸a˜o ou, ainda, forma de “fluxo”) quando ele pode
ser escrito da seguinte forma
Ui,j+1 = Ui,j − ν (φ(Ui,j , Ui+1,j)− φ(Ui−1,j , Ui,j))
= Ui,j − ν
(
φi+ 1
2
,j − φi− 1
2
,j
)
(5.57)
em que ν = k/h e φ e´ chamada func¸a˜o transportadora de fluxo ou fluxo nume´rico. A func¸a˜o
fluxo nume´rico deve ser tal que represente uma me´dia da func¸a˜o fluxo da equac¸a˜o na malha,
ou seja:
φ(Ui,j , Ui+1,j) =
1
k
∫ tj+1
tj
f(u(xi+ 1
2
, t))dt
Uma condic¸a˜o a ser exigida da func¸a˜o de fluxo nume´rico e´ que esta seja consistente com
a func¸a˜o de fluxo da equac¸a˜o . Isso significa que φ deve satisfazer
φ(u, u) = f(u).
De maneira geral podemos considerar as definic¸o˜es:
Definic¸a˜o 5.1 Um esquema de discretizac¸a˜o expl´ıcito
Ui,j+1 = w(Ui−p−1,j , . . . , Ui+q,j) (5.58)
onde w : IRp+q+2 → IR e´ uma func¸a˜o cont´ınua, pode ser posto na forma conservativa se
existe uma func¸a˜o de fluxo nume´rico φ : IRp+q+1 → IR tal que
Ui,j+1 = Ui,j − ν
(
φi+ 1
2
,j − φi− 1
2
,j
)
, (5.59)
onde φi+ 1
2
,j = φ(Ui−p,j , . . . , Ui+q,j) e ν = k/h.
Esta definic¸a˜o implica que um esquema conservativo satisfaz
+∞∑
i=−∞
Ui,j+1 =
+∞∑
i=−∞
Ui,j ,
ou seja, o total da quantidade U na˜o varia do tempo tj para o tempo tj+1. De fato, todo
esquema na forma (5.59) e´ conservativo, pois
+∞∑
i=−∞
Ui,j+1 =
+∞∑
i=−∞
Ui,j − ν
+∞∑
i=−∞
(
φi+ 1
2
,j − φi− 1
2
,j
)
=
+∞∑
i=−∞
Ui,j − ν
(
. . .+ φ− 3
2
,j + φ 1
2
,j + . . .− φ− 3
2
,j − φ 1
2
,j − . . .
)
=
+∞∑
i=−∞
Ui,j .
214 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
A primeira propriedade ba´sica que um esquema (5.59) deve satisfazer e´ a de consisteˆncia
com a lei de conservac¸a˜o (5.14). Observe que (Ui,j+1 −Ui,j)/k e´ uma apromaximac¸a˜o de ut
no ponto (xi, tj) da malha. Assim impomos que
(φ(Ui−p,j , . . . , Ui+q,j)− φ(Ui−p−1,j , . . . , Ui+q−1,j)) /h
seja uma aproximac¸a˜o de f(u)x no mesmo ponto da malha. Isto leva a` seguinte definic¸a˜o:
Definic¸a˜o 5.2 Um esquema de diferenc¸as (5.59) e´ consistente com a equac¸a˜o (5.14) se
φ(u, . . . , u) = f(u), ∀u ∈ IR
a menos de uma constante aditiva.
Praticamente todos os me´todos estudados podem ser colocados na forma conservativa.
Por exemplo, a aplicac¸a˜o do me´todo de Lax–Friedrichs para a equac¸a˜o escalar de conservac¸a˜o
fornece
Ui,j+1 =
1
2
(Ui+1,j + Ui−1,j)− ν
2
(f(Ui+1,j)− f(Ui−1,j)).
Esse me´todo e´ claramente conservativo, pois pode ser colocado na forma (5.57), com
φ(Ui,j , Ui+1,j) =
1
2
(f(Ui,j) + f(Ui+1,j))− 1
2ν
(Ui+1,j − Ui,j) .
Ja´ o me´todo de Lax-Wendroff aplicado a` mesma equac¸a˜o fornece:
Ui,j+1 − Ui,j = −ν
2
(f(Ui+1,j)− f(Ui−1,j)) +
+
ν2
2
[
Ai+ 1
2
(f(Ui+1,j)− f(Ui,j))−Ai− 1
2
(f(Ui,j)− f(Ui−1,j))
]
.
onde Ai± 1
2
e´ a matriz Jacobiana f ′(u) avaliada no ponto 12 (Ui,j + Ui±1,j).
Claramente este me´todo e´ computacionalmente oneroso, pois exige sucessivas avaliac¸o˜es
da matriz Jacobiana. Duas verso˜es conservativas desse me´todo, que evitam a avaliac¸a˜o da
matriz Jacobiana, foram desenvolvidas. Essas verso˜es utilizam um passo intermedia´rio para
manter a ordem do me´todo, que e´ 2, e sa˜o dadas por:
Me´todo de Richmyer ou Me´todo de Lax–Wendroff de Dois Passos
Ui+ 1
2
,j+ 1
2
=
1
2
(Ui,j − Ui+1,j)− ν
2
(f(Ui+1,j)− f(Ui,j))
Ui,j+1 = Ui,j − ν(f(Ui+ 1
2
,j+ 1
2
)− f(Ui+ 1
2
,j− 1
2
)).
5.4. ME´TODOS NUME´RICOS PARA LEIS DE CONSERVAC¸A˜O 215
Me´todo de MacCormack na Forma de Conservac¸a˜o
Ui,j+ 1
2
= Ui,j − ν(f(Ui+1,j)− f(Ui,j))
Ui,j+1 =
1
2
(Ui,j + Ui,j+ 1
2
)− ν
2
(f(Ui,j+ 1
2
)− f(Ui−1,j+ 1
2
)).
Observac¸a˜o 5.4.1 Como no caso da malha diferenciada, trabalha-se na pra´tica com uma
malha duas vezes mais fina do que aquela utilizada na notac¸a˜o .
Podemos dizer que os me´todos na forma conservativa ira˜o seguir corretamente o choque,
mas em geral, os me´todos ate´ aqui estudados causara˜o forte amortecimento no choque ou in-
troduzira˜o oscilac¸o˜es que prejudicam a soluc¸a˜o obtida. Outros me´todos foram desenvolvidos
com o propo´sito de resolver esses problemas. No que segue apresentamos uma introduc¸a˜o
ra´pida que inclue o me´todo da amostragem uniforme, o me´todo de Godunov e os me´todos
TVD.
Me´todo da Amostragem Uniforme
O me´todo random choice foi elaborado por Chorin [34] a partir de uma demonstrac¸a˜o de
existeˆncia de soluc¸a˜o para o modelo de dinaˆmica dos gases na forma de leis de conservac¸a˜o,
dada por Glymm [35]. Esse me´todo ao longo do tempo sofreu va´rias modificac¸o˜es na ten-
tativa de melhorar sua eficieˆncia. O leitor interessado nos detalhes dessa evoluc¸a˜o histo´rica
tera´ uma boa refereˆncia em Sod [36].
O objetivo deste me´todo e´ seguir a evoluc¸a˜o das descontinuidades e esta´ baseado na
soluc¸a˜o de uma sequeˆncia de problemas de Riemann. A condic¸a˜o CFL precisa estar garan-
tida para, como veremos, um problema de Riemann na˜o se sobrepor aos outros, ou em
outras palavras, que a descontinuidade (onda) de cada problema de Riemann na˜o tenha
interac¸a˜o com a dos demais problemas. O me´todo na˜o apenas discretiza a condic¸a˜o inicial,
mas a transforma em uma func¸a˜o constante por partes, criando inclusive poss´ıveis descon-
tinuidades.
Seja o problema de valor inicial
ut + (f(u))x = 0
u(x, 0) = u0(x), a ≤ x ≤ b, t > 0. (5.60)
Consideremos o intervalo [a, b] discretizado de tal maneira que xi = a + (i − 12 )h, i =
1, 2, . . . , n onde h = (b − a)/n, ou seja os pontos xi esta˜o situados no centro de cada
subintervalo.
| | | |
x x
. . .a ba+h a+2h21
Figura 5.51: Malha para o me´todo da amostragem uniforme
A estrate´gia para construc¸a˜o da soluc¸a˜o nume´rica, consiste em supor que esta seja con-
stante por partes em um determinado n´ıvel de tempo j, ou seja, Ui,j = u(x, tj), para
|x− xi| < h2 , observe a figura (5.52).
216 CAPI´TULO 5. EQUAC¸O˜ES HIPERBO´LICAS
U1j
U2j
Unj
| | | |
a ba+h a+2h
. . .
Figura 5.52: Valores da soluc¸a˜o no n´ıvel tj
Quando j = 0, a condic¸a˜o inicial e´ tambe´m considerada constante por partes isto e´
Ui,0 = u0(xi) no intervalo |x − xi| < h2 . Para avanc¸ar do tempo tj para o tempo tj+1
resolve-se n problemas de Riemann. O i-e´simo problema considera como condic¸a˜o inicial,
em todo eixo x, a func¸a˜o: (vide figura (5.54))
u0i(x) =
{
Ui,j se x ≤ a+ ih
Ui+1,j se x > a+ ih.
(5.61)
Toma-se a restric¸a˜o dessa soluc¸a˜o ao intervalo [a + ih,

Mais conteúdos dessa disciplina