Buscar

Introdução às EDP's

Prévia do material em texto

Capı´tulo 1
Espaços com produto interno
1.1 Preliminares
Conforme estudado no capítulo anterior, a definição de espaço vetorial envolve
a adição vetorial e a multiplicação por escalar, mas nenhuma operação entre vetores
que nos permitiria introduzir as noções de comprimento, distância, ângulo e ortogo-
nalidade. Para dar a um espaço vetorial uma estrutura geométrica, precisamos ter
uma terceira operação que generalize o conceito de produto escalar visto na geome-
tria analítica para vetores em duas e três dimensões. Relembremos alguns resultados
importantes da geometria analítica.
Definição 1.1. Dados vetores u e v do espaço vetorial Rn, então chamamos de pro-
duto escalar ao resultado u• v = u1v1+u2v2+ . . .+unvn.
Teorema 1.1. (Propriedades do produto escalar) Se u, v e w são vetores em Rn e k
é um escalar real, então:
1. u• v=v•u
2. (u+ v)•w = u•w+ v•w
3. ku• v = k(u• v)
4. v• v≥ 0 e v• v = 0 ⇐⇒ v = 0
Demonstração. A prova pode ser dada pela substituição das componentes e aplicação
da Definição 1.1
2 CAPÍTULO 1. ESPAÇOS COM PRODUTO INTERNO
Definição 1.2. Chamamos de norma, magnitude ou tamanho de um vetor v ∈ Rn
ao resultado ||v||=
√
v21+ v
2
2+ . . .v2n =
√
v• v.
Definição 1.3. Chamamos de distância entre dois vetores quaisquer u, v ∈ Rn ao
resultado d(u,v) = ||u− v||=√(u− v)• (u− v).
1.2 Generalizações para produto interno
Se tivermos uma uma operação que associa números reais a pares de vetores de
um espaço vetorial V de tal modo que valem as propriedades como para aqueles casos
n-dimensionais, então teremos garantido que os teoremas geométricos que valem
para os vetores emRn também são válidos para os de V . Vejamos a seguir os axiomas
de produto interno.
Definição 1.4. Um produto interno num espaço vetorial real V é uma função que
associa um único número real 〈u,v〉 a cada par de vetores u e v de V de tal modo que
as seguintes propriedades valem para quaisquer vetores u, v e w em V e qualquer
escalar k
1. 〈u,v〉=〈v,u〉
2. 〈u+ v,w〉= 〈u,w〉+ 〈v,w〉
3. 〈ku,v〉= k〈u,v〉
4. 〈v,v〉 ≥ 0 e 〈v,v〉= 0 ⇐⇒ v = 0
Um espaço vetorial com um produto interno é denominado um espaço com pro-
duto interno real e estas quatro propriedades são os axiomas de produto interno.
Definição 1.5. Se V é um espaço vetorial com produto interno, definimos a norma e
a distância de vetores de V com relação ao produto interno pelas fórmulas
||v||=
√
〈v,v〉
d(u,v) = ||u− v||=
√
〈u− v,u− v〉
e dizemos que u e v são ortogonais se 〈u,v〉= 0.
Exemplo 1.1. O produto escalar em Rn (também chamado de produto interno eu-
clideano) é o exemplo mais trivial de produto interno. Como os axiomas de produto
interno foram definidos a espelho das propriedades do produto escalar, sabemos que
〈u,v〉= u• v = uT v satisfaz os axiomas do produto interno.
1.2. GENERALIZAÇÕES PARA PRODUTO INTERNO 3
Exemplo 1.2. Se w1, w2, . . . , wn são números reais positivos e se u e v são vetores
em Rm, então a fórmula
〈u,v〉=
n
∑
i=1
wiuivi
define um produto interno em Rn (verifique) que é denominado produto interno
euclideano ponderado. A norma então é dada por
||x||=
√
〈x,x〉=
√
n
∑
i=1
wix2i .
O efeito da ponderação na geometria é importante, pois a ponderação do pro-
duto interno euclideano modifica comprimentos, distâncias e ângulos e desta forma a
ponderação altera a ortogonalidade e a forma de objetos geométricos. A próxima de-
finição e exemplo mostram que, ponderando o produto interno euclideano, o circulo
unitário é distorcido numa elipse.
Figura 1.1: Circulo distorcido para elipse.
Definição 1.6. Se V é um espaço com produto interno, definimos o círculo unitário
ou esfera unitária como o conjunto de pontos de V tais que ||x||= 1.
Exemplo 1.3. Se um espaço vetorial em R2 tem produto interno euclideano ponde-
rado
〈u,v〉= 1
9
u1v1+
1
4
u2v2,
então, se x = (x,y),
||x||=
√
〈x,x〉=
√
1
9
x2+
1
4
y2
4 CAPÍTULO 1. ESPAÇOS COM PRODUTO INTERNO
de modo que a equação do círculo unitário é√
1
9
x2+
1
4
y2 = 1
ou simplesmente
x2
9
+
y2
4
= 1
que é uma elipse.
Exemplo 1.4. Se f e g são funções contínuas no intervalo [a, b], então a fórmula
〈 f ,g〉=
∫ b
a
f (x)g(x)dx
define um produto interno no espaço C[a, b] que denominamos produto interno
integral. A norma de uma função f em relação e este produto interno vem a ser
|| f ||=
√
〈 f , f 〉=
√∫ b
a
[ f (x)]2dx.
Podemos provar que este produto interno integral satisfaz os axiomas da Defini-
ção 1.4. Faremos a verificação do axioma 1 e deixaremos como exercícios as demais
(basta aplicar as propriedades de integração):
〈 f ,g〉=
∫ b
a
f (x)g(x)dx =
∫ b
a
g(x) f (x)dx = 〈g, f 〉.
1.3 Propriedades algébricas de produtos internos
Vamos então estender os teoremas geométricos de Rn para os espaços com pro-
duto interno arbitrário.
Teorema 1.2. (Extensão do Teorema de Pitágoras) Se u e v são vetores ortogonais
num espaço com produto interno V , então temos que
||u+ v||2 = ||u||2+ ||v||2.
1.3. PROPRIEDADES ALGÉBRICAS DE PRODUTOS INTERNOS 5
Demonstração. Usando os axiomas de produto interno temos
||u+ v||2 = 〈u+ v,u+ v〉
= 〈u,u+ v〉+ 〈v,u+ v〉
= 〈u,u〉+ 〈u,v〉+ 〈v,u〉+ 〈v,v〉
= 〈u,u〉+2〈u,v〉+ 〈v,v〉
= ||u||2+ ||v||2
Teorema 1.3. (Desigualdade de Cauchy-Schwarz) Se u e v são vetores num espaço
com produto interno V , então
〈u,v〉2 ≤ ||u||2||v||2 e |〈u,v〉| ≤ ||u||||v||.
Demonstração. Se u e v são dois vetores quaisquer, então podemos considerar um
vetor w tal que 〈w,u〉= 0 e um escalar k tal que v= ku+w e então podemos escrever
0 = 〈u,w〉= 〈u,v− ku〉= 〈u,v〉− k〈u,u〉
ou então
k =
〈u,v〉
〈u,u〉 .
Uma vez que w e ku também são ortogonais, então podemos aplicar Pitágoras em
v = ku+w para obter
||v||2 = ||ku||2+ ||w||2 = k2||u||2+ ||w||2
ou seja
||v||2 = 〈u,v〉
2
〈u,u〉2 ||u||
2+ ||w||2
que multiplicando ambos os lados por ||u||2 vem
||u||2||v||2 = 〈u,v〉
2
〈u,u〉2 ||u||
4+ ||u||2||w||2
ou seja
||u||2||v||2 = 〈u,v〉2+ ||u||2||w||2
e finalmente como ||u||2||w||2 ≥ 0 então
〈u,v〉2 ≤ ||u||2||v||2 e |〈u,v〉| ≤ ||u||||v||.
6 CAPÍTULO 1. ESPAÇOS COM PRODUTO INTERNO
Teorema 1.4. (Desigualdade triangular) Se u, v e w são vetores em um espaço com
produto interno V , então
||u+ v|| ≤ ||u||+ ||v||
e
d(u,v)≤ d(u,w)+d(w,v).
Demonstração. Vide propriedades temos que
||u+ v||2 = 〈u+ v,u+ v〉
= ||u||2+2〈u,v〉+ ||v||2
≤ ||u||2+2|〈u,v〉|+ ||v||2
≤ ||u||2+2||u||||v||+ ||v||2 [Cauchy-Schwarz]
= (||u||+ ||v||)2
e também que
d(u,v) = ||u− v||
= ||(u−w)+(w− v)|| [Some e subtraia w]
≤ ||u−w||+ ||w− v|| [Desigualdade anterior]
= d(u,w)+d(w,v) [Definição de distância].
Exemplo 1.5.
1.4 Bases ortonormais
Lembremos que um conjunto de vetores ortogonais em Rn (produto escalar nulo)
é linearmente independente. O mesmo acontece para espaços com produto interno V
arbitrários.
Definição 1.7. Chamamos de polinômio trigonométrico a função da forma
f (x) = c0+ c1cos(x)+ c2cos(2x)+ . . .+ cncos(nx)+
+d1sen(x)+d2sen(2x)+ . . .+dnsen(nx).
Se cn e dn são não nulos, então dizemos que f (x) tem ordem n. Uma função constante
é considerada um polinômio trigonométrico de ordem zero.
1.4. BASES ORTONORMAIS 7
O conjunto de todos os polinômios trigonométricos de ordem no máximo n e o
subespaço de C(−∞,∞) gerado pelas funções do conjunto
S =
{
1, cos(x), cos(2x), . . . , cos(nx), sen(x), sen(2x), . . . , sen(nx)
}
.
Denotamos este espaço por Tn. Podemos mostrar que S é uma base ortogonal de
Tn em relação ao produto interno integral
〈 f ,g〉=
∫ 2pi
0
f (x)g(x)dx,
pois o conjunto S gera Tn, de modo que basta mostrar que S é um conjunto ortogonal,
pois a independência linear então decorre da ortogonalidade. Para provar que S é
um conjunto ortogonal precisamos provar que que é zero o produto interno de duas
funções distintas quaisquer deste conjunto, ou seja, que
〈1,cos(kx)〉=∫ 2pi
0
cos(kx) = 0, k = 1,2, . . . ,n
〈1,sen(kx)〉=
∫ 2pi
0
sen(kx) = 0, k = 1,2, . . . ,n
〈cos(px),cos(qx)〉=
∫ 2pi
0
cos(px)cos(qx) = 0, p,q = 1,2, . . . ,n p 6= q
〈sen(px),sen(qx)〉=
∫ 2pi
0
sen(px)sen(qx) = 0, p,q = 1,2, . . . ,n p 6= q
〈sen(px),cos(qx)〉=
∫ 2pi
0
sen(px)cos(qx) = 0, p,q = 1,2, . . . ,n
onde estas integrais são facilmente calculadas com as técnicas apropriadas. Já para
encontrar uma base ortonormal para Tn em relação ao produto interno integral, basta
normalizar as funções da base ortogonal S, ou seja, encontramos
||1||=
√
〈1,1〉=
√∫ 2pi
0
[1]2dx =
√
2pi
||cos(px)||=
√
〈cos(px),cos(px)〉=
√∫ 2pi
0
cos2(px)dx =
√
pi, p = 1,2, . . . ,n
||sen(px)||=
√
〈sen(px),sen(px)〉=
√∫ 2pi
0
sen2(px)dx =
√
pi, p = 1,2, . . . ,n
8 CAPÍTULO 1. ESPAÇOS COM PRODUTO INTERNO
e fazemos
S =
{
1√
2pi
,
cos(x)√
pi
,
cos(2x)√
pi
, . . . ,
cos(nx)√
pi
,
sen(x)√
pi
,
sen(2x)√
pi
, . . . ,
sen(nx)√
pi
}
.
1.5 Aplicação ao problema de aproximação
Muitos são os casos em que temos que aproximar uma função por uma combi-
nação linear de outras funções, como exemplo, podemos mencionar o método tau
de Lanczos para a resolução de equações diferenciais. Segue que este método apro-
xima a solução de uma equação diferencial por um polinômio e quando a equação
a ser aproximada envolve funções transcendentes estas devem ser transformadas em
polinômios para a possível aplicação do método.
Se uma função f tem que ser aproximada por outra fˆ em um intervalo [a, b],
uma forma de estimar o quão bem é a aproximação é considerar o erro ao longo do
intervalo, ou seja
E =
∫ b
a
| f (x)− fˆ (x)|dx
Figura 1.2: Função f sendo aproximada por fˆ .
que pode ser interpretado geometricamente como a área entre os gráficos de f e
fˆ ao longo do intervalo [a, b]. Assim, quanto melhor a aproximação, menor a área.
Embora esta fórmula seja atraente do ponto de vista geométrico, é muitas vezes mais
conveniente tomar o erro da aproximação de f por fˆ como sendo a distância entre f
e fˆ em relação ao produto interno integral de C[a, b], ou seja, como
E = d( f , fˆ ) = || f − fˆ ||=
√∫ b
a
[
f (x)− fˆ (x)]2 dx,
1.5. APLICAÇÃO AO PROBLEMA DE APROXIMAÇÃO 9
e como qualquer função fˆ que minimiza E também minimiza
Em =
1
b−a
∫ b
a
[
f (x)− fˆ (x)]2 dx,
dizemos que este é um problema de aproximação quadrado médio, uma vez que Em
é justamente o erro quadrado médio da aproximação de f por fˆ .
É natural esperar que a melhor aproximação quadrado médio esteja estreitamente
relacionada com a questão da ortogonalidade.
Teorema 1.5. Se w é um subespaço de dimensão finita de C[a, b] e se { f1, f2, . . . , fn}
é uma base ortonormal de W, então cada função f em C[a, b] tem uma única melhor
aproximação quadrado médio fˆ em W e esta aproximação é dada por
fˆ = 〈 f , f1〉 f1+ 〈 f , f2〉 f2+ . . .+ 〈 f , fn〉 fn
onde
〈 f , fk〉=
∫ b
a
f (x) fk(x)dx, k = 1,2, . . . ,n.
A seguir veremos duas importantes aplicações de espaços vetoriais com produto
interno para o problema de aproximação de funções.
1.5.1 Séries de Fourier
O caso em que os vetores da base são polinômios trigonométricos é particular-
mente importante porque a periodicidade destas funções as torna uma escolha natu-
ral no estudo de fenômenos periódicos. Contudo, o significado mais profundo dos
polinômios trigonométricos como vetores de base foi primeiro revelado pelo mate-
mático Joseph Fourier, que, ao longo de seus estudos de fluxo de calor, observou
que é possível aproximar os mais importantes tipos de funções com qualquer grau
de precisão usando polinômios trigonométricos de ordem suficientemente alta. Ve-
jamos como encontrar estas aproximações. Seja f uma função contínua no intervalo
[0, 2pi], vamos aproximar f por uma combinação linear daquela base ortonormal já
estudada
S =
{
1√
2pi
,
cos(x)√
pi
,
cos(2x)√
pi
, . . . ,
cos(nx)√
pi
,
sen(x)√
pi
,
sen(2x)√
pi
, . . . ,
sen(nx)√
pi
}
,
ou seja
S = { f0, f1, f2, . . . , fn, fn+1, fn+2, . . . , f2n} .
10 CAPÍTULO 1. ESPAÇOS COM PRODUTO INTERNO
Assim, a função aproximadora de f é
fˆ (x) = c f0+
n
∑
k=1
ak fk +bk fn+k,
onde
c = 〈 f , f0〉=
〈
f ,
1√
2pi
〉
=
∫ 2pi
0
f (x)
1√
2pi
dx
e para k = 1,2, . . . ,n
ak = 〈 f , fk〉=
〈
f ,
cos(kx)√
pi
〉
=
∫ 2pi
0
f (x)
cos(kx)√
pi
dx
bk = 〈 f , fn+k〉=
〈
f ,
sen(kx)√
pi
〉
=
∫ 2pi
0
f (x)
sen(kx)√
pi
dx.
Vamos aproximar a função f (x) = x como exemplo, então ao aplicar as técnicas
de integração apropriadas, obtemos
c = 〈x, f0〉=
〈
x,
1√
2pi
〉
=
∫ 2pi
0
x
1√
2pi
dx =
1√
2pi
[
x2
2
]∣∣∣∣∣
2pi
0
=
2pi2√
2pi
e para k = 1,2, . . . ,n
ak = 〈x, fk〉=
〈
x,
cos(kx)√
pi
〉
=
∫ 2pi
0
x
cos(kx)√
pi
dx
=
1√
pi
[
1
k2
cos(kx)+
x
k
sen(kx)
]∣∣∣∣∣
2pi
0
= 0
bk = 〈x, fn+k〉=
〈
x,
sen(kx)√
pi
〉
=
∫ 2pi
0
x
sen(kx)√
pi
dx
=
1√
pi
[
1
k2
sen(kx)− x
k
cos(kx)
]∣∣∣∣∣
2pi
0
= − 2pi
k
√
pi
.
1.5. APLICAÇÃO AO PROBLEMA DE APROXIMAÇÃO 11
e substituindo estes coeficientes em fˆ (verifique!) temos
x≈ pi−2
n
∑
k=1
sen(kx)
k
.
Figura 1.3: Aproximação por série de Fourier
Pode ser provado que se f é contínua no intervalo [0, 2pi], então o erro quadrado
médio na aproximação de Fourier de f de n-ésima ordem tende a zero quando n tendo
ao infinito. Isso é denotado escrevendo
f (x) =
a0
2
+
∞
∑
k=1
akcos(kx)+bksen(kx),
que é denominada a série de Fourier de f .
1.5.2 Polinômios ortogonais
Os chamados polinômios ortogonais desempenham um importante papel nas te-
orias de aproximação, e compõem também um espaço vetorial com produto interno.
Há muitos estudos sobre os polinômios ortogonais, os quais mostram que há uma
Fórmula de Rodrigues associada, uma função geradora, uma relação de recorrência,
uma função peso para a ortogonalidade, uma mudança de intervalo de ortogonalidade
ect. Dentre as várias sequências de polinômios ortogonais (Jacobi, Chebyshev, Le-
gendre, Gegenbauer, Hermite, Laguerre) vamos aplicar nesta seção os polinômios de
Legendre.
12 CAPÍTULO 1. ESPAÇOS COM PRODUTO INTERNO
Definição 1.8. São chamados polinômios de Legendre os polinômios que obedecem
a seguinte relação de recorrência à três termosxPn =
n+1
2n+1
Pn+1+
n
2n+1
Pn−1, n≥ 1
P0 = 1, P1 = x
.
Estes polinômios são ortogonais no intervalo [−1, 1] com respeito ao produto
interno
〈Pm,Pn〉=
∫ 1
−1
PmPndx,
ou seja, 〈Pm,Pn〉= 0 se m 6= n.
Com a relação de recorrência podemos obter os polinômios
P0 = 1
P1 = x
P2 =
3
2
x2− 1
2
P3 =
5
2
x3− 3
2
x
...
e vamos usá-los para aproximar, por exemplo, f (x) = cos(x). Então as contas a
serem feitas para obter a aproximação. Como comumente os cálculos são tediosos,
podemos invocar a ajuda de algum CAS como o Octave para realizar as contas:
Para fazer as normalizações devemos calcular
||Pn||=
√
〈Pn,Pn〉=
∫ 1
−1
P2n (x)dx.
% encontrando o tamanho dos polinomios para normalizacao.
n0 = sqrt(integral(@(x) x.^0,−1,1));
n1 = sqrt(integral(@(x) x.^2,−1,1));
n2 = sqrt(integral(@(x) ((3/2)∗x.^2−1/2).^2,−1,1));
n3 = sqrt(integral(@(x) ((5/2)∗x.^3−3/2∗x).^2,−1,1));
Os coeficientes (para serem usados com os vetores não normalizados) são
an =
1
||Pn||2
∫ 1
−1
f (x)Pn(x)dx.
1.6. CONCLUSÃO 13
% calculando os coeficientes.
a0 = 1/n0^2∗integral(@(x) cos(x).∗1,−1,1);
a1 = 1/n1^2∗integral(@(x) cos(x).∗x,−1,1);
a2 = 1/n2^2∗integral(@(x) cos(x).∗((3/2)∗x.^2−1/2),−1,1);
a3 = 1/n3^2∗integral(@(x) cos(x).∗((5/2)∗x.^3−3/2∗x),−1,1);
Finalmente a aproximação
cos(x)≈
3
∑
k=0
akPk(x).
% calculando o resultado evisualizando.
x = −1:0.01:1;
y = a0∗1+a1∗x+a2∗((3/2)∗x.^2−1/2)+a3∗((5/2)∗x.^3−3/2∗x);
hold on; plot(x, cos(x)); plot(x,y,"o");
Figura 1.4: Aproximação por polinômios de Legendre.
1.6 Conclusão
Vimos que os espaços vetoriais com produto interno são de grande importância
para a aproximação de funções, que por sua vez desempenham um papel fundamental
na solução de equações diferenciais ordinárias e parciais.
14 CAPÍTULO 1. ESPAÇOS COM PRODUTO INTERNO
Capı´tulo 2
Equações diferenciais parciais:
Métodos de solução de equações
diferenciais parciais
2.1 Motivação
As Equações Diferenciais Parciais (EDP) surgem ligadas aos mais diversos pro-
blemas físicos e geométricos quando as funções em questão dependem do tempo de
das dimensões espaciais. As derivadas parciais são capazes de relacionar taxas de
variação de uma função u(x1,x2, . . .) em cada uma de suas variáveis independentes,
e assim, descrever com boa precisão os fenômenos da natureza.
2.2 Definições
Uma EDP é uma equação que envolve uma função de duas ou mais variáveis
independentes u(x1,x2, . . .), e suas derivadas parciais. Uma vez que a incógnita de
uma EDP é uma função u, a questão da linearidade ou não linearidade do problema
está justamente atrelado a u.
Exemplo 2.1. Exemplos de EDP’s lineares
(a)
∂ 2u
∂x2
− ∂u
∂ t
= 0 (b)
∂ 2u
∂x2
− cos(x,y)∂
2u
∂y2
= sin(x,y)2
16 CAPÍTULO 2. EDP
Exemplo 2.2. Exemplos de EDP’s não-lineares
(a) u
∂ 2u
∂x2
− ∂u
∂ t
= 0 (b) cos
(
∂ 2u
∂x2
)
− cos(x,y)∂
2u
∂y2
= sin(x,y)2
Definição 2.1. A ordem de uma EDP é a ordem mais alta das derivadas parciais.
Definição 2.2. Define-se por EDP de segunda ordem linear, nas variáveis indepen-
dentes x e y e na variável dependente u(x,y), a equação
A
∂ 2u
∂x2
+B
∂ 2u
∂x∂y
+C
∂ 2u
∂y2
+D
∂u
∂x
+E
∂u
∂y
+Fu = G,
onde A,B,C,D,E,F e G são funções dependentes de x e y. Se G = 0 a EDP diz-se
homogênea e se G 6= 0 a EDP diz-se não homogênea.
Se uma EDP linear de segunda ordem tem A,B,D,E,F como sendo constantes
reais, então a EDP se classifica numa das seguintes formas:
• Elíptica se B2−4AC < 0
• Hiperbólica se B2−4AC > 0
• Parabólica se B2−4AC = 0
2.2.1 Equações clássicas
Algumas EDP’s são amplamente estudadas, e são conhecidas como EDP’s clás-
sicas. São oriundas de processos de modelagem matemática agregadas a leis físicas.
Algumas delas são (a) a equação unidimensional do calor, (b) a equação da onda e
(c) a equação de Laplace bidimensional.
(a) c2
∂ 2u
∂x2
=
∂u
∂ t
(b) a2
∂ 2u
∂x2
=
∂ 2u
∂ t2
(c)
∂ 2u
∂x2
+
∂ 2u
∂y2
= 0
2.3 Solução de EDP’s
Uma solução de uma EDP em n variáveis independentes x1, . . . , xn e y é uma
função u(x1, . . . ,xn) que possui todas as derivadas parciais que aparecem na EDP e
que satisfaz a mesma em alguma região Ω ⊂ Rn Por uma questão de simplicidade,
vamos restringir o problema a duas dimensões e propor alguns métodos de solução.
2.3. SOLUÇÃO DE EDP’S 17
2.3.1 Solução de EDP linear por separação de variáveis
Se pudermos admitir que a solução de uma EDP linear de segunda ordem com
duas variáveis independentes, x e y, pode ser escrita na forma do produto u(x,y) =
X(x)Y (y) então podemos escrever
∂u
∂x
= X ′Y,
∂u
∂y
= XY ′,
∂ 2u
∂x2
= X ′′Y e
∂ 2u
∂y2
= XY ′′,
onde as linhas denotam derivadas ordinárias. Com isto peguemos o exemplo da equa-
ção unidimensional do calor, que pode ser reescrita na forma
c
∂ 2u
∂x2
=
∂u
∂ t
⇒ cX ′′T = T ′X ⇒ X
′′
X
=
1
c
T ′
T
.
Esta equação final resulta em que a expressão no primeiro membro envolve so-
mente o espaço, enquanto a expressão no segundo membro envolve somente o tempo.
Assim, ambas as expressões devem ser iguais a uma constante k, porque se a expres-
são no primeiro membro não for constante, qualquer alteração de x causaria alteração
em T (t) e vice versa. Assim:
X ′′
X
=
1
c
T ′
T
= k,
e com isso conseguimos solucionar duas equações diferenciais ordinárias, uma de
primeira ordem em t e outra de segunda ordem em x (na prática, nos é conveniente
tomar a constante k = λ 2), Assim:
X ′′−λ 2X = 0 e T ′−λ 2cT = 0.
A partir daqui, devemos considerar três casos: λ 2 < 0, λ 2 > 0 e λ 2 = 0.
Caso I: Se λ 2 > 0, o problema espacial (solucionado pela equação característica) e
o temporal (solucionado por integração) resultam nas respectivas soluções:
m2+0m−λ 2 = 0⇒ m =±λ ⇒ X(x) = c1 cosh(λx)+ c2 sinh(λx)
dT
dt
= λ 2cT ⇒ dT
T
= λ 2cdt⇒
∫ dT
T
= c
∫
dt
⇒ ln(T ) = c2+λ 2ct⇒ T (t) = c3 exp(λ 2t)
e portanto uma solução para o problema solução do problema é
u(x, t) = (c1 cosh(λx)+ c2 sinh(λx))exp(λ 2t).
18 CAPÍTULO 2. EDP
Caso II: Se λ 2 < 0, o problema espacial (solucionado pela equação característica) e
o temporal (solucionado por integração) resultam nas respectivas soluções:
m2+0m+λ 2 = 0⇒ m =±λ i⇒ X(x) = c1 cos(λx)+ c2 sin(λx)
dT
dt
=−λ 2cT ⇒ dT
T
=−λ 2cdt⇒
∫ dT
T
= c
∫
dt
⇒ ln(T ) = c2−λ 2ct⇒ T (t) = c3 exp(−λ 2t)
e portanto uma solução para o problema solução do problema é
u(x, t) = (c1 cos(λx)+ c2 sin(λx))exp(−λ 2t).
Caso III: Se λ 2 = 0, decorre que X ′′ = 0 e T ′ = 0, o que sugere T (t) = c3 e
X(x) = c2x+ c1, e portanto uma solução para o problema solução do problema é
a reta u(x, t) = ax+b.
Teorema 2.1. (Princípio da superposição) Se u1, u2, . . . são soluções de uma EDP
linear, então a combinação linear u = ∑i=1 ciui, onde os ci são constantes reais,
também é solução.
Exemplo 2.3. Consideremos resolver a equação do calor unidimensional, isto é,
variação de temperatura u, na posição x, no instante t em uma barra de comprimento
L, nas seguintes condições:
c
∂ 2u
∂x2
=
∂u
∂ t
, 0 < x < L, t > 0
u(0, t) = 0, u(L, t) = 0, t > 0
u(x,0) = f (x), 0 < x < L
.
Solução. Supondo que a solução do problema seja
u(x, t) = (c1 cos(λx)+ c2 sin(λx)︸ ︷︷ ︸
X(x))
exp(−λ 2t)︸ ︷︷ ︸
T (t)
,
devemos analisar a influência das condições
u(0, t) = X(0)T (t) = 0 e u(L, t) = X(L)T (t) = 0,
donde devemos ter X(0) = 0 e X(L) = 0. Levando a primeira destas condições de
contorno em X(x), obtemos imediatamentec1 = 0. Portanto
X = c2 sin(λx).
2.3. SOLUÇÃO DE EDP’S 19
A segunda condição de contorno implica então
X(L) = c2 sin(λL) = 0.
Se c2 = 0, então X = 0, de forma que u = 0. Para obter uma solução não-trivial
u, devemos ter c2 6= 0 e, assim, a última equação é satisfeita quando
sin(λL) = 0,
que por sua vez implica em λL = npi , ou λ = npi/L, com n = 1,2,3, . . .. Os valores
λ =
npi
L
, n = 1,2,3, . . . ,
e as soluções correspondentes
X = c2 sin(
npi
L
x), n = 1,2,3, . . . ,
são, respectivamente, os autovalores e as autofunções do problema. Temos então
un(x, t) = X(x)T (t) = cne−c(n
2pi2/L2)t sin(
npi
L
x).
Para que estas funções un satisfaçam a condição inicial, teríamos que escolher o
coeficiente cn de tal forma que
un = (x,0) = f (x) = cn sin(
npi
L
x).
Daí, somos levados a usar o princípio da superposição que diz que a solução deve
pode da forma:
u(x, t) =
∞
∑
n=1
un =
∞
∑
n=1
cne−c(n
2pi2/L2)t sin(
npi
L
x),
e que por sua vez deve ainda satisfazer a condição inicial e a condição de fronteira
para todo n ∈ N. Fazendo t = 0, temos
u(x,0) = f (x) =
∞
∑
n=1
cn sin(
npi
L
x).
Reconhecemos nessa última expressão o desenvolvimento de meio intervalo de f
em uma série de senos. Assim, temos que os cn podem ser encontrados como
cn =
2
L
∫ L
0
f (x)sin(
npi
L
x)dx.
20 CAPÍTULO 2. EDP
Concluímos que uma solução do problema é dada pela série infinita
u(x, t) =
2
L
∞
∑
n=1
(∫ L
0
f (x)sin(
npi
L
xdx)
)
e−c(n
2pi2/L2)t sin(
npi
L
x).
No caso especial u(x,0) = 100, L = pi e c = 1, verificamos que os coeficientes cn
são dados por
cn =200
pi
[
1− (−1)n
n
]
,
e assim
u(x, t) =
200
pi
∞
∑
n=1
[
1− (−1)n
n
]
e−n
2t sin(nx).
Usando um recurso gráfico, podemos plotar a evolução da temperatura ao longo
da barra no decorrer do tempo:
Figura 2.1: Evolução da temperatura.
2.3.2 Solução aproximada de EDP por métodos numéricos
Muito frequentemente, pela dificuldade da resolução de EDP’s, recorre-se às téc-
nicas de aproximação numérica da solução, que em muitos casos trata-se de ser a
2.3. SOLUÇÃO DE EDP’S 21
única forma de se obter informações sobre a a solução. Essa solução aproximada
pode ser tão próxima da solução estando condicionadas a alguns critérios de preci-
são. A ideia básica consiste de discretizar o domínio do problema em Nx×Nt pontos
(também chamados de nós) e buscar a solução apenas neste conjunto discreto de
pontos, ou seja u(xi, t j) = ui, j, i, j = 1,2, . . . através de equações à diferenças finitas.
Obtenção das fórmulas de diferenças finitas
Para encontrar as equações à diferenças finitas, pode-se recorrer às series de Tay-
lor de uma função u(x, t) ao redor de um ponto x0 (e neste caso t é tratado como uma
constante) incrementando-o e decrementando-o de ∆x, ou seja, pela direita e pela
esquerda, ambos com ∆x > 0.
u(x0+∆x, t) =
[
u(x, t)+∆x
∂u
∂x
+
∆x2
2
∂ 2u
∂x2
+ . . .
]
x=x0
=
∞
∑
i=0
∆xi
i!
∂ iu
∂xi
∣∣∣∣
x=x0
u(x0−∆x, t) =
[
u(x, t)−∆x∂u
∂x
+
∆x2
2
∂ 2u
∂x2
− . . .
]
x=x0
=
∞
∑
i=0
(−1)i∆x
i
i!
∂ iu
∂xi
∣∣∣∣
x=x0
Após truncar a série, e reorganizar os termos obtemos
∂u
∂x
≈ u(x0+∆x, t)−u(x0, t)
∆x
≈ ui+1, j−ui, j
∆x
e
du
dx
≈ u(x0, t)−u(x0−∆x, t)
∆x
≈ ui, j−ui−1, j
∆x
.
Somando estas duas equações e dividindo pela metade, temos a diferença finita
centrada
du
dx
≈ u(x0+∆x, t)−u(x0−∆x, t)
2∆x
≈ ui+1, j−ui−1, j
2∆x
.
O processo á análogo para as diferenças finitas de u na variável t. Quanto as
equações a diferenças finitas para derivadas superiores são análogas às de primeira
ordem, isto é, partem da série de Taylor truncada e isolando o termo conveniente,
e fazendo as substituições apropriadas, donde obtemos por exemplo, a aproximação
centrada para a derivada parcial de segunda ordem em x:
∂ 2u
∂x2
≈ u(xo+∆x, t)−2u(x0, t)+u(x0−∆x, t)
∆x2
≈ ui+1, j−2ui, j +ui−1, j
∆x2
.
22 CAPÍTULO 2. EDP
Métodos explícitos
Apresentamos a seguir um método explícito para a solução do problema do ca-
lor unidimensional. Pelas equações a diferenças finitas centradas para derivada de
segunda ordem e adiantada para a derivada de primeira ordem, ambas apresentadas
anteriormente, a EDP do calor aproxima-se na forma
c2
ui+1, j−2ui, j +ui−1, j
∆x2
=
ui, j+1−ui, j
∆t
,
onde considerando r = c2∆t/∆x2 reescrevemos
rui+1, j−2rui, j + rui−1, j = ui, j+1−ui, j
ou então
ui, j+1 = rui+1, j−2rui, j + rui−1, j +ui, j
= r(ui+1, j +ui−1, j)+(1−2r)ui, j.
Assim, o esquema é explicito pois conseguimos isolar o passo temporal a frente
do passo temporal para trás. Considerando que temos uma condição inicial u(x,0)
e condições de fronteira de Dirichlet u(0, t) = E, u(L, t) = D, o esquema progride
fixando o passo temporal e calculando todos passos espaciais, torna-se a fixar um
tempo posterior e novamente calcula-se todos os passos espaciais, e assim sucessiva-
mente. A Figura 2.2 ilustra a molécula dos cálculos e armazenagem em uma matriz.
Figura 2.2: Armazenagem e molécula de cálculo.
Podemos mostrar pelo critério de estabilidade de Von Neumann que este método
é condicionalmente estável a r ≤ 0,5
2.3. SOLUÇÃO DE EDP’S 23
Método implícito simples
Aplicando a mesma formulação do o método explícito, com a exceção de que a
segunda derivada tem o tempo adiantado, escrevemos o método implícito:
c2
ui+1, j+1−2ui, j+1+ui−1, j+1
∆x2
=
ui, j+1−ui, j
∆t
,
onde considerando r = c2∆t/∆x2 reescrevemos
rui+1,+1−2rui, j+1+ rui−1, j+1 = ui, j+1−ui, j
ou então
ui, j = ui, j+1− rui+1, j+1+2rui, j+1− rui−1, j+1
= −rui+1, j+1+(1+2r)ui, j+1− rui−1, j+1.
Partindo do princípio que temos a condição inicial u(x,0) = ui,0, temos que a dis-
cretização conduz a Nt sistemas de equações lineares algébricas, da seguinte forma:
1+2r −r
−r 1+2r −r
−r 1+2r −r
. . .
−r 1+2r


u2, j+1
u3, j+1
...
uNx−2, j+1
uNx−1, j+1
=

u2, j + rE
u3, j
...
uNx−2, j
uNx−1, j + rD

Podemos mostrar pelo critério de estabilidade Von Neumann que este método é
incondicionalmente estável.
Método de Crank-Nicolson
O esquema de Crank-Nicolson é uma junção do esquema explícito com o es-
quema implícito (esta junção resulta em um esquema também implícito), ou seja,
somam-se ambos e divide-se por dois, fazendo uma média aritmética da derivada
parcial espacial. A estabilidade absoluta ainda é conservada.
c2
(ui+1, j+1−2ui, j+1+ui−1, j+1)+(ui+1, j−2ui, j +ui−1, j)
2∆x2
=
ui, j+1−ui, j
∆t
,
Tomando r = c2∆t/2∆x2 temos
ui, j+1−ui, j = r(ui+1, j+1−2ui, j+1+ui−1, j+1+ui+1, j−2ui, j +ui−1, j)
24 CAPÍTULO 2. EDP
(2r+1)ui, j+1+(2r−1)ui, j = rui+1, j+1+ rui−1, j+1+ rUi+1, j + rUi−1, j
−rui−1, j+1+(2r+1)ui, j+1− rui+1, j+1 = rUi−1, j +(1−2r)ui, j + rUi+1, j.
Assim, para cada progressão temporal, temos os pontos encontrados resolvendo
o sistema
Au j+1 = Bu j +b,
onde
A =

2r+1 −r
−r 2r+1 −r
−r 2r+1 −r
. . .
−r 2r+1
 ,
B =−A =

1−2r r
r 1−2r r
r 1−2r r
. . .
r 1−2r
 ,
b = [rE,0,0, . . . ,0,0,rD]T ,
u j = [u2, j,u3, j, . . . ,uNx−2, j,uNx−1, j]T ,
u j+1 = [u2, j+1,u3, j+1, . . . ,uNx−2, j+1,uNx−1, j+1]T .
2.4 Conclusões
Abordamos uma introdução sobre as equações diferenciais parciais, e apresenta-
mos alguns métodos de solução ou aproximação da solução.
Vários outros métodos numéricos são conhecidos, como pro exemplo o método
de Crank-Nicolson, que consiste em fazer uma mádia entre a aproximação da segunda
derivada do método explicito com a do método implícito, resultando também em um
método implícito; o método θ combinado, que consiste na mesma proposta do Crank-
Nicolson, mas em vez de considerar a média, considera uma ponderação θ e 1−θ ;
o método MacComark que consiste em um método da categoria preditor corretor, ou
seja, os nós são aproximados e logo em seguida aprimorados, dentre outros métodos.
Uma das grandes vantagens dos métodos implícitos frente aos explícitos, é que
sua estabilidade é incondicional em muitos casos.
2.4. CONCLUSÕES 25
As EDP’s que envolvem termos não lineares podem sempre tê-los linearizados,
como por exemplo usando a própria série de Taylor, e sujeitos a processos iterativos
de aproximação, como o método de Newton por exemplo, tudo sem sair da ideia base
das diferenças finitas.

Continue navegando