Logo Passei Direto
Buscar
Material
páginas com resultados encontrados.
páginas com resultados encontrados.
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Prévia do material em texto

Notas de aula de Equações Diferenciais
Ricardo Miranda Martins
IMECC/Unicamp
RMiranda@unicamp.br
Resumo
Estas notas de aula são voltadas para o curso de Cálculo III da Unicamp. Elas não substi-
tuem um bom livro de equações diferenciais (veja algumas sugestões na lista de referências
bibliográficas). Este texto está em constante modificação, não imprima-o. Se encontrar al-
gum erro, por favor me mande um e-mail.
Conteúdo
1 Exemplos e definições iniciais 7
1.1 Equações.. diferenciais? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Classificação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3 Interpretação geométrica da EDO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Ferramentas computacionais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5 Existência e unicidade de soluções para EDOs . . . . . . . . . . . . . . . . . . . . 15
1.6 Sistemas de equações diferenciais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.7 O fluxo de uma EDO autônoma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.8 Modelagem matemática e aplicações . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2 Equações diferenciais lineares de primeira ordem 24
2.1 Equações com coeficientes constantes . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2 EDOs lineares de primeira ordem com coeficientes variáveis . . . . . . . . . . . . 27
2.3 Equações de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.4 Equações separáveis: modo ingênuo . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3 Formas diferenciais 32
3.1 Campos vetoriais e formas diferenciais . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2 Formas lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.3 Formas diferenciais em R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.4 Equações envolvendo formas diferenciais . . . . . . . . . . . . . . . . . . . . . . . 36
1
4 Equações separáveis e equações exatas 37
4.1 Equações separáveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2 Equações exatas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.3 Transformando equações não-exatas em equações exatas . . . . . . . . . . . . . . 41
4.4 Redução de ordem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5 Equações diferenciais lineares de segunda ordem 47
5.1 Existência de soluções . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.2 Equações homogêneas de segunda ordem . . . . . . . . . . . . . . . . . . . . . . . 48
5.3 O Wronskiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.4 O espaço-solução das equações diferenciais de segunda ordem . . . . . . . . . . . 52
5.5 Equações homogêneas: método das equações características . . . . . . . . . . . . 54
5.6 Equações não-homogêneas: método dos coeficientes a determinar . . . . . . . . . 57
5.7 Equações não-homogêneas: método da variação dos parâmetros . . . . . . . . . . 60
5.8 Equações diferenciais de segunda ordem com coeficientes não-constantes: redu-
ção de ordem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.9 Em termos de operadores diferenciais . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.10 Equações de ordens superiores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
6 Transformada de Laplace 66
6.1 Motivação e definição da transformada de Laplace . . . . . . . . . . . . . . . . . . 66
6.2 Integrais impróprias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.3 Existência da Transformada de Laplace . . . . . . . . . . . . . . . . . . . . . . . . 68
6.4 Transformadas de Laplace e PVIs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.5 Método geral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.6 Função degrau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
6.7 Transformadas inversas e funções degrau . . . . . . . . . . . . . . . . . . . . . . . 75
6.8 Função impulso e Delta de Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
6.9 O produto de convolução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
7 Sequências e séries numéricas 86
7.1 Relações de equivalência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
7.2 O conjunto dos números reais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
7.3 Sequências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
7.4 Séries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
7.5 Critérios de convergência de séries numéricas . . . . . . . . . . . . . . . . . . . . 99
8 Soluções em séries para equações diferenciais 105
8.1 Polinômios de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
8.2 Séries de Potências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
9 Soluções em séries para EDOs: pontos regulares 112
9.1 Soluções em séries para EDOs: pontos singulares . . . . . . . . . . . . . . . . . . . 116
9.2 Soluções em séries para EDOs: caso singular-regular . . . . . . . . . . . . . . . . . 118
2
10 Séries de Fourier e problemas de valor de contorno 122
10.1 Problemas de valor de contorno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
10.2 Séries de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
10.3 Funções pares e funções ímpares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
11 Equações do calor, da onda e de Laplace 127
11.1 Equação do calor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
11.2 Como resolver a equação do calor? . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
11.3 A equação da onda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
11.4 A equação de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
12 Exponencial matricial 133
12.1 Exponencial de.. matrizes? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
12.2 Espaços métricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
12.3 Espaços normados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
12.4 Exponencial matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
13 Sistemas de equações diferenciais 140
13.1 Equações homogêneas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
13.2 Equações não-homogêneas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
13.3 Retrato de fase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
13.4 Calculando explicitamente as exponenciais matriciais . . . . . . . . . . . . . . . . 143
13.5 Sistemas não-homogêneos sem coeficientes constantes (e a matriz fundamental) . 148
Mais um texto de equações diferenciais
Bem-vindo a esta proposta de curso introdutório de equações diferenciais! Este curso se localiza
após os dois primeiros cursos de cálculo (limites, derivadas e integrais de funções de uma e
várias variáveis), um curso de geometria analítica e vetores, e talvez um curso introdutório de
álgebra linear.
O que esse material cobre?
Estas notas cobrem a ementa atual do curso de Cálculo III ministrado na Unicamp, complemen-
tado por alguns conteúdos modernos, importantes em especial para alunos de Matemática/Fí-
sica e de algumas engenharias. A sequência é mais ou menos essa:
1. Equações diferenciais ordinárias de primeira ordem. Equações lineares. Teorema de exis-
tência e unicidade. Equações separáveis, exatas, fatores integrantes. Redução de ordem.
2. Equações diferenciais ordináriasnada, e ela só serve
para você se lembrar como achar a solução.
• Obtendo primitivas G(y) de g(y) e F(x) de f (x), temos que a equação é equivalente a da
forma dH = 0, onde H(x, y) = F(x)− G(y), ou seja
G(y)− F(x) = constante.
• Logo a solução y(x) da equação diferencial satisfaz
G(y(x))− F(x) = constante
e as curvas-solução são dadas implicitamente por
G(y)− F(x) = constante.
38
Exemplo 4.1. Resolva o PVI y′ = −x3/(y + 1)2, y(0) = 0.
• Forma diferencial equivalente: (y + 1)2 dy + x3 dx.
• A solução y(x) satisfaz
x4
4
+
(y + 1)3
3
= constante.
• Da condição inicial: 0 +
1
3
= c.
• A solução do PVI é a curva
x4
4
+
(y + 1)3
3
=
1
3
.
◁
Exercício 4.2. Descreva todas as soluções de y′ = x/y.
Exercício 4.3. Descreva todas as soluções de y′ = −2xy.
4.1.1 Equações homogêneas e mudanças de variáveis
Nesta subseção, apresentamos alguns exemplos importantes de equações separáveis.
Você deve se lembra que muitas integrais eram resolvidas fazendo mudanças de variáveis
no integrando. Para equações diferenciais, uma estratégia parecida funciona para muitos casos.
Exemplo 4.4. Vamos resolver a EDO y′ = (x + y + 1)2. Seja u = x + y + 1. Então u′ = 1 + y′.
Substituindo na equação original temos
du
dx
= 1 + u2. Esta equação pode ser resolvida por
separação de variáveis, fazendo
du
1 + u2 = dx e integrando em ambos os lados. ◁
Exemplo 4.5. O exemplo anterior pode ser generalizado para uma equação da forma y′ =
f (ax + by + c). Se u = ax + by + c, então u′ = a + by′ = a + b f (u). Agora é só resolver a
equação separável du/dx = a + b f (u). ◁
Exemplo 4.6. As EDOs da forma y′ = f (y/x), com x ̸= 0, são chamadas de equações homo-
gêneas. Uma possibilidade para resolvê-las é fazer a substituição u = y/x, ou y = ux. Assim,
y′ = u′x + u, ou seja, f (u) = u′x + u e daí f (u)− u = x
du
dx
. Esta equação é separável, e pode
ser escrita como
dx
x
=
du
f (u)− u
e pode ser facilmente resolvida, dependendo de f . ◁
Exercício 4.7. Resolva as equações homogêneas:
a) y′ =
x2 + xy + y2
x2
b) y′ =
4y − 3x
2x − y
Exercício 4.8. Considere a equação
y′ =
2y − x + 5
2x − y − 4
.
Fazendo uma substituição do tipo x = X − h e y = Y − k, encontre k e h de tal forma que a equação seja
homogênea e resolva a equação.
39
4.2 Equações exatas
Vamos estudar um pouco mais o caso das equações do tipo
M(x, y) + N(x, y)y′ = 0, (19)
com M, N funções C1 definidas no aberto conexo Ω.
A equação (19) será chamada de exata se existir um potencial12 V para o campo vetorial
(M, N), ou seja, se
(M, N) = ∇V = (Vx, Vy).
Neste caso, a equação fica
Vx + Vyy′ = 0
e as soluções y(x) satisfazem V(x, y(x)) = constante, ou seja, as soluções de (19) estão contidas
nas curvas de nível de V. Note que somente generalizamos um pouco o caso das equações
separáveis, e a motivação é a mesma que usamos no início da seção anterior. Precisamos agora
entender quando uma equação da forma M(x, y) + N(x, y)y′ = 0 é separável, e veremos que
isto depende de propriedades de M e N.
Proposição 4.9. Nas hipóteses anteriores, se M, N forem C1 e Ω for simplesmente conexo então
M(x, y) + N(x, y)y′ = 0
é exata se, e só se, My = Nx.
Prova. Considere a equação
M(x, y) + N(x, y)y′ = 0. (20)
Se a equação (20) for exata teremos13 My = Nx, já que M = Vx, N = Vy e pela regularidade vale o
Teorema de Clairaut-Schwarz: Vxy = Vyx.
Reciprocamente, se My = Nx e Ω for simplesmente conexo, conseguimos encontrar um potencial
V(x, y) (é possível fazer isto usando integral de linha). ■
Observação 4.10. Nem sempre será possível “isolar” y na equação no fim da demonstração
anterior, então teremos que ficar satisfeitos com soluções implícitas.
Observação 4.11 (Como resolver equações exatas). Dada uma equação exata
M(x, y) + N(x, y)y′ = 0,
procuramos V(x, y) tal que Vx = M e Vy = N (para achar V é só integrar). A solução y(x) vai
satisfazer V(x, y(x)) = c.
Exemplo 4.12 (Equações separáveis). Note que equações separáveis são um caso particular
de equações exatas. De fato, se a equação é M(x) + N(y)y′ = 0 e M, N são C1, então como
My = Nx = 0, estas são iguais. Daí, podemos tomar o potencial como sendo
V(x, y) =
∫
M(x) dx +
∫
N(y) dy.
◁
12ou “integral primeira".
13É preciso um bom comportamento das funções envolvidas para isto funcionar. Tome cuidado no caso de
funções com baixa regularidade.
40
Exemplo 4.13. Descreva as soluções de (2xy + 1) + (x2 + 4y)y′ = 0. ◁
Exemplo 4.14. Resolva a EDO y′ = −3e3xy − 2x
e3x .
Existem pelo menos duas formas de resolver essa EDO: a primeira é reescrevê-la como
3e3xy − 2x
e3x + y′ = 0,
tomar
M(x, y) =
3e3xy − 2x
e3x
e
N(x, y) = 1.
Neste caso temos My = 3, Nx = 0 e concluiremos que a EDO não é exata.
Outra possibilidade é “multiplicar cruzado” e escrever a EDO como
(3e3xy − 2x) + e3xy′ = 0.
Neste caso, M(x, y) = 3e3xy − 2x, N(x, y) = e3x e como My = Nx = 3e3x, a equação é exata.
Então o primeiro comentário é o seguinte: a maneira como a EDO está escrita tem bastante
influência em nossa determinação a priori de sua exatidão. Na Seção 4.3 veremos como lidar
com a primeira abordagem acima; por enquanto, vamos considerar a equação reescrita como
(3e3xy − 2x) + e3xy′ = 0.
Neste caso, como já vimos, temos que My = Nx. Como as funções M, N são de classe C1, a
EDO é exata. Calculando um potencial, obteremos V(x, y) = e3xy − x2, logo as soluções são da
forma
y =
c + x2
e3x , c constante.
◁
Exercício 4.15. Descreva as soluções de (x2 + 1)y′ + 2xy − x2 = 0.
Exercício 4.16. A equação xy′ − y = 0 não é exata: ela é equivalente a x dy − y dx = 0, com N = x,
M = −y, e My ̸= Nx. Se multiplicarmos a equação por 1/x2, ela se tornará exata. Será que sempre
poderemos fazer isto?
4.3 Transformando equações não-exatas em equações exatas
Motivados pelo exemplo anterior, vamos focar em equações do tipo
M(x, y) + N(x, y)y′(x) = 0, (21)
com M, N funções de classe C1 definidas num aberto Ω ⊂ R2.
Se (M, N) é um campo gradiente com potencial V, então
M = Vx, N = Vy (22)
41
e sabemos resolver a equação (21). Vimos também que ser gradiente é equivalente a (22) no
caso de Ω ser simplesmente conexo. O que fazer quando temos uma equação como (21) sem a
condição (22)?
O mesmo truque de sempre: vamos multiplicar (21) por um fator integrante µ(x, y), obtendo
µ(x, y)M(x, y) + µ(x, y)N(x, y)y′(x) = 0.
Nosso objetivo é que esta equação seja exata, ou seja, precisaremos que
∂
∂y
(
µ(x, y)M(x, y)
)
=
∂
∂x
(
µ(x, y)N(x, y)
)
,
o que é equivalente a
1
µ
(
Nµx − Mµy
)
= My − Nx. (23)
Como encontrar µ que satisfaz (23)? Somos bons em encontrar fatores integrantes que de-
pendam de somente uma variável, então vamos começar daí.
4.3.1 Fatores integrantes que só dependem de y
Suponha que µ(x, y) só dependa de y. Assim, µx = 0 e a condição (23) se transforma em
µy(y)
µ(y)︸ ︷︷ ︸
só depende de y
=
Nx(x, y)− My(x, y)
M(x, y)︸ ︷︷ ︸
logo, este lado também só pode depender de y
.
Integrando, obtemos
ln(µ(y)) =
∫ Nx − My
M
dy,
ou seja,
µ(y) = exp
( ∫ Nx − My
M
dy
)
.
Agora devemos encontrar o potencial V(x, y). Ele satisfaz
Vy(x, y) = µ(y)N(x, y), Vx(x, y) = µ(y)M(x, y),
ou seja, V satisfaz
V(x, y) =
∫
µ(y) N(x, y) dy + c1(x)
e também
V(x, y) = µ(y)
∫
M(x, y) dx + c1(y).
Observação 4.17. Com funções iniciais boas, sempre será possível encontrar o potencial V.
42
Observação 4.18. A hipótese “µ só depende de y” implica que
Nx − My
M
também só depende
de y, e este é um critério para decidir se vamos procurar um fator integrante que só depende
de y. Faça a conta
Nx − My
M
: se só depender de y, então poderemos achar um fator integrante
que só depende de y.
Exemplo 4.19. Resolva a EDO (3x2 − y2)y′ − 2xy = 0.
Note que
Nx − My
M
=
6x + 2x
−2xy
= − 8
2y
= −4
y
só depende de y.
Logo
µ(y) = exp
∫ Nx − My
M
dy = exp
(
−
∫ 4
y
dy
)
= exp (−4 ln(y)) = exp
(
ln(y−4)
)
=
1
y4 .
Precisamos achar V com Vx = µM e Vy = µN, ou seja,
Vx = −2xy/y4, Vy = (3x2 − y2)/y4.
Integrando obtemos
V(x, y) = −x2/y3 + c1(y), V(x, y) = −(x2/y3) + 1/y + c2(x).
Portanto,
V(x, y) = −(x2/y3) + 1/y.
As soluçõesda EDO cumprem
− x2
y(x)3 +
1
y(x)
= constante.
◁
4.3.2 Fatores integrantes que só dependem de x
Agora suponha que µ(x, y) só dependa de x. Da condição (23)
1
µ
(
Nµx − Mµy
)
= My − Nx
obtemos que
1
µ
(
Nµx
)
= My − Nx,
ou seja,
µx
µ
=
My − Nx
N
.
Logo
µ(x) = exp
( ∫ My − Nx
N
dx
)
.
Encontrado o fator integrante, a solução da EDO pode ser encontrada como no caso anterior.
43
Observação 4.20. Uma pequena modificação da Observação 4.18 também vale aqui neste caso.
Exemplo 4.21. Resolva a EDO (x2y − x)y′ + y = 0.
Note que, como
My − Nx
N
=
1 − (2xy − 1)
x2y − x
=
2 − 2xy
x2y − x
=
2(1 − xy)
x2y − x
=
−2
x
,
o fator integrante é
µ(x) = exp
(∫
−2
x
dx
)
= exp ln(x−2) =
1
x2 .
◁
Exercício 4.22. Resolva a EDO
3e3xy − 2x
e3x + y′ = 0 achando um fator integrante.
Observação 4.23 (Outros tipos de fatores integrantes). Vimos que se
Nx − My
M
só depender de y, poderemos escolher um fator integrante que também só depende de y. Já se
My − Nx
N
só depender de x, poderemos escolher um fator integrante que também só depende de x. Exis-
tem pelo menos outros dois casos em que achar o fator integrante é razoavelmente simples:
• Quando (My − Nx)/(Ny − Mx) é função de x · y, como por exemplo em
(3x3y4 + x)y′ + y = 0.
Note que, na expressão anterior, temos derivadas parciais no numerador e produtos no
denominador.
• Se M, N são funções homogêneas de mesmo grau então um fator integrante é
µ =
1
x · M + y · N
,
como por exemplo em
y2 + (x2 − xy − y2)y′ = 0.
Exercício 4.24. Considere a equação
y′ =
αx + βy
γx + δy
,
com cγx + δy ̸= 0.
(a) Transforme essa equação numa equação exata multiplicando-a por um fator integrante (veja co-
mentário anterior) e resolva a equação
44
(b) Resolva a equação de outra forma, usando a mudança de variáveis
y(t) = u(t)x(t)
e obtendo uma equação separável. Esta mesma mudança de variável serve para vários tipos de
equações.
Exercício 4.25. Resolva a EDO
y′ =
2x + y
5x − 3y
.
4.4 Redução de ordem
Até agora estudamos equações de primeira ordem, ou seja, que que só envolvem y′. Algu-
mas equações de segunda ordem podem ser transformadas em equações de primeira ordem.
Veremos como fazer isto com dois tipos de equações:
• equações sem y : y′′ = f (x, y′),
• equações sem x : y′′ = g(y, y′).
4.4.1 Equações do tipo y′′ = f (x, y′)
Neste caso, fazemos a mudança v(x) = y′(x), o que nos dá v′(x) = y′′(x). Logo, podemos
escrever a equação como
v′ = f (x, v). (24)
Estas equações são de fato equivalentes, mas precisamos ter algum cuidado com as constantes
de integração. A solução v(x) de (24) depende de uma constante de integração c, por isto vamos
denotá-la por v(x, c). Como obtemos a solução de (24)? Resolvendo a equação y′(x) = v(x, c)!
Se y′(x) = v(x, c), para acharmos y(x) aparecerá outra constante de integração c̃, logo
y(x) =
∫
v(x, c) dx + c̃.
Exemplo 4.26. Resolva a equação y′′ + 3y′ = x.
Fazendo a mudança v = y′ obtemos v′ + 3v = x. Esta é uma equação linear de 1a ordem.
Sua solução pode ser obtida e é
v(x) = −1
9
+
x
3
+ ce−3x.
Se y′(x) = v(x, c), para acharmos y(x) aparecerá outra constante de integração c̃, logo
y(x) =
∫
v(x, c) dx + c̃.
Resolvendo a EDO y′(x) = −1
9
+
x
3
+ ce−3x obtemos
y(x) = −1
3
ce−3x +
x2
6
− x
9
+ c̃.
◁
Exercício 4.27. Resolva a EDO 2x2y′′ + (y′)3 = 2xy′, x > 0.
45
4.4.2 Equações do tipo y′′ = g(y, y′)
Neste caso14, a mudança de coordenadas não é tão óbvia.
Se v(x) = y′(x) então v′(x) = y′′(x) = g(y(x), v(x)) e a equação dependerá de muitas
variáveis. Pense que variável independente é y. Então
dv
dx
=
dv
dy
dy
dx
= v
dv
dy
,
e ficamos com
v
dv
dy
= f (y, v).
Obtivemos uma equação de 1a ordem, mas de um tipo que pode ser bem difícil de resolver.
Suponha que exista uma solução v(y) para
v
dv
dy
= f (y, v).
Poderemos achar y resolvendo
dy
dt
= v(y),
sendo que esta última equação é separável!
Exemplo 4.28. Resolva a equação y′′ + y = 0.
Seja y′ = v(y), de modo que y′′ = v(y)v′(y). A equação fica vv′ + y = 0, ou
v
dv
dy
= −y.
A equação é separável! v dv = −y dv. Agora é só terminar a resolução.
◁
Exercício 4.29. Resolva a equação 2y′′ − (y′)2 = y. Dica: você vai recair numa equação de Bernoulli.
14Este caso é muito degenerado e não recomendo dar muita atenção a ele.
46
5 Equações diferenciais lineares de segunda ordem
Neste capítulo vamos começar a estudar equações de ordem superior. O foco será nas de se-
gunda ordem, mas todo o conteúdo pode ser facilmente generalizado para equações de ordens
superiores.
5.1 Existência de soluções
Sejam p, q, f : (a, b) → R funções contínuas definidas num aberto (a, b) e considere a equação
x′′(t) + p(t)x′(t) + q(t)x(t) = f (t). (25)
Vamos também considerar condições iniciais x(t0) = x0 e x′(t0) = v0, onde t0 ∈ (a, b) e x0, v0
são dados. Às vezes chamaremos t0 de tempo inicial, x0 de posição inicial, v0 de velocidade
inicial.
Teorema 5.1 (Existência e unicidade para equações de segunda ordem). Se p, q, f : (a, b) → R
são funções contínuas definidas no intervalo aberto (a, b), t0 ∈ (a, b), x0, y0 ∈ R, então o PVI
{
x′′(t) + p(t)x′(t) + q(t)x(t) = f (t)
x(t0) = x0, x′(t0) = v0
tem única solução ϕ : (a, b) → R.
O Teorema anterior decorre do Teorema de Existência e Unicidade para equações de pri-
meira ordem se transformarmos (25) num sistema de equações de primeira ordem:
{
x′(t) = y(t),
y′(t) = −q(t)x(t)− p(t)y(t) + f (t),
onde y(t) = x′(t).
Observação 5.2. Já vimos este truque antes, mas é sempre bom repetir a mudança de coorde-
nadas. A equação
x′′′ + F(t, x, x′, x′′)x′′ + G(t, x, x′)x′ + F(t, x)x + H(t) = 0
se transforma no sistema



x′ = y,
y′ = z,
z′ = −F(t, x, y, z)z − G(t, x, y)y − F(t, x)x + H(t),
onde y = x′ e z = x′′. Quase todos os resultados desse capítulo são verdadeiros, ainda que com
adaptações, para equações de ordem superior.
Assim como fizemos com EDOs de primeira ordem, vamos separar a análise conforme ho-
mogeneidade, constância dos coeficientes, etc.
47
5.2 Equações homogêneas de segunda ordem
Vamos considerar dois PVIs especiais:
E1,0 :
{
x′′(t) + p(t)x′(t) + q(t)x(t) = 0,
x(t0) = 1, x′(t0) = 0,
e
E0,1 :
{
x′′(t) + p(t)x′(t) + q(t)x(t) = 0,
x(t0) = 0, x′(t0) = 1.
Vamos denotar por ϕ1,0(t) a solução do PVI E1,0 e ϕ0,1(t) a solução do PVI E0,1, ambas defi-
nidas em (a, b) com t0 ∈ (a, b). Denotando
ϕ(t) = αϕ1,0(t) + βϕ0,1(t)
então 


ϕ′′(t) + p(t)ϕ′(t) + q(t)ϕ(t) = 0, (verifique!)
ϕ(t0) = αϕ1,0(t0) + βϕ0,1(t0) = α,
ϕ′(t0) = αϕ′
1,0(t0) + βϕ′
0,1(t0) = β
ou seja, ϕ(t) é solução do PVI
{
x′′(t) + p(t)x′(t) + q(t)x(t) = 0,
x(t0) = α, x′(t0) = β.
(26)
Teorema 5.3. A solução de um PVI qualquer como (26) pode ser obtida como combinação linear das
soluções particulares dos PVIs ϕ1,0 e ϕ0,1.
Observação 5.4. Os PVIs E1,0 e E0,1 foram escolhidos para refletir a base canônica de R2. Pode-
ríamos ter usado outros PVIs, como por exemplo
Ea,b :
{
x′′(t) + p(t)x′(t) + q(t)x(t) = 0,
x(t0) = a, x′(t0) = b,
e
Ec,d :
{
x′′(t) + p(t)x′(t) + q(t)x(t) = 0,
x(t0) = c, x′(t0) = d,
desde que os vetores (a, b) e (c, d) sejam linearmente independentes. A única diferença é que
seria um pouco mais difícil de escrever a combinação linear (coisa que é trivial com a base
canônica).
Observação 5.5. A propriedade da soma de soluções ser uma solução é chamada de princípio
da superposição. Ela decorre do fato da equação ser homogênea e linear. Vimos que um PVI
tem solução e ela é única. O teorema anterior diz que uma solução qualquer depende de duas
soluções “fundamentais”. No exemplo anterior, foram necessárias duas soluções fundamentais:
ϕ1,0 e ϕ0,1. Se a EDO tiver ordem k, precisaremos de k soluções fundamentais.
Definição 5.6. Duas funções ϕ1, ϕ2 : (a, b) → R são linearmente dependentes (LD) se existe
uma constante k tal que ϕ2(t) = kϕ1(t) para todo t ∈ (a, b). Caso contrário, as funções são
chamadas de linearmente independentes (LI).
48
Podemos ainda definir primeiro funções linearmente independentes e depois as linearmente
dependentes:
Definição 5.7. Duas funções ϕ1,ϕ2 : (a, b) → R são linearmente independentes (LI) se
αϕ1(t) + βϕ2(t) = 0 ∀t ∈ (a, b)
implicar que α = β = 0. Caso contrário, as funções são chamadas de linearmente dependentes.
Observação 5.8. Estas definições de LI e LD são as mesmas vistas nos cursos de geometria
analítica ou álgebra linear e podem ser estendidas para um número qualquer de funções.
Exemplo 5.9. 1. As funções f (t) = t2 e g(t) = 2t são linearmente independentes.
2. As funções cos(t) e sen (t) são linearmente independentes.
3. As funções eat e ebt são linearmente independentes se a ̸= b.
4. As funções t3 e |t|3 são linearmente independentes.
5. As funções p(t) = t2 e q(t) = 3t2 são linearmente dependentes.
◁
Observação 5.10. Pense um pouco sobre como se relacionam os gráficos de duas funções que
são linearmente dependentes.
5.3 O Wronskiano
Dadas ϕ1, ϕ2 : (a, b) → R funções diferenciáveis, o determinante
W(ϕ1, ϕ2)(t) = det
(
ϕ1(t) ϕ2(t)
ϕ′
1(t) ϕ′
2(t)
)
é chamado de Wronskiano de ϕ1 e ϕ2.
Exemplo 5.11. Vamos calcular alguns wronskianos:
(a) W(t2, 2t) = det
(
t2 2t
2t 2
)
= −2t2
(b) W(cos(t), sen (t)) = det
(
cos(t) sen (t)
−sen (t) cos(t)
)
= 1
(c) W(eat, ebt) = det
(
eat ebt
aeat bebt
)
= (b − a)e(a+b)t
(d) W(t2, 3t2) = det
(
t2 3t2
2t 6t
)
= 0
◁
49
Exemplo 5.12. Vamos mostrar que W(t3, |t|3) = 0 para todo t ∈ R. O primeiro passo é mostrar
que a função f (t) = |t|3 é diferenciável. Note que
f (t) =
{
t3 , t ≥ 0,
−t3 , t(32), então ϕ1(t)− ϕ2(t) é solução da EDO homogênea associada
x′′(t) + p(t)x′(t) + q(t)x(t) = 0. (33)
(b) Seja ϕp(t) uma solução qualquer de (32) e ϕ1(t), ϕ2(t) soluções linearmente independentes de (33).
Então
ϕ(t) = αϕ1(t) + βϕ2(t) + ϕp(t)
é a solução geral de (32).
5.5 Equações homogêneas: método das equações características
Vamos começar com as equações homogêneas da forma
x′′(t) + px′(t) + qx(t) = 0, (34)
em que os coeficientes são constantes.
Vamos buscar soluções na forma x(t) = eλt. Substituindo na equação obtemos
λ2eλt + pλeλt + qetλ = 0,
ou
eλt(λ2 + pλ + q
)
= 0,
o que implica que
λ2 + pλ + q = 0.
A equação
λ2 + pλ + q = 0 (35)
é conhecida como equação característica. Para que x(t) = eλt seja solução de (34), λ terá que
satisfazer (35). Seja ∆ = p2 − 4q. Vamos estudar as soluções de (34) conforme o sinal de ∆.
5.5.1 Caso ∆ > 0
Se ∆ > 0, as soluções de (35) são da forma
λ =
−p ±
√
p2 − 4q
2
.
Vamos denotar estas soluções por λ1, λ2. Note que λ1 ̸= λ2. As soluções de (34) serão
x1(t) = eλ1t, x2(t) = eλ2t.
Como os expoentes são diferentes, as soluções são linearmente independentes. Verifique isto
calculando o Wronskiano das soluções.
A solução geral será
x(t) = αeλ1t + βeλ2t.
54
Exemplo 5.23. Vamos encontrar a solução geral da equação x′′ − 4x = 0. Suponha que x(t) =
eλt. Obtemos então a equação característica
λ2 − 4 = 0,
que tem raízes ±2. Logo a solução geral da EDO é
x(t) = αe−2t + βe2t.
◁
Exercício 5.24. Encontre a solução geral de x′′ − 5x′+ 6x = 0 e a solução do PVI x(0) = 1, x′(0) = 2.
5.5.2 Caso ∆ = 0
Neste caso, a equação característica
λ2 + pλ + q = 0
só tem a raiz λ = −p/2, que dá origem à solução
x1(t) = e−pt/2.
Como achar uma função x2(t) que seja solução da EDO e seja LI com esta? Vamos usar um
método conhecido como redução de ordem.
Suponha que a outra solução seja da forma
x2(t) = u(t)x1(t),
com alguma função u(t).
Substituindo na equação (34) obtemos
u(t)
(
x′′1 (t) + px′1(t) + qx1(t)
)
+ u′′(t)x1(t) + u′(t)
(
px1(t) + 2x′1(t)
)
= 0
Substituindo v(t) = u′(t) chegamos em
v′(t) +
(
p + 2
x′1(t)
x1(t)
)
v(t) = 0,
e daí resta
v′(t) = 0,
ou seja, v(t) = c e com isso
u(t) = ct + c̃.
Como c, c̃ podem ser escolhidos, ficamos com u(t) = t e daí a solução x2(t) é dada por
x2(t) = te−pt/2.
Agora resta calcular W(x1, x2)(t) e comprovar que estas funções são linearmente indepen-
dentes (exercício!).
A solução geral será
x(t) = αe−pt/2 + βte−pt/2.
Exercício 5.25. Encontre a solução geral de x′′ + 2x′ + x = 0.
55
5.5.3 Caso ∆à solução:
x(t) = c1eλ1t + c2eλ2t +
α
S′(a)
· t · eat,
desde que S′(a) ̸= 0. O que acontece se S′(a) = 0? Lembre que já tínhamos S(a) = 0, portanto
a é raiz de S(λ) e de S′(λ), o que significa que é solução com multiplicidade 2 de
S(λ) = 0.
Neste caso, propor uma solução da forma xp(t) = ct2 · eat funcionará. Verifique isto nos próxi-
mos exercícios.
Exercício 5.31 (S(a) ̸= 0). Encontre a solução geral de x′′(t)− x′(t)− 2x(t) = −e5t.
Exercício 5.32 (S(a) = 0, S′(a) ̸= 0). Encontre a solução geral de x′′(t)− 4x′(t) + 3x(t) = 2et.
Exercício 5.33 (S(a) = S′(a) = 0). Encontre a solução geral de x′′(t)− 6x′(t) + 9x(t) = 5e3t.
59
5.6.2 Caso f (t) seja seno ou cosseno
Caso f (t) = cos(ωt) ou f (t) = sen (ωt), vamos propor uma solução também trigonométrica,
com
xp(t) = A cos(ωt) + Bsen (ωt).
Exercício 5.34. Resolva a EDO x′′(t)− 5x′(t) + 6x(t) = sen (3t).
5.6.3 Demais casos
Em [3, pág. 179] encontramos uma tabela que nos diz como escolher o formato para a “pro-
posta” de xp(t) conforme seja f (t):
f (t) xp(t)
eαt beαt
cos(βt) ou sen (βt) b1 cos(βt) + b2sen (βt)
a1 + a1t + . . . + antn b1 + b1t + . . . + bntn
(a0 + a1t + . . . + antn)eαt cos(βt) ou (b0 + b1t + . . . + bntn)eαt cos(βt)+
(a0 + a1t + . . . + antn)eαtsen (βt) (c0 + c1t + . . . + cntn)eαtsen (βt)
Observação 5.35. Talvez seja um bom momento para fazer uma importante observação: caso o
termo f (t) seja uma expressão com “somas de funções”, os métodos terão que usados separa-
damente. Por exemplo, se
f (t) = t2e3t + cos(2t)
então deveremos escolher
xp(t) = (c0 + c1t + c2t2)e3t + a cos(2t) + bsen (2t).
Exercício 5.36. Resolva as EDOs:
1. x′′ + 2x′ + x = t2e2t
2. x′′ + 2x′ + x = 2te−t
3. x′′ − 2x′ + 2x = et cos(t) + xe2t
4. x′′ + 2x′ + 4x = e−5t(1 + t3 + t5) cos(2t) + t9e7tsen (8t) (“the monster”)
5.7 Equações não-homogêneas: método da variação dos parâmetros
Vamos agora resolver algumas equações não-homogêneas da forma
x′′(t) + px′(t) + qx(t) = f (t). (38)
Sejam y(t), z(t) soluções linearmente independentes de
x′′(t) + px′(t) + qx(t) = 0 (39)
e vamos procurar uma solução de (38) que seja da forma
x(t) = a(t)y(t) + b(t)z(t).
60
Neste caso, temos
x′(t) = a(t)y′(t) + a′(t)y(t) + b(t)z′(t) + b′(t)z(t) (40)
e vamos supor que
a′(t)y(t) + b′(t)z(t) ≡ 0. (41)
Usando a condição (41) na equação (40), ficamos com
x′(t) = a(t)y′(t) + b(t)z′(t). (42)
Derivando a equação (42) com respeito a t, obtemos:
x′′(t) = a(t)y′′(t) + b(t)z′′(t) + a′(t)y′(t) + b′(t)z′(t).
Agora substituímos x(t), x′(t) e x′′(t) na equação (38). Usando que y(t), z(t) são soluções de
(39), vários termos se anularão (vou mostrar com detalhes num exemplo), e restará
a′(t)y′(t) + b′(t)z′(t) = f (t). (43)
As equações (41) e (43) formam um sistema linear em a′(t), b′(t):
{
a′(t)y(t) + b′(t)z(t) = 0,
a′(t)y′(t) + b′(t)z′(t) = f (t).
Em forma matricial, temos:
(
y(t) z(t)
y′(t) z′(t)
)(
a′(t)
b′(t)
)
=
(
0
f (t)
)
.
Note que o determinante da matriz dos coeficientes do sistema anterior é exatamente W(y(t), z(t)),
que é diferente de zero, já que supomos que y, z são soluções linearmente independentes. Re-
solvendo o sistema obtemos que
a′(t) = − f (t)z(t)
W(y, z)(t)
, b′(t) =
f (t)y(t)
W(y, z)(t)
, (44)
onde
W(y, z)(t) = y(t)z′(t)− y′(t)z(t).
Resolvendo as equações em (44) obtemos a(t) e b(t) e com isto
x(t) = a(t)y(t) + b(t)z(t)
será solução de (38).
Exemplo 5.37. Resolva a equação x′′(t) + x′(t)− 2x(t) = cos(t).
O primeiro passo é resolver a EDO homogênea associada:
x′′ + x′ − 2x = 0.
A equação característica é λ2 + λ − 2 = 0, que tem como soluções λ = 1 e λ = −2. Portanto, as
soluções da equação homogênea associada são
y(t) = et, z(t) = e−2t.
61
Partimos então à procura de soluções da forma
x(t) = a(t)y(t) + b(t)z(t)
para nossa EDO. Derivando obtemos
x′(t) = a′(t)y(t) + a(t)y′(t) + b′(t)z(t) + b(t)z′(t)
e forçamos
a′(t)y(t) + b′(t)z(t) = 0.
Isto nos dá
x′(t) = a(t)y′(t) + b(t)z′(t)
e
x′′(t) = a′(t)y′(t) + a(t)y′′(t) + b′(t)z′(t) + b(t)z′′(t).
Levemos tudo isto para a equação:
(
a′(t)y′(t) + a(t)y′′(t) + b′(t)z′(t) + b(t)z′′(t)
)
+
(
a(t)y′(t) + b(t)z′(t)
)
− 2
(
a(t)y(t) + b(t)z(t)
)
= cos(t)
Agrupando os termos...
a(t)
(
y′′(t) + y′(t)− 2y(t)︸ ︷︷ ︸
=0
)
+ b(t)
(
z′′(t) + z′(t)− 2z(t)︸ ︷︷ ︸
=0
)
+
+a′(t)y′(t) + b′(t)z′(t) = cos(t)
o que nos dá
a′(t)y′(t) + b′(t)z′(t) = cos(t).
Conseguimos um sistema de equações:
{
a′(t)y′(t) + b′(t)z′(t) = cos(t),
a′(t)y(t) + b′(t)z(t) = 0.
Como y(t) = et e z(t) = e−2t, temos que
a′(t) =
cos(t)e−2t
3e−t =
cos(t)e−t
3
, b′(t) = −cos(t)et
3e−t = −cos(t)e2t
3
.
Integrando obtemos
a(t) =
sen (t)− cos(t)
6et , b(t) = − e2t(2 cos(t) + sen (t)
)
15
Logo a solução da EDO é
x(t) =
sen (t)− cos(t)
6
− 2 cos(t) + sen (t)
15
.
◁
Exercício 5.38. Resolva as equações abaixo:
1. x′′(t)− x′(t) + x(t) = e4t
2. x′′(t) + x(t) = sen (t)
62
5.8 Equações diferenciais de segunda ordem com coeficientes não-constan-
tes: redução de ordem
Dizem que “mares calmos não fazem um bom marinheiro”, mas isso aqui é outro nível. Escreva
uma equação de segunda ordem qualquer, com coeficientes não-constantes. É alta a probabili-
dade de que essa equação não tenha solução explícita. No entanto, conseguimos brincar com
algumas equações desse tipo.
Você vai perceber que a maioria delas tem nome - e, se tem nome, tem história. Ninguém
dá nome pra equações cujas soluções são fáceis de encontrar.
Considere a equação
x′′(t) + p(t)x′(t) + q(t)x(t) = f (t). (45)
O que sabemos dela? Se p(t), q(t) são constantes e
• Se p(t) ≡ p e q(t) ≡ q são constantes e f (t) ≡ 0, sabemos dar a solução geral de (45) (via
equação característica).
• Se p(t) ≡ p e q(t) ≡ q são constantes e f (t) ̸≡ 0, ainda assim temos bons métodos para
resolver a (45): variação dos parâmetros e coeficientes indeterminados.
Se p(t), q(t) NÃO são constantes, até agora só sabemos que no caso homogêneo a solução
geral é dada por
x(t) = c1ϕ1,0(t) + c2ϕ0,1(t),
onde ϕ1,0, ϕ0,1 são soluções de PVIs particulares.
Não sabemos como achar as soluções ϕ1,0, ϕ0,1 nem no caso homogêneo, muito menos como
achar soluções particulares no caso não-homogêneo.
Aliás, a coisa é pior: não existe método sistemático para resolver equações de segunda or-
dem com coeficientes não-constantes.
Mesmo assim, deixando o pessimismo de lado, veremos (rapidamente) alguns exemplos
de como lidar com tais equações. Como estas equações terão duas soluções l.i., a estratégia
básica será a seguinte: encontre uma solução (de alguma forma), e daí reduza o problema ao de
encontrar uma solução para uma equação de primeira ordem. Isto é chamado de “redução de
ordem”.
Para equações homogêneas do tipo
x′′(t) + p(t)x′(t) + q(t)x(t) = 0, (46)
podemos tentar aplicar redução de ordem para achar uma segunda equação l.i. - supondo que
já temos a primeira solução.
Seja x1(t) uma solução da equação (46) e proponha uma segunda solução da forma
x2(t) = u(t)x1(t).
Levando na equação e usando a mudança v(t) = u′(t), obtemos
v′(t) =
(
p(t) + 2
x′1(t)
x1(t)
)
v(t) = 0.
63
Esta equação tem como fator integrante
µ(t) = x1(t)e
∫
p(t) dt
.
Resolvendo a EDO em v temos
v(t) =
c
x1(t)2 e
−
∫
p(t) dt
, c ∈ R.
Como u′(t) = v(t), segue que
u(t) = c
∫ ( 1
x1(t)2 e
−
∫
p(t) dt )
dt
e a segunda solução da EDO (46) é
x2(t) = cx1(t)
∫ ( 1
x1(t)2 e
−
∫
p(t) dt )
dt.
Exemplo 5.39 (Equação de Legendre). A equação (1 − t2)x′′(t) − 2tx′(t) − λ(λ + 1)x(t) = 0,
com t ∈ (−1, 1) e λ ∈ R é chamada de equação de Legendre. Mostre que x1(t) = t é solução
da equação e procure outra solução da forma x2(t) = u(t)x1(t). ◁
Exemplo 5.40 (Equação de Bessel). Mostre que x1(t) = t−1/2 é solução da equação de Bessel
t2x′′(t) + tx′(t) + (t2 − 1/4)x(t) = 0, t > 0.
Determine uma outra solução x2(t) tal que x1 e x2 são linearmente independentes. ◁
Exercício 5.41. Encontre uma segunda solução para as EDOs abaixo:
1. t2x′′(t) + 2tx′(t)− 2x(t) = 0, x1(t) = t.
2. tx′′(t)− (t + N)x′(t) + Nx(t) = 0, x1(t) = et, N ∈ N.
Exercício 5.42 (Equação de Euler-Cauchy). As equações do tipo
t2x′′(t) +atx′(t) + bx(t) = f (t)
são chamadas de equações de Euler-Cauchy. No caso homogêneo ( f (t) ≡ 0), podemos procurar uma
solução da forma x(t) = eλt. Como achar a outra solução?
Observação 5.43. Quando estudarmos soluções em séries de potências, teremos um outro mé-
todo bem poderoso para resolver as equações desta seção.
64
5.9 Em termos de operadores diferenciais
Para finalizar o capítulo, vamos novamente fazer alguns comentários sobre soluções das equa-
ções em termos de operadores.
Seja Cr([a, b], R) o espaço vetorial das funções x : [a, b] → R que são r vezes diferenciáveis.
Considere o operador L : C2([a, b], R) → C0([a, b], R) dado por
L(x)(t) = x′′(t) + p(t)x′(t) + q(t)x(t).
O núcleo Ker(L) é o conjunto
Ker(L) = {x ∈ C2([a, b], R); L(x)(t) ≡ 0}.
Note que Ker(L) é o subespaço vetorial das soluções da EDO homogênea
x′′(t) + p(t)x′(t) + q(t)x(t) = 0
e já vimos que dim Ker(L) = 2.
Por outro lado, a imagem do operador L, Im(L), é o conjunto
Im(L) = { f ∈ C0([a, b], R); ∃ x(t) ∈ C2([a, b], R) : L(x)(t) = f (t)},
ou seja, é o conjunto das soluções de EDOs não-homogêneas da forma
x′′(t) + p(t)x′(t) + q(t)x(t) = f (t),
variando f (t).
Vimos que toda equação da forma
x′′(t) + p(t)x′(t) + q(t)x(t) = f (t),
com f ∈ C0([a, b], tem solução, logo vimos que o operador L é sobrejetivo.
Como Ker(L) ̸= {0}, L não é injetor, ou seja, a imagem inversa L−1( f ) é uma classe lateral
da forma
y(t) + Ker(L),
com y(t) ∈ L−1(F). Em palavras: a solução geral da não-homogênea pode ser obtida somando
uma solução particular da não-homogênea com a solução geral da homogênea.
5.10 Equações de ordens superiores
(em atualização)
65
6 Transformada de Laplace
Se você tentar enfrentar um guepardo numa corrida, certamente vai perder: ele pode chegar
a mais que 100 km/h, enquanto a maior velocidade já registrada por um ser humano foi de
44 km/h (atingida por Usain Bolt em 2012). No entanto, se a competição com o guepardo for
um duelo de equações, aí o jogo vira e você terá uma boa chance de vencer (ou pelo menos
empatar).
Dada uma equação diferencial que queremos resolver, a Transformada de Laplace nos levará
para uma arena onde a disputa será mais justa e onde teremos um pouco mais de recursos para
resolvê-la.
Mas não se anime tanto: ainda será um combate duro.
6.1 Motivação e definição da transformada de Laplace
A transformada de Laplace é uma transformação linear L : F1 → F2 entre conjuntos de funções
que tem a capacidade de transformar equações diferenciais em equações algébricas.
O que faremos é o seguinte: começamos com uma EDO:
y′′(t) + . . . = g(t, y, y′),
que não precisa ser de segunda ordem.
Aplicamos a transformada na equação anterior:
L{y′′(t) + . . .} = L{g(t, y, y′)}.
De alguma forma, faremos L{y′′(t)} se transformar15 numa expressão que envolve L{y(t)} e
outros termos, mas não envolve L{y′′(t)} ou L{y′(t)}. Agora isolamos L{y(t)} na equação:
L{y(t)} = G(t, y, y′)
e aplicamos a transformada inversa L−1:
L−1{L{y(t)}} = L−1{G(. . .)}.
Com isso, teremos que
y(t) = L−1{G(t, y, y′)},
ou seja, encontraremos a solução da EDO sem fazer nenhuma integração (explicitamente).
Usaremos a Transformada de Laplace, mas a teoria de transformadas é bem mais geral. Seja
K(s, t) uma função (que chamaremos de núcleo) e α, β ∈ R ∪ {−∞, ∞}. Se f (t) é uma função
“boa” definida em [α, β], definimos a transformada de f (t) com núcleo16 K por
TK{ f (t)} = F(s) =
∫ β
α
K(s, t) f (t) dt. (47)
Ou seja, a TK transforma f (t) em F(s), que é dada pela integral anterior. Esta pode ser uma
integral imprópria e que de fato, como a variável de integração é t, resta uma função de s.
15Perdão pelo trocadilho.
16Sobre o uso da palavra núcleo neste contexto, recomendo o artigo David C. Sutherland, “The kernel of the
Laplace transform”, Pi Mu Epsilon Journal Vol. 7, no. 4, pág. 252–256, 1981.
66
Seja f (t) uma função “boa” definida para t ≥ 0. Definimos a transformada de Laplace de
f (t) por F(s) = L{ f (t)}, onde
F(s) = L{ f (t)} =
∫ ∞
0
e−st f (t) dt. (48)
Comparando com nossa definição anterior, o núcleo é K(s, t) = e−st.
Ainda temos que investigar se a transformada (48) existe para qualquer função f (t), já que
a integral que define F(s) na equação (48) é imprópria. Portanto, vamos a uma revisão sobre
integrais impróprias.
6.2 Integrais impróprias
Relembrando a definição da integral imprópria: seja a ∈ R e f (t) uma função contínua em
[a, ∞). Definimos ∫ ∞
a
f (t) dt = lim
A→∞
∫ A
a
g(t) dt.
Denotando I(A) =
∫ A
a
g(t) dt, temos:
• se lim
A→∞
I(A) existe, então a integral é dita convergente.
• se lim
A→∞
I(A) não existe, então a integral é dita divergente.
Vamos fazer alguns exemplos de integrais impróprias.
Exemplo 6.1. Se f (t) = eαt e α ̸= 0 então
∫ ∞
0
eαt dt = lim
A→∞
∫ A
0
eαt dt = lim
A→∞
eαt
α
∣∣∣∣
A
0
(49)
= lim
A→∞
1
α
(
eαA − 1
)
(50)
Portanto:
• Se α > 0 o limite acima não existe, logo a integral diverge.
• Se α 1.
No caso da transformada de Laplace, precisamos obter hipóteses sobre f (t) para que a inte-
gral imprópria
L{ f (t)} =
∫ ∞
0
e−st f (t) dt
exista.
6.3 Existência da Transformada de Laplace
Finalmente vamos estabelecer condições para que a transformada de Laplace exista. Seja f :
[0, A] → R uma função. Dizemos que f é contínua por partes se existe uma partição de [0, A]
em 0 = t0 tj f (t) existe (ou seja, é um número) para todo j = 0, . . . , n.
Teorema 6.4. Suponha que
• f é contínua por partes em [0, ∞) e
• | f (t)| ≤ Keat se t ≥ M para certos K, a, M ∈ R, com K, M > 0.
Então F(s) = L{ f (t)} existe para todo s > a.
Prova. Feito em aula. Estará digitado aqui em algum momento. ■
Perceba que este teorema é MUITO geral: a transformada existe desde que a função seja
limitada por algum tipo de exponencial. Vamos calcular algumas transformadas.
Exemplo 6.5. L{1} =? ◁
Solução. Temos que:
L{1} =
∫ ∞
0
e−st · 1 dt = lim
A→∞
∫ A
0
e−st · 1 dt = lim
A→∞
(
e−st
−s
)∣∣∣∣
A
0
= lim
A→∞
(
e−sA
−s
− 1
−s
)
=
1
s
, s > 0.
□
Exemplo 6.6. L{eat} =? ◁
68
Solução. Temos que:
L{eat} =
∫ ∞
0 e−st · eat dt = lim
A→∞
∫ A
0
et(a−s) dt
= lim
A→∞
(
et(a−s)
a − s
)∣∣∣∣∣
A
0
= lim
A→∞
(
eA(s−a)
a − s
− 1
a − s
)
=
1
s − a
, s > a.
□
Exercício 6.7. Mostre que L{sen (at)} =
a
s2 + a2 , s > 0.
Exercício 6.8. Mostre que L{cos(at)} =
s
s2 + a2 , s > 0.
Uma propriedade importante da transformada de Laplace é que ela é linear: se as transfor-
madas de Laplace de f (t) e g(t) existem, então
L{a f (t) + bg(t)} = aL{ f (t)}+ bL{g(t)},
para todos a, b ∈ R (prove!).
E o produto? O que acontece com
L{ f (t) · g(t)}?
Veremos mais pra frente.
6.4 Transformadas de Laplace e PVIs
Nossa proposta inicial era usar a transformada de Laplace para resolver PVIs, e para isto é
essencial que a transformada se comporte bem com as derivadas.
É exatamente isto que acontece:
Teorema 6.9. Suponha que f é contínua e f ′ é contínua por partes em [0, ∞). Além disto, suponha que
existem K, a, M ∈ R, com | f (t)| ≤ Keat, para todo t ≥ M. Então L{ f ′(t)} existe para todo s > a e
L{ f ′(t)} = sL{ f (t)} − f (0).
Prova. Feito em aula. Estará digitado aqui em breve. ■
Corolário 6.10. Se f ′ e f ′′ satisfazem as hipóteses do teorema anterior para f e f ′, então L{ f ′′(t)}
existe para s > a e
L{ f ′′(t)} = s2L{ f (t)} − s f (0)− f ′(0).
Exercício 6.11. Que tal tentar enunciar um corolário como o acima para o cálculo de L{ f ′′′(t)} e
L{ f (n)(t)}?
Exemplo 6.12. Resolva y′′− y′− 2y = 0, y(0) = 1, y′(0) = 0 usando transformadas de Laplace.◁
69
Solução. Aplicando L em ambos os lados da EDO teremos
L{y′′ − y′ − 2y} = L{0} = 0.
Como
• L{y′(t)} = sL{y(t)} − y(0),
• L{y′′(t)} = s2L{y(t)} − sy(0)− y′(0).
Substituindo na equação teremos:
(
s2L{y(t)} − sy(0)− y′(0)
)
−
(
sL{y(t)} − y(0)
)
− 2L{y(t)} = 0.
Como y(0) = 1 e y′(0) = 0, a equação fica
s2L{y(t)} − s − sL{y(t)}+ 1 − 2L{y(t)} = 0.
Denotando Y(s) = L{y(t)} e isolando Y(s) fica
Y(s) =
s − 1
s2 − s − 2
.
Encontramos L{y(t)}. Como encontraremos y(t)? □
A transformada de Laplace L é um operador linear. Portanto, se
Y(s) = L{y(t)}
então podemos calcular y(t) tomando L−1 em ambos os lados:
L−1{Y(s)} = L−1{L{y(t)}} = y(t).
Observação 6.13. Aqui temos um problema: a transformada de Laplace é invertível? Esta
questão é delicada. A injetividade da transformada de Laplace pode ser demonstrada de forma
simples, e é uma consequência de um resultado geral, chamado de Teorema de Lerch: se duas
funções f1(t), f2(t) tem mesma transformada integral, digamos L{ f1(t)} = L{ f2(t)}, deno-
tando δ0(t) = f1(t)− f2(t) então temos que
∫ a
0
δ0(t) dt = 0
para todo a > 0, ou seja, f1 = f2 a menos de possivelmente em alguns pontos, e portanto
a transformada de Laplace é injetora (neste sentido). Uma prova elementar dessa proprie-
dade pode ser feita diretamente, usando o Teorema da Aproximação de Weierstrass. Note
que a transformada envolvida não precisa ser necessariamente a de Laplace, vale para qual-
quer transformada integral como (47). Em termos da sobrejetividade, não é fácil descrever o
conjunto imagem da transformada de Laplace - portanto, dada uma função qualquer G(s), não
é simples decidir se existe L−1{G(s)}. Para o que faremos com a transformada de Laplace,
que é resolver equações diferenciais, em geral a transformada inversa estará bem definida (a
não ser que você esteja resolvendo equações muito, mas muito estranhas). Em contextos um
pouco mais gerais, existem teoremas de garantem a sobrejetividade restringindo o domínio e o
contra-domínio da transformada: um deles é o Teorema de Schwartz-Paley-Wiener.
70
Exemplo 6.14. Vamos continuar o exemplo anterior. Seja
Y(s) =
s − 1
s2 − s − 2
.
Queremos encontrar y(t) tal que L{y(t)} = Y(s). Temos que y(t) = L−1{Y(s)}, ou seja:
y(t) = L−1{Y(s)} = L−1
{
s − 1
s2 − s − 2
}
.
Usando frações parciais, temos que
s − 1
s2 − s − 2
=
1/3
s − 2
+
2/3
s + 1
,
portanto
y(t) = L−1
{
1/3
s − 2
}
+ L−1
{
2/3
s + 1
}
.
Já vimos que
L
{
e2t
3
}
=
1
3
1
s − 2
, L
{
2e−t
3
}
=
2
3
1
s + 1
,
portanto como
y(t) = L−1
{
1/3
s − 2
}
+ L−1
{
2/3
s + 1
}
segue que
y(t) =
e2t
3
+
2e−t
3
.
Note que a resposta é exatamente a mesma se utilizarmos a equação característica para encon-
trar a solução (teste!). ◁
Observação 6.15. A história do desenvolvimento da transformada de Laplace começa por volta
de 1740, e não tinha nenhuma relação com equações diferenciais. A utilização da forma como
estamos fazendo nesta seção só começou por volta de 1890, com Oliver Heaviside, que usava
uma série de procedimentos com funções para poder resolver equações, até que no começo do
século XX a ideia foi recuperada/formalizada como a transformada de Laplace, que já existia.
Esta história está contada rapidamente em [1], ou de forma bem mais detalhada nos dois artigos
[10, 11].
6.5 Método geral
Se tivermos um PVI da forma
ay′′(t) + by′(t) + cy(t) = f (t), y(0) = α, y′(0) = β,
denotando L{y(t)} = Y(s) teremos, após a aplicação da transformada de Laplace:
Y(s) =
(as + b)y(0) + ay′(0)
as2 + bs + c
+
L{ f (t)}
as2 + bs + c
71
e portanto
y(t) = L−1
{
(as + b)y(0) + ay′(0)
as2 + bs + c
+
L{ f (t)}
as2 + bs + c
}
.
O problema estará em calcular a transformada inversa. O uso de frações parciais e uma tabela
de transformadas ajudará bastante. Uma tabela bem completa está no site
https://tutorial.math.lamar.edu/classes/de/laplace_table.aspx
e também pode ser vista na Figura 15 (página 85).
Observação 6.16. O uso de Transformada de Laplace para resolver PVIs é particularmente in-
teressante quando as condições iniciais são fornecidas na origem. Se as condições iniciais forem
num ponto x0, a mudança de variáveis x̃ = x − x0 resolverá esse problema.
Exercício 6.17. Resolva y′′ + y = sen (2t), y(0) = 2, y′(0) = 1 usando transformada de Laplace.
Exercício 6.18. Resolva y′′ − 5y′ + 6y = e−t, y(0) = 1, y′(0) = 1 usando transformada de Laplace.
6.6 Função degrau
Vimos que a solução da equação
ay′′ + by′ + cy = f (t)
com y = y(t) e L{y(t)} = Y(s) é dada por
y(t) = L−1
{
(as + b)y(0) + ay′(0)
as2 + bs + c
+
L{ f (t)}
as2 + bs + c
}
.
A parte difícil será calcular os termos
L−1
{ L{ f (t)}
as2 + bs + c
}
e L−1
{
(as + b)y(0) + ay′(0)
as2 + bs + c
}
,
pois a transformada inversa de não costuma ser uma função do mesmo “tipo". Precisamos
aumentar nosso zoológico de transformadas para incluir mais alguns tipos de funções.
Para c ∈ R, defina a função uc : R → R por
uc(t) =
{
0, t+ 2/3)
+
1/4
s − 2
Portanto
L−1
{
s
(3s + 2)(s − 2)
}
= L−1
{
1/4
3(s + 2/3)
+
1/4
s − 2
}
.
Finalmente,
f (t) = L−1
{
s
(3s + 2)(s − 2)
}
=
1
12
e−2t/3 +
1
4
e2t
e com isto
h(t) = L−1 {H(s)} = u4(t) f (t − 4),
ou
h(t) = u4(t)
(
1
12
e−2(t−4)/3 +
1
4
e2(t−4)
)
.
□
Muita calma. As coisas vão começar a ficar misturadas. Já já vamos fazer um exemplo. No
que segue, vamos denotar:
L



f (t)︸︷︷︸
letra minúscula e dependendo de t



= F(s)︸︷︷︸
maiúscula e dependendo de s
Por exemplo, L {y(t)} = Y(s). No caso de transformadas inversas, a notação é a mesma: se
a função tiver sido obtida como transforma de Laplace de alguma outra, letra maiúscula. Por
exemplo, L−1 {F(s)} = f (t).
Exemplo 6.29. Resolva o PVI abaixo usando transformada de Laplace:
y′′ − y′ + 5y = 4 + u2(t)e4−2t, y(0) = 2, y′(0) = −1.
◁
76
Figura 14: Gráfico de y(t).
Solução. No nosso catálogo de transformadas, temos algumas informações sobre funções do tipo uc(t)g(t−
c). A parte não-homogênea é quase deste tipo; vamos deixá-la exatamente deste tipo? Ou seja, vamos
escrever
e4−2t = f (t − c)
para alguma função f . Note que neste caso c = 2, pois o c também aparece em uc e no nosso caso temos
u2.
Assim,
e4−2t = f (t − 2) ⇒ f (t) = e−2t ⇒ f (t − 2) = e−2(t−2)
Portanto, o lado direito é u2(t)e−2(t−2) e a EDO fica
y′′ − y′ + 5y = 4 + u2(t)e−2(t−2).
Calculando transformada de Laplace dos dois lados e isolando Y(s) = L {y(t)} obtemos
Y(s) =
2s2 − 2s + 4
s(s2 − s + 5)
+
e−2s
(s + 2)(s2 − s + 5)
Usando a transformada inversa obtemos
y(t) = L−1
{
2s2 − 2s + 4
s(s2 − s + 5)
}
+ L−1
{
e−2s
(s + 2)(s2 − s + 5)
}
.
Temos que:
• L−1
{
2s2 − 2s + 4
s(s2 − s + 5)
}
=
6et/2
(
√
19 cos
(√
19t
2
)
− sen
(√
19t
2
))
5
√
19
+
4
5
• L−1
{
e−2s
(s + 2)(s2 − s + 5)
}
= enorme, veja no Wolfram.
Mesmo com estas expressões enormes, encontramos y(t)! Como será o gráfico de y(t)?
□
Para finalizar, mais alguns exercícios.
Exercício 6.30. Resolva o PVI y′′ + 4y = uπ(t)− u3π(t), y(0) = y′(0) = 0.
Exercício 6.31. Resolva o PVI y′′ + y′ + 5y/4 = g(t), y(0) = 0, y′(0) = 0 e
g(t) =
{
sen (t), 0 ≤ t 0 e defina
L {δ(t − t0)} = lim
τ→0
L {dτ(t − t0)}.
Vamos calcular
L {dτ(t − t0)}
e depois vamos fazer o limite
lim
τ→0
L {dτ(t − t0)}.
Temos
L {dτ(t − t0)} =
∫ ∞
0
e−stdτ(t − t0) dt
=
∫ t0+τ
t0−τ
e−stdτ(t − t0) dt
=
1
2τ
∫ t0+τ
t0−τ
e−st dt
=
1
2sτ
e−st0
(
esτ − e−sτ
)
=
sinh(sτ)
sτ
e−st0
79
Como
L {dτ(t − t0)} =
sinh(sτ)
sτ
e−st0
temos
L {δ(t − t0)} = lim
τ→0
sinh(sτ)
sτ
e−st0
(l’Hôpital) = lim
τ→0
s cosh(sτ)
s
e−st0
= e−st0
Logo
L {δ(t − t0)} = e−st0 .
Fazendo t0 → 0 obtemos L {δ(t)} = 1.
Observação 6.33. Se definirmos
∫ ∞
−∞
δ(t) f (t) dt = lim
τ→0
∫ ∞
−∞
dτ(t − t0) f (t) dt,
teremos que
∫ ∞
−∞
dτ(t − t0) f (t) dt =
1
2π
∫ t0+τ
t0−τ
f (t) dt =
1
2τ
· 2τ · f (t∗) = f (t∗),
onde t∗ ∈ (t0 − τ, t0 + τ). Na última igualdade, usamos o TVM para integrais. Fazendo τ → 0
teremos t∗ → t0, logo ∫ ∞
−∞
δ(t − t0) f (t) dt = f (t0).
Exemplo 6.34. Vamos encontrar as soluções do PVI
2y′′ + y′ + 2y = δ(t − 5), y(0) = 0, y′(0) = 0.
Tomando a transformada de Laplace e isolando Y(s) = L {y(t)}, obtemos
Y(s) =
e−5s
2s2 + s + 2
.
Calculando transformada inversa temos
y(t) =
2√
15
u5(t)e−(t−5)/4sen
(√
15(t − 5)
4
)
.
◁
Observação 6.35. Note que se a equação do exemplo anterior fosse homogênea
2y′′ + y′ + 2y = 0, y(0) = 0, y′(0) = 0,
a solução seria a função nula. O pulso enorme que acontece em t = 5 pela presença da função
δ faz com que a solução não seja nula: ela inicia um pico logo após t = 5 e depois decai para
zero:
80
Exercício 6.36. Resolva o PVI y′′ − 5y′ + 6y = sen (t) + δ(t − π) e compare a solução com a do PVI
y′′ − 5y′ + 6y = sen (t), ambos com condições iniciais y(0) = y′(0) = 0.
6.9 O produto de convolução
Muitas vezes precisamos calcular a transformada inversa de um produto de funções
L−1 {F(s) · G(s)},
onde F(s) = L { f (t)} e G(s) = L {g(t)}. Isto às vezes pode ser feito com frações parciais ou
outras decomposições bem escolhidas, mas quase sempre é bem difícil. Não seria ótimo se
L−1 {F(s)G(s)} = f (t)g(t)?
O mundo não é tão bom assim, mas ainda tem salvação:
Teorema 6.37 (Produto de convolução). Se F(s) = L { f (t)} e G(s) = L {g(t)} existem para
s > a ≥ 0, então o produto F(s) · G(s) pode ser descrito como a transformada de Laplace de
h(t) =
∫ t
0
f (t − τ)g(τ) dτ =
∫ t
0
f (τ)g(t − τ) dτ,
ou seja,
F(s) · G(s) = L {h(t)} = H(s), s > a.
A função h é chamada de convolução de f e g e a integral no enunciado do Teorema 6.37 é
chamada de integral de convolução. Ou seja:
L−1 {F(s)G(s)} =
∫ t
0
f (t − τ)g(τ) dτ.
Prova. Sejam
F(s) =
∫ ∞
0
e−sw f (w) dw, G(s) =
∫ ∞
0
e−sτg(τ) dτ.
Então
F(s)G(s) =
∫ ∞
0
e−sw f (w) dw
∫ ∞
0
e−sτg(τ) dτ
=
∫ ∞
0
e−sτg(τ)
( ∫ ∞
0
e−sw f (w) dw
)
dτ
=
∫ ∞
0
g(τ)
( ∫ ∞
0
e−s(w+τ) f (w) dw
)
dτ
(t = w + τ) =
∫ ∞
0
g(τ)
( ∫ ∞
τ
e−st f (t − τ) dt
)
dτ
81
Agora vamos inverter a ordem de integração na integral
∫ ∞
0
g(τ)
( ∫ ∞
τ
e−st f (t − τ) dt
)
dτ,
Agora vamos inverter a ordem de integração na integral
∫ ∞
0
g(τ)
( ∫ ∞
τ
e−st f (t − τ) dt
)
dτ :
Obtendo: ∫ ∞
0
e−st
(∫ t
0
f (t − τ)g(τ) dτ
)
dt =
∫ ∞
0
e−sth(t) dt = L {h(t)}.
■
Exemplo 6.38. Calcule
L−1
{
8
s2(s2 + 4)
}
usando o teorema anterior. ◁
Solução. Se escrevermos
8
s2(s2 + 4)
=
4
s2 · 2
s2 + 4
teremos
L−1
{
8
s2(s2 + 4)
}
= L−1
{
4
s2 · 2
s2 + 4
}
= L−1 {F(s)G(s)}.
Como F(s) = L {4t} e G(s) = L {sen (2t)}, segue que
L−1
{
8
s2(s2 + 4)
}
=
∫ t
0
4(t − τ)sen (2τ) dτ = 2t − sen (2t).
□
82
Vamos fixar por alguns momentos a notação: se H(s) = F(s)G(s), então
L−1 {H(s)} = L−1{F(s)G(s)} =
∫ t
0
f (t − τ)g(τ) dτ = h(t).
Iremos denotar a convolução de f e g por
h(t) = ( f ∗ g)(t) =
∫ t
0
f (t − τ)g(τ) dτ.
A operação de convolução f ∗ g tem algumas propriedades parecidas com a multiplicação.
Exercício 6.39. Prove que:
• f ∗ g = g ∗ h
• f ∗ (g1 + g2) = f ∗ g1 + f ∗ g2
• ( f ∗ g) ∗ h = f ∗ (g ∗ h)
• f ∗ 0 = 0 ∗ f = 0 (0 = função nula)
Exercício 6.40. Se 1 denota a função R → R que é constante igual a 1, então mostre que em geral é
falso que f ∗ 1 = f , e que é também falso que f ∗ f é uma função sempre positiva (ou seja, f ∗ f não é
f (t)2).
Exercício 6.41. Resolva o PVI x′′ − 5x′ + 6x = g(t), onde g(t) é a função que você preferir (cuidado!),
x(0) = 2, x′(0) = 1.
Solução. Calculando transformada de Laplace da EDO, isolando X(s) = L {y(t)} e denotando G(s) =
L {g(t)} obtemos
X(s) = L {y(t)} =
2s − 9
s2 − 5s + 6
+
G(s)
s2 − 5s + 6
Para encontrarmos a solução do PVI deveremos obter L−1 {X(s)}. Como a transformada de Laplace
é linear, podemos quebrar o problema em dois:
L−1 {X(s)} = L−1
{
2s − 9
s2 − 5s + 6
}
+ L−1
{
G(s)
s2 − 5s + 6
}
= a(t) + b(t).
Vamos determinar a(t) e b(t):
• a(t) pode ser calculada com frações parciais e não depende de g(t), só da parte homogênea da EDO
e das condições iniciais.
• calcular b(t) é mais complicado, pois
G(s)
s2 − 5s + 6
pode ser uma função de qualquer tipo.
83
Note que
G(s)
s2 − 5s + 6
= G(s) · 1
s2 − 5s + 6
e a convolução nos ajuda a resolver a transformada inversa de um produto de transformadas de Laplace:
b(t) = L−1
{
G(s) · 1
s2 − 5s + 6
}
=
∫ t
0
g(τ)h(t − τ) dτ,
onde G(s) = L {g(t)} e L {h(t)} =
1
s2 − 5s + 6
. Colocando tudo junto teremos
x(t) = L−1
{
2s − 9
s2 − 5s + 6
}
+
∫ t
0
g(τ)h(t − τ) dτ,
onde g é a função dada no PVI e h(t) = L−1
{
1
s2 − 5s + 6
}
.
A resposta fica na dependência da integral f ∗ g, sendo que todas as funções envolvidas são conhecidas
ou podem “facilmente” ser calculadas. A integral que aparece acima, no entanto, pode não ser simples de
calcular. □
Observação 6.42. Ao resolvermos a equação diferencial ax′′(t) + bx′(t) + cx(t) = g(t), usando
transformadas de Laplace, a função
H(s) =
1
as2 + bs + c
aparece com frequência. Ela se chama função de transferência.
Exemplo 6.43. No exemplo anterior, fazendo g(t) = cos(t) temos que
x(t) = L−1
{
2s − 9
s2 − 5s + 6
}
+
∫ t
0
cos(τ)h(t − τ) dτ,
onde h(t) = e2t(et − 1), ou seja,
x(t) = −e2t (3et − 5
)
+
∫ t
0
cos(τ)e2(t−τ)
(
et−τ − 1
)
dτ
= −e2t (3et − 5
)
+
1
10
(
e2t (3et − 4
)
− sin(t) + cos(t)
)
◁
84
Tabela de Transformadas de Laplace
f(t) F (s)
1
1
s
eat
1
s− a
tn
n!
sn+1
ta
Γ(a+ 1)
sa+1
sen at
a
s2 + a2
cos at
s
s2 + a2
senh at
a
s2 − a2
cosh at
s
s2 − a2
eatsen bt
b
(s− a)2 + b2
eat cos bt
(s− a)
(s− a)2 + b2
tneat
n!
(s− a)n+1
f(t) F (s)
uc(t) = u(t− c)
e−cs
s
uc(t)f(t− c) e−csF (s)
ectf(t) F (s− c)
f(ct)
1
c
F
(s
c
)
∫ t
0
f(t− τ)g(τ)dτ F (s)G(s)
δc(t) = δ(t− c) e−cs
f (n)(t) snF (s)− sn−1f(0)− . . .− f (n−1)(0)
∫ t
0
f(τ)dτ
F (s)
s
f(t)
t
∫ ∞
s
F (σ)dσ
(−t)nf(t) F (n)(s)
f(t), peŕıodo p
1
1− e−ps
∫ p
0
e−stf(t)dt
1
Figura 15: Tabela de transformadas de Laplace
85
7 Sequências e séries numéricas
Vimos que não há método muito eficiente para resolver PVIs do tipo
y′′(t) + p(t)y′(t) + q(t)y(t) = f (t), y(t0) = y0, y′(t0) = y1,
com p, q e f funções não-constantes. Vamos então procurar uma solução em série, ou seja, a
solução será uma função dada por
y(t) =
∞
∑
n=0
an(t − t0)
n, t ∈ I,
onde I é um certo intervalo contendo t0. Vamos definir precisamente o que queremos dizer com
este somatório infinito, e para isto precisamos entender o conceito de sequência.
7.1 Relações de equivalência
Seja A um conjunto não-vazio. Uma relação de equivalência em A, é uma relação entre elemen-
tos de A, em geral denotada por ∼, que é reflexiva, simétrica e transitiva: dados a, b, c ∈ A,
temos que
• a ∼ a (reflexividade),
• se a ∼ b então b ∼ a (simetria),
• se a ∼ b e b ∼ c então a ∼ c (transitividade).
Relações de equivalência são usadas para classificar os elementos de A em “caixinhas”: tudo
que é parecido (elementos que se relacionam) vão pra mesma caixinha.
Exemplo 7.1. No conjunto dos números inteiros, defina a relação de equivalência por
x ∼ y ⇔ x e y tem mesma paridade.
Então ∼ é uma relação de equivalência. De fato:
• então n ∼ n, pois n tem a mesma paridade que n,
• se x ∼ y (x tem a mesma paridade que y), então y ∼ x (y tem a mesma paridade que x),
• se x ∼ y (x tem a mesma paridade que y) e y ∼ z (y tem a mesma paridade que z), então
x ∼ z (x tem a mesma paridade que z).
◁
Exemplo 7.2. A relação “ser igual”, em números inteiros, é uma relação de equivalência. De
fato, para todos k, m, n ∈ N temos que
• n = n,
• se n = m então m = n,
86
• sek = m e m = n então k = n.
◁
Exemplo 7.3. Sejam x, y dois objetos quaisquer no universo que tenham alguma cor bem de-
finida e considere a relação de equivalência: x ∼ y se x e y tem a mesma cor. Assim, um
caminhão amarelo e uma banana estão relacionados, bem como um navio laranja e uma la-
ranja. Um avião branco e uma uva rosa, no entanto, não estão relacionados. (É claro que esta
relação de equivalência não está bem definida, mas é só um exemplo didático.) ◁
Exercício 7.4. Mostre que, em R, a relação x ∼ y se x2 = y2 é uma relação de equivalência.
O próximo exemplo provavelmente é o exemplo mais famoso de relação de equivalência.
Exemplo 7.5. Seja A = Z, m um inteiro positivo e defina a relação de congruência módulo m
por:
x ∼ y ⇔ m|x − y.
Esta relação é em geral denotada por
x ≡ y mod m.
Uma forma análoga de se definir esta relação é dizer que x ∼ y se x e y deixam o mesmo
resto quando divididos por m. Por exemplo, se m = 5, então diremos que x ∼ y quando 5|x− y,
ou quando x e y deixam o mesmo resto quando divididos por 5. Note que:
• 7 ∼ 12 (ou melhor, 7 ≡ 12 mod 5) pois ambos deixam resto 2 quando divididos por 5;
• 6 ∼ 31, pois ambos deixam resto 1 quando divididos por 5.
A relação x ≡ y mod m é uma relação de equivalência (prove!) e particiona Z em m caixi-
nhas:
• a caixinha dos números que deixam resto 0 quando divididos por m,
• a caixinha dos números que deixam resto 1 quando divididos por m,
•
...
• a caixinha dos números que deixam resto m − 1 quando divididos por m.
◁
Dada uma relação de equivalência ∼ num conjunto A, definimos a classe de equivalência
de x ∈ A como sendo
x = {y ∈ A, x ∼ y},
ou seja, a classe de equivalência do x é o conjunto de todos os elementos de A que se relacionam
com x. Outra notação para classe de equivalência é [x], ou mesmo [x]∼ se a relação precisar ser
explicitada. O elemento particular x que usamos para escrever [x] é chamado de representante
da classe. Note que qualquer elemento de [x] pode ser representante de [x], pois se y ∈ [x]
então [x] = [y].
O conjunto das classes de equivalência, chamado de quociente de A pela relação ∼, é deno-
tado por A/ ∼:
(A/ ∼) = {x, x ∈ A}.
Note que A/ ∼ é um conjunto de conjuntos. Informalmente, ele é o conjunto das “caixinhas”.
87
Exemplo 7.6. Quando consideramos a relação “igualdade” em Z, cada classe de equivalência
só contém um elemento: [x] = {x}, pois somente x é igual a x. Portanto, podemos dizer que
o quociente Z/ ∼ é o próprio Z (tecnicamente, existe uma bijeção entre Z e Z/ ∼, dada por
f : Z → Z/ ∼, com f (x) = [x]. ◁
Exemplo 7.7. Considerando a relação x ∼ y como sendo a paridade, existem duas classes de
equivalência: a dos pares e a dos ímpares. Podemos escolher 0 e 1 como representantes destas
classes:
[0] = {n ∈ Z, n tem a mesma paridade que 0} = {. . . ,−4,−2, 0, 2, 4, . . .},
[1] = {n ∈ Z, n tem a mesma paridade que 1} = {. . . ,−3,−1, 1, 3, . . .}.
Portanto, o quociente Z/ ∼ é igual a Z/ ∼= {[0], [1]}, um conjunto com dois elementos. Note
ainda que se n ∈ Z, então ou n ∈ [0] ou n ∈ [1], logo Z = [0] ∪ [1] e a união é disjunta. ◁
Exemplo 7.8. Considere em Z a relação de equivalência x ∼ y se x ≡ y mod 2. Vamos en-
tender quais são as classes de equivalênciadesta relação. Quem está na classe do 0? Todos os
inteiros n que satisfazem n ≡ 0 mod 2, ou seja, que 2|n − 0. Portanto, são os inteiros n que são
divisíveis por 2 (os pares!). Assim,
[0] = {. . . ,−2, 0, 2, . . .} = números pares.
Como 1 /∈ [0] (já que 1 não é par), em que classe de equivalência o 1 está? Ora, se n ∼ 1 então
n ≡ 1 mod 2, ou seja, 2|n − 1 (n − 1 é par). Logo, n é ímpar. Assim:
[1] = {. . . ,−3,−1, 0, 1, 3, . . .} = números ímpares.
Novamente temos que Z = [0] ∪ [1] e a união é disjunta. ◁
Exemplo 7.9. Na relação de equivalência x ∼ y quando x, y tem as mesmas cores, o quociente
Universo/ ∼ é o conjunto das cores. ◁
Exercício 7.10. Mostre que se a relação de equivalência for x ∼ y se x ≡ y mod m então as classes de
equivalência serão [0], [1], . . . , [m − 1] e portanto
Z/ ∼= {0, 1, . . . , m − 1, }.
Este conjunto é normalmente denotado por Zm. Mostre explicitamente que
Zm = [0] ∪ [1] ∪ . . . ∪ [m − 1]
e que esta união é disjunta.
As classes de equivalência de uma relação de equivalência possuem algumas propriedades
interessantes.
Proposição 7.11. Para uma relação de equivalência ∼ definida num conjunto A, temos que:
1. Para todo x ∈ A temos que x ∈ [x].
2. Se y ∈ [x] então x ∈ [y] e, portanto, [x] = [y].
88
3. Se x, y ∈ A, então ou [x] = [y] ou [x] ∩ [y] = ∅.
Podemos definir relações de equivalência por meio de partições. Uma partição de um con-
junto A é uma família F não-vazia de subconjuntos de A com as seguintes propriedades:
1. se U, V ∈ F então ou U = V ou U ∩ V = ∅ e
2.
⋃
U∈F U = A.
A Proposição 7.11 nos diz que uma relação de equivalência em A induz uma partição em A,
dada pelas classes de equivalência. A recíproca deste fato também é verdadeira:
Proposição 7.12. Seja F uma partição não-vazia de A. Defina uma relação de equivalência em A por
x ∼ y ⇔ existe U ∈ F que contém x e y.
Então ∼ é uma relação de equivalência e F é exatamente o conjunto das classes de equivalência de ∼.
Assim, partições definem relações de equivalência. O quociente A/ ∼ deve ser pensado da
seguinte forma: vamos fazer de conta que elementos de A que se relacionam são iguais, então
A/ ∼ conterá somente os “tipos” de elementos distintos que estão em A.
Exemplo 7.13. Um número racional em geral é denotado como uma fração
a
b
com b ̸= 0, de
modo que, aparentemente,
Q =
{ a
b
, a, b ∈ Z, b ̸= 0
}
⊆ Z × Z∗. (51)
Note que, com esta definição, estamos associando a fração
a
b
ao par ordenado (a, b).
A adição de números racionais é definida por
a
b
+
c
d
=
ad + bc
bd
e o produto por
a
b
· c
d
=
ac
bd
.
O problema é que, com a definição (51), as operações acima não ficam bem definidas. Por
exemplo, temos que
1
2
+
1
3
=
5
6
e
2
4
+
1
3
=
10
12
,
porém
5
6
e
10
12
são elementos diferentes do conjunto Q como definido em (51), pois não existe
nenhum tipo de “simplificação” de fração definido - nada na definição indica que
5
6
e
10
12
são o
mesmo elemento de Q, como sabemos que acontece. Vamos corrigir este problema fazendo a
construção de Q de uma maneira um pouco diferente, usando uma relação de equivalência.
89
No conjunto Z × Z∗, defina a relação de equivalência
(a, b) ∼ (c, d) se ad − bc = 0.
Fica como exercício provar que ∼ é de fato uma relação de equivalência. Note que com esta
relação, temos que (5, 6) ∼ (10, 12), pois 5 · 12− 6 · 10 = 0 - com nossa notação de par ordenado
representando uma fração, isto nos diz que as frações
5
6
e
10
12
são equivalentes.
O quociente (Z × Z∗)/ ∼ é o que chamamos de conjunto dos números racionais e deno-
tamos por Q, em geral escrevendo um elemento (a, b) como a/b. Note que, em Q, uma fração
pode ser “simplificada” até ficar da forma p/q com p, q coprimos, graças à relação de equiva-
lência.
Note que esta relação de equivalência é inclusive compatível com as operações usuais de
soma e produto de números racionais. Em termos de pares ordenados, pensando que “(a, b) =
a/b”, as operações são definidas como
(a, b) + (c, d) = (ad + bc, bd)
e
(a, b) · (c, d) = (ac, bd).
Para ver a compatibilidade das operações com a relação de equivalência, precisamos provar que
podemos operar com qualquer representante de uma classe. Sejam (a0, b0), (a1, b1) ∈ [(a, b)] e
(c0, d0), (c1, d1) ∈ [(c, d)]. Devemos provar que
(a0, b0) + (c0, d0)
está na mesma classe de equivalência que a soma
(a1, b1) + (c1, d1),
e o mesmo para os produtos.
Note que
(a0, b0) + (c0, d0) = (a0d0 + b0c0, b0d0)
(a1, b1) + (c1, d1) = (a1d1 + b1c1, b1d1)
Será que
[(a0d0 + b0c0, b0d0)] = [a1d1 + b1c1, b1d1]?
Para isto, precisamos que
(a0d0 + b0c0)b1d1 − (a1d1 + b1c1)b0d0 = 0.
Note que c0d1 − d0c1 = 0 e a0b1 − b0a1 = 0. Fica como exercício você concluir as contas (é só
abrir a expressão anterior e tentar identificar estes termos por lá).
Com estas operações, e da forma como definimos, usando um quociente de Z×Z∗ por uma
relação de equivalência, Q é um corpo. ◁
Observação 7.14. A construção anterior de Q a partir de Z pode ser feita mais geralmente com
um anel A qualquer, e o corpo obtido será chamado de corpo de frações de A.
90
Exemplo 7.15. Seja V um espaço vetorial e W um subespaço de V. Quocientes da forma V/W
devem ser interpretados como quocientes da relação de equivalência u ∼ v ⇔ u − v ∈ W.
Pode-se provar que V/W também é um espaço vetorial, e se dim Vlineares de ordem superior. Princípio da superposição.
Wronskiano. Equações homogêneas com coeficientes constantes. Métodos: Coeficientes
indeterminados, variação dos parâmetros. Redução de ordem. Algumas equações com
coeficientes não-constantes.
3. Transformadas de Laplace. Solução de problemas de valor inicial. Funções degrau. Fun-
ções impulso. A integral de convolução.
3
4. Sequências. Séries numéricas. Testes da integral, da comparação, do limite, da razão, da
raiz, etc. Séries de potências. Séries de Taylor.
5. Soluções de equações diferenciais ordinárias por séries de potências (caso regular) e por
séries de Frobenius (caso singular).
6. Problemas de valores de fronteira. Séries de Fourier. Equações diferenciais parciais. Equa-
ções da onda e do calor. Método de separação de variáveis. Equação de Laplace.
7. Exponencial matricial. Sistemas lineares.
Essas notas tem pouco conteúdo de modelagem e “real world applications". Isso é um pro-
blema, e talvez eu consiga melhorar isso em versões futuras. Para este conteúdo e muitos
exemplos aplicados, recomendo os excelentes livro [1] e [7].
Sobre o ensino de equações diferenciais
Existe um texto bem legal do matemático ítalo-americano Gian-Carlo Rota que eu gosto muito:
Ten lessons I wish I had learned before I started teaching differential equations. No texto, aparen-
temente escrito em 2015, prof. Rota dá 10 “conselhos” para um bom curso introdutório de
equações diferenciais. Eles são1:
1. A maioria do material ensinado atualmente é obsoleto.
2. Ensine o mínimo sobre equações de primeira ordem.
3. Equações diferenciais lineares com coeficientes constantes são muito importantes.
4. Ensine mudança de variáveis.
5. Ignore teoremas de existência e unicidade.
6. Sistemas lineares com coeficientes constantes são o filé com batatas do curso.
7. Fique longe de formas diferenciais.
8. Evite problemas que envolvem modelagem.
9. Dê uma motivação clara para a Transformada de Laplace.
10. Ensine conceitos ao invés de truques.
Cada item é devidamente justificado no texto do prof. Rota. Com exceção do item 5 e talvez
do item 7, eu concordo com todos os outros.
Sobre o ensino de teoremas de existência e unicidade, acho que eles são importantes mesmo
num curso introdutório. A ideia de que estamos procurando solução para uma equação que
não sabemos se tem solução me parece estranha. Por outro lado, é bom ter em mente que
1Tradução livre.
4
em termos de equações diferenciais, “existir solução” é diferente de “vou exibir uma solução
explícita”, mais ou menos como já acontece no Teorema Fundamental do Cálculo: a função
F(x) =
∫ x
0
et2
dt,
primitiva de f (t) = et2
, existe, só não sabemos exibí-la em termos de funções elementares.
Em todo caso, pode ser uma boa ideia introduzir o Teorema de Picard e falar sobre o Teorema
do Ponto Fixo, ainda que o assunto fique com pouco formalismo.
Sobre as formas diferenciais, elas ajudam a “justificar” o motivo de aparentemente operar-
mos com dy/dx como se isso fosse uma fração. É o assunto que dá suporte à notação de Leibniz.
É preciso ter boa base de álgebra linear para poder acompanhar. No texto, vamos usar isso de
modo intuitivo.
Outro assunto é a introdução de coisas “computacionais”. Mesmo se você for aquele mate-
mático puro que inverte matrizes 11 × 11 na mão, é importante ter um pouco de conhecimento
sobre ferramentas computacionais para matemática - pois as matrizes podem ser 111 × 111
(bom, em teoria é só pegar mais papel, mas..).
É bom saber fazer algumas simulações e usar alguns métodos computacionais. No mínimo,
isso ajuda a fazer alguns exemplos e a ganhar intuição sobre certos problemas.
Agradecimentos
Este texto foi diagramado usando uma versão modificada do template LaTeX-lecture-notes-
class, por V. H. Belvadi:
https://vhbelvadi.com/latex-lecture-notes-class/
Contribuíram com alguns exercícios e exemplos: Mayara Caldas (PED em 2020), Pablo Lo-
pes (PAD em 2020), Anna Carolina Ferrari (PAD em 2022).
Ajudaram com correção de erros e/ou comentários durante a aula que viraram sugestões e
foram incorporados ao texto: Marcos Emanuel do Nascimento, Maycon Bruno da Silva Santos,
Gabriel Dyniewicz Lemos, Pedro Bernardinelli, Bruna Helena Rotta Santiago e muitos outros
(me lembre de te agradecer!).
Copyright
Estas notas de aula estão regidas pela Licença Pública Creative Commons Atribuição 4.0 Inter-
nacional:
https://creativecommons.org/licenses/by/4.0/legalcode.pt
Veja um resumo clicando aqui:
https://creativecommons.org/licenses/by/4.0/deed.pt_BR
Colabore!
Achou algum erro neste material? Tem um exemplo/exercício legal que acha que deveria estar
aqui? Me mande um e-mail: RMiranda@unicamp.br.
5
https://vhbelvadi.com/latex-lecture-notes-class/
https://creativecommons.org/licenses/by/4.0/legalcode.pt
https://creativecommons.org/licenses/by/4.0/deed.pt_BR
RMiranda@unicamp.br
Comentários sobre as referências bibliográficas
Existem excelentes livros de equações diferenciais. Para um curso básico, a referência [1] tem
sido usada com muito sucesso em vários locais do mundo, principalmente por ilustrar os resul-
tados por várias aplicações em física, engenharia, etc. O livro [2] é usado na Unicamp faz muito
tempo. O livro [3] é um clássico no Brasil, e educou muitas gerações de matemáticos. Outros
livros famosos e muito bons são [4], [5] e [6].
Referências bibliográficas
[1] Dennis G. Zill. A First Course in Differential Equations with Modeling Applications. Cen-
gage Learning, 11 edition, 2018.
[2] William E. Boyce and Richard C. DiPrima. Elementary differential equations and
boundary value problems. John Wiley & Sons, 2005.
[3] Djairo Guedes de Figueiredo. Equações diferenciais aplicadas. 12o Coloquio Brasileiro de
Matematica. IMPA, 1979.
[4] William F. Trench. Elementary Differential Equations. Faculty Authored and Edited Books
& CDs., 2013.
[5] Gilbert Strang. Differential equations and linear algebra. Wellesley-Cambridge Press, 2014.
[6] George F. Simmons. Differential equations with applications and historical notes. CRC/-
Taylor & Francis, 2017.
[7] Dennis G. Zill and Warren S. Wright. Advanced Engineering Mathematics. 5a edition,
2014.
[8] Djairo Guedes Figueiredo and Aloisio Freiria Neves. Equações diferenciais aplicadas.
IMPA, 2008.
[9] Adam E. Parker. Wronskians and linear independence: A theorem misunderstood by
many. MAA Convergence, January 2021.
[10] Michael A. B. Deakin. The development of the laplace transform, 1737-1937: I. euler to
spitzer, 1737-1880. Archive for History of Exact Sciences, 25(4):343–390, 1981.
[11] Michael A. B. Deakin. The development of the laplace transform, 1737–1937 ii. poincaré to
doetsch, 1880–1937. Arch. Hist. Exact Sci., 25:351–381, 1982.
[12] José Ruidival dos Santos Filho. A função delta de Dirac. Notas de Minicurso, 2o Colóquio
de Matemática do Sudeste. SBM, 2013.
[13] J. Stewart. Cálculo, volume 1. Cengage Learning, 9 edition, 2022.
[14] Elon Lages Lima. Curso de Análise. IMPA, 15 edition, 2019.
[15] Matt Hudelson. Proof without words: The alternating harmonic series sums to ln 2. Math.
Mag., page 294, 2010.
[16] Aloisio Freiria Neves. Forma de jordan e equações diferenciais lineares. Notas de aula.
6
1 Exemplos e definições iniciais
Este capítulo apresenta as definições iniciais sobre equações diferenciais ordinárias, incluindo
representações gráficas, questões computacionais e o principal: os teoremas que nos dão con-
dições sobre a existência e unicidade de soluções para tais equações.
1.1 Equações.. diferenciais?
Desde a tenra idade, aprendemos a resolver equações. Dizem que até alguns animais conse-
guem resolver equações simples2. As equações da nossa infância envolvem encontrar “nú-
meros” que, quando colocados no lugar as incógnitas, tornam iguais as expressões que estão
em ambos os lados de um símbolo “=”. Por exemplo, conseguimos facilmente encontrar um
número x ∈ R que resolve a equação 2x + 1 = 7: o único valor possível é x = 3.
Continuaremos a resolver equações neste curso, mas agora asé ilimitado superiormente.
2. dado a ∈ K, a > 0, existe n ∈ N tal que 0 0, existe n ∈ N tal que na > b.
Dizemos que um corpo K é arquimediano quando uma das condições do lema anterior são
verdadeiras para ele.
Proposição 7.21. Q é corpo arquimediano.
Exercício 7.22. Demonstre que inf(X) = 0 e sup(X) = 1, onde X é o conjunto definido no Exercício
7.19.
Exercício 7.23. Considere os conjuntos de racionais X = {x ∈ Q, x ≥ 0, x2 2}. Mostre que X é limitado superiormente, não tem supremo e Y é limitado inferiormente, mas
não tem ínfimo.
Dizemos que um corpo ordenado K é completo quando todo subconjunto não-vazio X ⊂ K
que é limitado superiormente possui supremo.
Exemplo 7.24. Vimos no Exemplo 7.23 que existem conjuntos limitados em Q que não tem
supremo e/ou ínfimo. Logo Q não é completo. ◁
Axioma: Existe um corpo ordenado completo, denotado R e chamado de corpo dos números
reais.
Como N ⊂ R é ilimitado, segue que R é arquimediano. O conjunto R \ Q é chamado de
conjunto dos números irracionais. Vamos parar os spoilers de Análise I por aqui. Em particular,
R pode ser construído utilizando completamento de espaços métricos ou usando cortes de
Dedekind (conjuntos parecidos com os que criamos no Exercício 7.23), mas não faremos isto
aqui.
92
7.3 Sequências
Vamos começar esta seção com uma pergunta: na sequência
2, 10, 12, 16, 17, 18, 19, x,
qual é o valor de x? Se sua resposta foi algo do tipo “x é o que eu quiser”, você está certo18.
Uma sequência de números reais é uma função x : N → R, onde usaremos N sem o zero.
O valor x(n) será denotado por xn, o n-ésimo termo da sequência. A sequência será denotada
por (xn)n∈N ou simplesmente (xn) e sempre representada por uma lista entre parênteses, como
(xn)n∈N = (x1, x2, x3, . . .).
Em geral a sequência é definida por meio de uma fórmula para seu termo geral, xn, e não
necessariamente precisa começar de n = 1.
Exemplo 7.25. Se a ∈ R, podemos definir a sequência (xn)n∈N por xn = a, para todo n ∈ N.
Esta sequência é constante, (xn)n = (a, a, a, . . .). ◁
Exemplo 7.26. A sequência de termo geral xn =
n
n − 1
, com n ≥ 2 é (xn)n≥2 =
(
2
1
,
3
2
,
4
3
, . . .
)
. ◁
Exemplo 7.27. Sejam a, r ∈ R. A sequência de termo geral xn = a + (n − 1)r é chamada de
progressão aritmética com termo inicial a e razão r: (xn)n = (a, a + r, a + 2r, a + 3r, . . .). ◁
Exemplo 7.28. Sejam a, q ∈ R. A sequência de termo geral xn = aqn−1 é chamada de progressão
geométrica com termo inicial a e razão q: (xn)n = (a, aq, aq2, aq3, . . .). ◁
Exemplo 7.29. A sequência de termo geral xn = 1/n é (xn)n = (1/n)n = (1, 1/2, 1/3, . . .). ◁
Exemplo 7.30 (Sequência de Fibonacci). Além de darmos o termo geral, podemos fornecer al-
guma fórmula de recorrência para a sequência. Defina x1 = 1, x2 = 1 e daí xn = xn−1 + xn−2,
para n ≥ 3. Esta é a famosa sequência de Fibonacci. Seus primeiros termos são 1, 1, 2, 3, 5, 8,
13, 21, 34, . . . e esta sequência aparece com frequência na natureza. ◁
Exemplo 7.31. Considere (xn)n a sequência definida por: xj é o j-ésimo número natural cujo
“nome” começa com “d”. Então (xn)n = (2, 10, 12, 16, 17, 18, 19, 200, . . .). Esta sequência coin-
cide com a sequência do começo do capítulo - com a diferença de que esta aqui está bem defi-
nida. Você consegue dizer quem é x2000? ◁
Observação 7.32. Ainda sobre o exemplo anterior, dar alguns termos da sequência e pedir o
próximo, sem fornecer a regra geral, é um problema indefinido que costuma ter infinitas solu-
ções. Por exemplo: dado que a1 =
4
3
, a2 =
9
4
, a3 =
16
5
, a4 =
25
6
, a sequência (an)n parece ter
como termo geral an =
(n + 1)2
n + 2
. Neste caso, teríamos a5 =
36
7
. Porém, o termo geral também
poderia ser
an = −17n5
360
+
89n4
180
− 169n3
90
+
571n2
180
− 169n
120
+ 1
e neste caso teríamos a5 = 0.
18Para os curiosos sobre esta sequência, veja o Exemplo 7.31.
93
Observação 7.33. O material sobre sequências e séries aqui é bem básico e muitos lemas, pro-
posições e teoremas serão apresentados sem suas demonstrações. Uma boa referência para
acompanhar o assunto em nível básico é [13] (livro de Cálculo do Stewart, vol. 2 se for na ver-
são em português). Para o mesmo assunto, tratado num nível mais avançado, veja [14] (livro
de Análise do Elon, vol. 1).
Se (xn)n é uma sequência, o conjunto dos termos da sequência {xn} é um conjunto que
contém todos os termos da sequência sem nenhuma ordem em particular. Note que o conjunto
dos termos da sequência é diferente da sequência.
Exemplo 7.34. Se (xn)n = (a, a, a, . . .), o conjunto dos termos é unitário: {xn}n = {a}. ◁
Diremos que a sequência (xn) é limitada superiormente se existe b ∈ R tal que xn ≤ b para
todo n ∈ N. Analogamente, dizemos que (xn) é limitada inferiormente se existe a ∈ R tal que
a ≤ xn para todo n ∈ N. A sequência é limitada se for limitada superiormente e inferiormente.
Dada uma sequência x = (xn), uma subsequência de x é a restrição da função x a algum
subconjunto infinito N ⊂ N, N = {n1, n2, . . .}, e será denotada (xnj)j∈N.
Proposição 7.35. Subsequências de sequências limitadas também são limitadas.
Uma sequência (xn) é crescente, decrescente, não-crescente ou não-decrescente conforme a
função x : N → R seja. Chamaremos a todas elas de sequências monótonas.
Dizemos que uma sequência x = (xn) converge para a ∈ R, ou que a é o limite da sequência
x = (xn), se para todo ε > 0, existir n0 ∈ N tal que |xn − a| 0, tome qualquer
n0 ∈ N. Então
|xn − a| = |a − a| = 0 0. Como R é arquimediano, o conjunto dos naturais é ilimitado, portanto
existe n0 ∈ N tal que n0 > 1/ε. Logo, 1/n0 n0, teremos
|xn − 0| = |xn| = 1/ne para o limite de (1/xn) (caso xn ̸= 0).
Exercício 7.48. Se lim xn = 0 e (yn) é limitada, então lim xnyn = 0.
Exercício 7.49. Se xn ≤ yn para todo n e (xn), (yn) são sequências convergentes, então lim xn ≤ lim yn
Exercício 7.50 (Teorema de Bolzano-Weierstrass, 1817). Toda sequência limitada possui uma sub-
sequência convergente.
Existem várias possibilidades para que uma sequência não seja convergente. Destacaremos
uma delas em especial. Diremos que limn→∞ = ∞ quando dado M > 0, existe n0 ∈ N tal que
se n ≥ n0 temos an > M.
Exercício 7.51. Mostre que lim
n→∞
2n = ∞.
Por fim, o resultado abaixo mostra que sequências se comportam bem junto com funções
contínuas. A prova deste resultado fica como exercício, e é um boa hora de treinar seu conheci-
mento sobre epsilons, deltas e convergência de sequências.
Proposição 7.52. Se lim
n→∞
xn = a e f é uma função contínua em a, então lim
n→∞
f (xn) = f (a).
Exercício 7.53. Calcule alguns termos e o limite da sequência (xn)n, onde xn = exp
(
1
n
)
.
Seja x = (xn) uma sequência num corpo K. Quando temos xn → a, os termos de (xn) se
aproximam de a quando os valores de n são grandes. Portanto, naturalmente os termos de (xn)
se aproximam um dos outros (pois todos se aproximam de a).
Não é verdade, no entanto, que se os termos de (xn) estão cada vez mais próximos uns dos
outros, eles deverão convergir para algum lugar.
95
Exercício 7.54. Tente construir uma justificativa para o parágrafo anterior: encontre uma sequência
cujos termos vão se aproximando uns dos outros mas a sequência não converge.
Dizemos que uma sequência (xn)n é de Cauchy se dado ε > 0, existe n0 ∈ N tal que
|xn − xm| 0. Da convergência, segue que existe n0 ∈ N tal que para todo
n ≥ n0, temos |xn − a| n0. Então temos que
|xm − xn| = |(xm − a)− (xn − a)| ≤ |xm − a| − |xn − a| 0. Como λ ∈ [0, 1), segue que a sequência (λn−1) converge para zero. Portanto,
λn−1
1 − λ
|x2 − x1| → 0.
Seja n0 tal que
λn−1
1 − λ
|x2 − x1| n0 teremos
|xn+p − xn| ≤
λn−1
1 − λ
|x2 − x1| ≤
ε
|x2 − x1|
|x2 − x1| = ε
Ou seja: (xn) é de Cauchy!
◁
96
Exemplo 7.57. Seja a ∈ R e encontre o limite da sequência (xn) dada por
xn+1 =
1
2
(
xn +
a
xn
)
, n ≥ 1,
supondo que ela converge.
Suponha que (xn) converge para um certo número α. Então podemos calcular limite na
expressão acima, obtendo
α = lim xn = lim
1
2
(
xn +
a
xn
)
=
1
2
(
lim xn +
a
lim xn
)
=
1
2
(
α +
a
α
)
.
Resolvendo a equação em α, obtemos α =
√
a, logo se (xn) convergir, teremos xn → √
a. ◁
Observação 7.58. Você pode usar a sequência do Exemplo 7.57 para resolver o Exercício 7.23.
Exercício 7.59. Mostre que a sequência dada por x1 = a e
xn+1 =
1
2
(
xn +
a
xn
)
, n ≥ 1,
satisfaz
|xn+2 − xn+1| ≤ λ|xn+1 − xn|,
portanto ela é de Cauchy.
Lema 7.60. Toda sequência de Cauchy é limitada.
Prova. A prova pode ser feita de forma análoga à do Lema 7.45, quando provamos que sequências con-
vergentes são limitadas: tome ε = 1 para resolver o problema da limitação dos termos com m, n ≥ n0 e
“recolha” os termos de fora usando máximos/mínimos de conjuntos finitos. ■
Teorema 7.61 (Critério de Cauchy). Em R, toda sequência de Cauchy é convergente.
Exercício 7.62. Em Q, existem sequências de Cauchy que não são convergentes (ou: Q não é completo).
Consegue um exemplo?
7.4 Séries
Seja (an) uma sequência em R e considere a sequência (sn), chamada de sequência das somas
parciais, e dada por
s1 = a1
s2 = a1 + a2 = s1 + a2
s3 = a1 + a2 + a3 = s2 + a3
sn =
n
∑
k=1
ak = a1 + . . . + an = sn−1 + an
A sequência (sn) pode ou não ser convergente. Se for, denotaremos seu limite por
s = lim sn =
∞
∑
n=1
an.
A soma anterior é chamada de série de termo geral an. O número s é chamado de soma da série.
97
Exemplo 7.63. Seja a ∈ (0, 1) e considere a sequência (xn) dada por xn = 1 + a + . . . + an. Esta
sequência converge? Para onde?
Vocês já devem conhecer o truque:
xn = 1 + a + . . . + an
axn = a + a2 + . . . + an+1
Logo xn − axn = 1 − an+1 e daí
xn =
1 − an+1
1 − a
.
Como a ∈ (0, 1), segue que an+1 → 0, portanto
xn → 1
1 − a
.
◁
O próximo resultado é o primeiro de vários que estudam a convergência/divergência de
uma série.
Teorema 7.64 (TCM adaptado). Se an ≥ 0, a série ∑∞
n=1 an converge se, e só se, a sequência (sn) é
limitada.
Prova. A prova não é difícil: como os termos são positivos, (sn) é monótona crescente. Se for limitada,
irá convergir! ■
Apesar da demonstração anterior, na prática, em casos concretos, não será tão fácil mostrar
diretamente que (sn) é uma sequência limitada.
Exemplo 7.65. A série
∞
∑
n=1
1
n
é chamada de série harmônica, e ela diverge.
De fato, seja sn = 1 + 1/2 + . . . + 1/n. Note que
s2 = 1 +
1
2
s4 = 1 +
1
2
+
1
3
+
1
4
≥ 1 +
1
2
+
1
4
+
1
4
= 1 +
1
2
+
2
4
s8 = 1 +
1
2
+
1
3
+
1
4
+
1
5
+
1
6
+
1
7
+
1
8
≥ 1 +
1
2
+
2
4
+
4
8
s2n ≥ 1 +
1
2
+
2
4
+
4
8
+ . . . +
2n−1
2n =1 + n · 1
2
Portanto, a subsequência s2n → ∞, e daí sn → ∞! ◁
Exercício 7.66. A série ∑∞
n=1(−1)n diverge. Como é a sequência das somas parciais?
98
7.5 Critérios de convergência de séries numéricas
Nesta seção veremos alguns critérios para determinar se uma série converge.
Teorema 7.67. Se ∑∞
n=0 an converge, então an → 0.
Prova. De fato, seja (sn)n≥1 dada por
sn = a1 + . . . + an.
Então
s =
∞
∑
n=1
an = lim
n→∞
sn,
ou seja, temos a convergência
a1, a1 + a2, a1 + a2 + a3, . . . → s.
Agora um truque: se a sequência
a1, a1 + a2, a1 + a2 + a3, . . . → s
então é óbvio que podemos eliminar alguns termos iniciais da sequência e ela continuará convergindo, ou
seja:
a1 + a2, a1 + a2 + a3, . . . → s
Portanto, (sn+1)n também satisfaz sn+1 → s. Note que nós não eliminamos termos da sequência
(an), isto faria com que a soma fosse alterada. Só alteramos a sequência das somas parciais!
Sendo assim, a sequência (sn+1 − sn)n converge para 0. Como sn+1 − sn = an, segue que an → 0.
■
Exercício 7.68. A recíproca do teorema anterior é falsa. Consegue um exemplo?
Exercício 7.69. A série ∑∞
n=1
n + 1
n
diverge.
Exercício 7.70. A série ∑∞
n=0
1
n(n + 1)
é convergente, e soma 1. Para provar, utilize frações parciais
e calcule as somas parciais. Este tipo se série é chamada de série telescópica (descubra o motivo deste
nome!).
Exercício 7.71. Podemos generalizar um pouco o Exemplo 7.63 da seguinte forma: seja a ∈ R. Se
|a|− 1
2
+
1
3
− 1
4
+
1
5
− 1
6
+ . . .
converge (para ln(2)).
De fato, seja sN = ∑N
n=1
(−1)n+1
n
. Temos que
• s1 = 1
• s3 = 1 −
(
1
2
− 1
3
)
• s5 = 1 −
(
1
2
− 1
3
)
−
(
1
4
− 1
5
)
Ou seja, quando pegamos os termos ímpares de (sn)n, começamos em 1 e vamos decres-
cendo. Esta sequência só contém números positivos, portanto é limitada inferiormente por 1
(prove por indução!).
Por outro lado:
• s2 = 1 − 1
2
• s4 =
(
1 − 1
2
)
+
(
1
3
− 1
4
)
• s6 =
(
1 − 1
2
)
+
(
1
3
− 1
4
)
+
(
1
5
− 1
6
)
Ou seja, quando pegamos os termos pares de (sn)n, começamos em 1/2 e vamos aumen-
tando. Todos os termos desta sequência são menores do que 1 (prove por indução!).
Como
s2n+1 − s2n =
1
2n + 1
> 0
segue que lim s2n+1 − lim s2n = 0 e daí lim s2n+1 = lim s2n.
Se denotarmos este limite por s, teremos que (sn) converge para s. Quem é s? Podemos
mostrar que s = ln(2) utilizando a soma de Riemann da função f (x) = 1/x no intervalo
[1, 2], pegando intervalos de mesmo comprimento e considerando o erro por excesso. Isto está
provado em [15].
Escrever uma série como uma soma de Riemann é uma forma muito boa de obter sua soma!
◁
Exemplo 7.77 (Cuidado com séries condicionalmente convergentes!). Seja
s =
∞
∑
n=0
(−1)n+1
n
= 1 − 1
2
+
1
3
− 1
4
+
1
5
− 1
6
+ . . . .
100
Acabamos de provar que s = ln(2). Porém:
1 − 1
2
+
1
3
− 1
4
+
1
5
− 1
6
+
1
7
− 1
8
+
1
9
− 1
10
+ . . . =
(
1 − 1
2
)
− 1
4
+
(
1
3
− 1
6
)
− 1
8
+
(
1
5
− 1
10
)
+ . . . =
1
2
− 1
4
+
1
6
− 1
8
+
1
10
+ . . . =
1
2
(
1 − 1
2
+
1
3
− 1
4
+ . . .
)
= ln(2)/2
Série condicionalmente convergentes podem ser re-arranjadas para obtermos qualquer nú-
mero! Que coisa, não? ◁
Não é nosso objetivo neste curso discutir com detalhes testes de convergência. Utilizaremos
essencialmente quatro critérios para decidir sobre a convergência de uma série.
• teste da comparação
• teste da razão
• teste da raiz
• teste da integral
Estes testes em geral são aplicados nos termos gerais das séries, mas todos tem em comum
algum tipo de resultado inconclusivo. Ou seja, existem séries que nenhum deles consiga provar
a convergência/divergência da série. Existem testes mais eficientes que estes, mas também
existem séries bastante resistentes a testes.
Exemplo 7.78. Seja (pn)n a sequência dos números primos, ou seja, pn é o n-ésimo número
primo, (pn)n = (2, 3, 5, 7, 11, . . .). Seja an = 1 se pn e pn + 2 são primos e an = 0 caso contrá-
rio. Provar que ∑∞
n=1 an diverge é equivalente a provar que existem infinitos números primos
gêmeos. Este ainda é um problema em aberto. ◁
Enfim, vamos aos testes.
Teorema 7.79 (Teste da comparação). Sejam ∑∞
n=0 an e ∑∞
n=0 bn duas séries de termos não-negativos,
com
0 ≤ an ≤ bn
para todo n ≥ 1.
• se ∑∞
n=0 an diverge então ∑∞
n=0 bn também diverge.
• se ∑∞
n=0 bn converge então ∑∞
n=0 an também converge.
A vantagem do teste da comparação é que ele é fácil de aplicar. A desvantagem é que você
precisa usar outra série com comportamento bem conhecido.
Na medida que você conhecer a convergência de mais séries, conseguirá usar melhor este
teste.
101
Exemplo 7.80. Estude a convergência da série
∞
∑
n=1
ln n
n
.
Seja an =
ln n
n
. Note que ln(e) = 1 e ln(x) é uma função crescente, portanto ln(n) > 1 para
todo n ≥ 3. Assim, temos que
ln n
n
>
1
n
para todo n ≥ 3 e como a série ∑∞
n=3
1
n
é divergente, segue que ∑∞
n=3
ln(n)
n
também diverge - e
daí, incluindo uma quantidade finita de termos, provamos também que ∑∞
n=1
ln(n)
n
diverge.
◁
Exercício 7.81. Estude a convergência da série
∞
∑
n=1
1
2n + n2 .
Exercício 7.82. Estude a convergência da série
∞
∑
n=1
1
12 + 22 + . . . + n2 .
Teorema 7.83 (Teste da razão). Seja (an)n uma sequência com an ̸= 0 para todo n e suponha que
lim
n→∞
|an+1|
|an|
= L.
Então,
• se L 1, a série é divergente (considere ∞ > 1).
• se L = 1, o teste é inconclusivo.
Novamente a vantagem é que é um teste simples de aplicar. A desvantagem neste caso é
que ele é inconclusivo em muitos casos. É especialmente útil quando a série envolve fatoriais
ou potências dependendo de n.
Exemplo 7.84. Estude a convergência da série
∞
∑
n=1
n3
3n .
Seja an =
n3
3n . Temos que
an+1
an
=
(n + 1)3
3n+1
3n
n3 =
(n + 1)3
n3
1
3
Portanto,
lim
n→
an+1
an
=
1
3
 1, a série é divergente (considere ∞ > 1).
• se L = 1, o teste é inconclusivo.
Este é um teste muito poderoso, porém o limite pode ser complicado de calcular. Útil
quando a série envolve potências dependendo de n.
Exemplo 7.88. Estude a convergência da série
∞
∑
n=1
(
2n + 4
3n + 1
)n
.
Seja an =
(
2n + 4
3n + 1
)n
. Então
n
√
an = n
√(
2n + 4
3n + 1
)n
=
2n + 4
3n + 1
e com isso
lim
n→∞
n
√
an =
2
3
 0, de modo que
• f (x) ≥ 0,
• f (x) é decrescente e
• an = f (n),
então a série ∑ an converge se, e só se,
∫ ∞
M
f (x) dx converge.
O teste da integral funciona muito bem. O único problema é conseguir calcular a integral.
103
Observação 7.92. Cuidado: Não é verdade que
∞
∑
n=1
an =
∫ ∞
M
f (x) dx.
Exemplo 7.93. Estude a convergência da série
∞
∑
n=1
n
n2 + 1
.
Para aplicar o teste da integral, devemos estudar a convergência da integral
∫ ∞
1
x
x2 + 1
dx,
e não é difícil provar que esta integral diverge! Logo, a série também diverge. ◁
Exercício 7.94. Estude a convergência da série
∞
∑
n=1
n tan
(
1
n
)
.
Exercício 7.95. Estude a convergência da série
∞
∑
n=1
1
(3 + 2n)2 .
104
8 Soluções em séries para equações diferenciais
Neste capítulo mostraremos como usar uma função definida por uma série para resolver equa-
ções diferenciais. Vamos começar relembrando o polinômio de Taylor de uma função, que pode
ser usado para aproximar uma função f (x) por um polinômio.
8.1 Polinômios de Taylor
Vimos no primeiro curso de cálculo que se f (x) é uma função com derivadas de ordem n no
ponto x = x0, seu polinômio de Taylor de grau n é dado por
Tn( f , x0)(x) = f (x0) + f ′(x0)(x − x0) +
f ′′(x0)
2!
(x − x0)
2 + . . . +
f (n)(x0)
n!
(x − x0)
n.
O gráfico do polinômio de Taylor de grau 1 é exatamente a reta tangente ao gráfico de f no
ponto (x0, f (x0)):
T1( f , x0)(x) = f (x0) + f ′(x0)(x − x0).
Um dos principais ensinamentos do curso de Cálculo I é que a função y = f (x0)+ f ′(x0)(x−
x0) aproxima muito bem y = f (x) para valores de x próximos de x0. De forma mais geral, o po-
linômio de Taylor de grau n é a melhor maneira que temos para aproximar f por um polinômio
de grau n.
Exemplo 8.1. Considere f (x) = ex. Então temos que f (n)(0) = 1 para todo n. Com isso, alguns
polinômios de Taylor de f (x) na origem são: p1(x) = T1( f , 0)(x) = 1 + x,
p2(x) = T2( f , 0)(x) = 1 + x +
x2
2
,
p5(x) = T5( f , 0)(x) = 1 + x +
x2
2
+
x3
3!
+
x4
4!
+
x5
5!
e
p10(x) = T10( f , 0)(x) = 1 + x +
x2
2!
+
x3
3!
+ . . . +
x10
10!
.
Calculando p1(1), p2(1), p5(1) e p10(1), teremos aproximações cada vez melhores para p(1).
◁
É importante ter em mente que o polinômio de Taylor de grau n aproxima a função, mas
não é igual à função, exceto no caso da função já ser um polinômio de grau n.
Se x está próximo de a mas é diferente de a, a diferença | f (x) − p(x)| é positiva e será
denotada por En( f , x) ou somente En(x). Podemos quantificar este erro de várias formas, e
vamos relembrar uma delas.
Teorema8.2 (Fórmula de Taylor com erro integral). Seja f uma função com as n + 1 primeiras
derivadas contínuas num intervalo contendo o ponto x = a. Então, para todo x neste intervalo temos
f (x) = Tn( f , a) + En(x),
onde
Tn( f , a) =
n
∑
k=0
f (k)(a)
k!
(x − a)k
105
é o polinômio de Taylor de grau n e o erro é dado por
En(x) =
1
n!
∫ x
a
(x − t)n f (n+1)(t) dt.
O polinômio de Taylor é, como todo polinômio, uma soma finita de termos. O que iremos
fazer agora é representar funções por somas infinitas,
f (x) =
∞
∑
n=0
anxn = a0 + a1x + a2x2 + . . . + anxn + . . . . (52)
Mais que isto, iremos definir funções por meio de uma série como esta. Na igualdade ante-
rior, se truncarmos a série da direita para obter um polinômio de grau n, não teremos mais
igualdade, mas o que sobrará na direita será exatamente o polinômio de Taylor de f de grau n.
8.2 Séries de Potências
Uma série de potências é uma série da forma
∞
∑
n=0
an(x − x0)
n = a0 + a1(x − x0) + b2(x − x0)
2 + . . . + bk(x − x0)
k + . . . (53)
onde x é uma variável e os ak são os coeficientes da série.
Note que para cada valor fixado de x, a série (53) se torna uma série numérica, como as que
estudamos no capítulo anterior, portanto ela pode ser convergente ou divergente. Uma série de
potências, portanto, é uma função de x, cujo domínio é o conjunto dos pontos x para os quais
ela converge. Note que o domínio sempre inclui x0, pois para x = x0 a série sempre converge.
Diremos que ∑∞
n=0 an(x − x0)
n é absolutamente convergente em x = b se a série
∞
∑
n=0
|an| · |b − x0|n
converge. Como esperado, convergência absoluta ⇒ convergência, mas a recíproca é falsa.
Não é esperado que uma série seja convergente para todo valor de x. Se a série
∞
∑
n=0
an(x − x0)
n
converge para todo x no intervalo (x0 − R, x0 + R) e diverge para |x − x0| > R, diremos que o
raio de convergência da série é R. Os testes de convergência que aplicamos anteriormente para
séries numéricas em geral revelam o raio de convergência.
Proposição 8.3. Dada uma série de potências ∑∞
n=0 an(x − x0)
n, existem três possibilidades para seu
raio de convergência:
1. R = 0, ou seja, a série só converge em x = x0,
2. R = ∞, ou seja, a série converge para todo x ∈ R ou
3. 0 R.
106
Exemplo 8.4. Determine o raio de convergência de ∑∞
n=1
(2x + 1)n
n2 .
Vamos aplicar o teste da razão.
∣∣∣∣
(2x + 1)n+1
(n + 1)2 · n2
(2x + 1)n
∣∣∣∣ = |2x + 1| · n2
(n + 1)2
Portanto, |an+1/an| → |2x+ 1| e o teste da razão diz que a série de potências converge desde
que |2x + 1| |x1 − x0|.
Exemplo 8.7. Estude a convergência da série ∑∞
n=1(−1)n+1n(x − 1)n.
O termo geral desta série é an = (−1)n+1n(x − 1)n. Usando o teste da razão temos
∣∣∣∣
an+1
an
∣∣∣∣ =
∣∣∣∣
(−1)n+2(n + 1)(x − 1)n+1
(−1)n+1n(x − 1)n
∣∣∣∣ =
(n + 1)|x − 1|
n
→ |x − 1|.
Portanto, se |x − 1| 2 ela diverge. O que acontece se x = 0 ou x = 2?
Vamos testar: Se x = 0 teremos
∞
∑
n=1
(−1)n+1n(−1)n =
∞
∑
n=1
n → diverge
Se x = 2 teremos
∞
∑
n=1
(−1)n+1n =
∞
∑
n=1
(−1)n+1n → diverge
Portanto a série converge se, e só se, 0 0 (ou seja, o raio de
convergência é R). Então:
1. f (x)± g(x) =
∞
∑
n=0
(an ± bn)(x − x0)
n para |x − x0| 0 Então:
1. a função f é contínua, tem derivadas de todas as ordens e a derivada pode ser calculada derivando
os termos da série, ou seja,
f ′(x) = a1 + 2a2(x − x0) + 3a3(x − x0)
2 + . . . ;
2. para todo n ∈ N, an =
f (n)(x0)
n!
;
3.
∫
f (x) dx = c + a0(x − x0) + a1
(x − x0)
2
2
++a2
(x − x0)
3
3
+ . . . = c +
∞
∑
n=0
an
(x − x0)
n+1
n + 1
Além disso, o raio de convergência das séries em (1) e (3) também é R.
A proposição anterior nos mostra que podemos derivar e integrar uma série convergente
termo a termo, e isto é fantástico! Dada uma função f (x), a série
∞
∑
n=0
f (n)(x0)
n!
(x − x0)
n
é chamada de série de Taylor de f (x) em x = x0. Se f tem expansão em série de Taylor em
torno de x = x0 com raio de convergência R > 0, ela é dita ser analítica em x0 e daí podemos
escrever
f (x) =
∞
∑
n=0
f (n)(x0)
n!
(x − x0)
n. (54)
Quando “R = ∞”, a função é dita ser inteira em x0. Note que a expressão (54) é como se
fizéssemos n → ∞ na expressão (52).
Exemplo 8.10. Seja f (x) = ex. Como f (n)(x) = ex para todo n ∈ N, temos que f (n)(0) = 1,
para todo n ∈ N. A série de Taylor de f é ∑∞
n=0
1
n!
xn, que tem raio de convergência infinito,
logo ex = ∑∞
n=0
1
n!
xn. ◁
108
Exercício 8.11. Calcule as séries de Taylor das funções abaixo, e determine os raios de convergência.
• p(x) =
1
1 + x
, ponto x = 0.
• q(x) = sen (x), ponto x = 0.
• f (x) = cos(x), ponto x = 0.
• g(x) = ln(x), ponto x = 1.
• h(x) =
{
e−1/x, x > 0
0 x ≤ 0
, ponto x = 0.
Quando temos séries convergentes, às vezes podemos manipulá-las termo a termo. Além
disso, se tivermos uma boa “enciclopédia” de séries, podemos reconhecer algumas delas como
funções já bem conhecidas.
8.2.1 Determinando a soma de séries
A série
1
12 +
1
22 +
1
32 +
1
42 + . . .
1
n2 + . . .
é convergente. Qual é sua soma?
O problema de se obter a soma desta série é conhecido como problema de Basel. Ele foi
proposto por Pietro Mengoli em 1650 e foi resolvido por Euler em 1734. Vários matemáticos da
família Bernoulli tentaram sem sucesso resolver este problema. O nome “problema de Basel” é
uma homenagem à cidade natal tanto de Euler como dos Bernoulli, que fica na Suiça.
Curioso sobre a soma?
1
12 +
1
22 +
1
32 +
1
42 + . . .
1
n2 + . . . =
π2
6
.
Na prova original, Euler “fatorou” a série de Taylor de a série de Taylor de sen (x)/x como
se fosse um polinômio infinito.
Se f é uma função analítica em x = a, ou seja, que é representada por sua série de Taylor em
torno de x = a, então é possível escrever
f (x) = f (a) + f ′(a)x +
f ′′(a)
2!
x2 +
f ′′′(a)
3!
x3 + . . . +
f (n)(a)
n!
xn + . . .
Exemplo 8.12. Determine se a série abaixo é convergente. Se for, determine sua soma:
1 − 1
3
+
1
5
− 1
7
+
1
9
+ . . .
◁
Para resolver este problema, seja f (x) = arctan(x). Assim
f ′(x) =
1
1 + x2 =
1
1 − (−x2)
.
109
Figura 16: Recorte do artigo original de Euler, disponível integralmente aqui: http://
eulerarchive.maa.org//pages/E041.html.
Esta é a expressão da soma de uma PG, desde que |x|5
+ . . .
f (x) = arctan(x) =
∞
∑
n=0
(−1)nx2n+1
2n + 1
= x − x3
3
+
x5
5
+ . . .
Note que a série anterior converge se x = 1 também (justifique!). Fazendo x = 1 obtemos
π
4
=
∞
∑
n=1
(−1)n
2n + 1
= 1 − 1
3
+
1
5
− 1
7
+
1
9
+ . . .
ou ainda
π =
∞
∑
n=1
(−1)n4
2n + 1
= 4 − 4
3
+
4
5
− 4
7
+
4
9
+ . . .
Dificuldade: achar a função que tenha a série de Taylor que queremos. Seja s ∈ C e considere
a série
∞
∑
n=1
1
ns .
Lembre que se s = a + bi então
ns = na+bi = na( cos(b) + isen (b)
)
,
e com isto |ns| = na. Portanto, a soma acima converge quando a > 1. Denote
ζ(s) =
∞
∑
n=1
1
ns .
110
http://eulerarchive.maa.org//pages/E041.html
http://eulerarchive.maa.org//pages/E041.html
Esta função, com domínio {z ∈ C, Re(z) > 1} é conhecida como função zeta de Riemann.
No caso s = 1, a série não converge (é a série harmônica). É possível estender analiticamente
o domínio da função ζ(s) para todos os valores z ∈ C com z ̸= 1. O problema de Basel então
é determinar explicitamente ζ(2). Além de sabermos que ζ(2) = π2/6, sabemos também que
ζ(3) é irracional, apesar de ainda não ter sido “calculada” em termos de outras constantes já
conhecidas. Mais para a frente, utilizaremos séries de Fourier para provar que ζ(2) = π2/6.
Vamos terminar esta seção com mais fatos sobre a função ζ(s) de Riemann. No caso em que
Re(s) > 1, podemos escrever
ζ(s) =
1
Γ(s)
∫ ∞
0
xs+1
ex − 1
dx,
onde a função Γ(s) é dada por
Γ(s) =
∫ ∞
0
xs−1e−x dx.
A função Γ(s), quando restrita aos naturais, satisfaz
Γ(n) = (n − 1)!.
É possível encontrar z ∈ C tal que ζ(z) = 0? Usando séries, não é muito difícil provar que
ζ(−2n) = 0, para todo n ≥ 1. Em 1914, Hardy provou que existem infinitos valores de t ∈ R
tais que
ζ
(
1
2
+ it
)
= 0.
É um problema em aberto, conhecido como hipótese de Riemann, provar que todos os zeros
de ζ(s) são desta forma, ou seja, números pares negativos ou números complexos com parte
real 1/2. Em particular, a solução deste problema vale 1 milhão de dólares, pagos pelo Clay
Institute.
Euler provou que se Re(s) > 1 então
ζ(s) =
∞
∑
n=1
1
ns = ∏
p primo
1
1 − p−s =
1
1 − 2−s ·
1
1 − 3−s ·
1
1 − 5−s · . . .
Uma relação muito importante existe entre a função ζ(s) e a distribuição dos números pri-
mos. Seja π(x) a função que dá o número de primos menores ou iguais a x. Por exemplo,
π(2) = 1, π(3) = 2, π(4) = 2, π(5) = 3, π(100) = 25, e por aí vai.
O Teorema dos Números Primos diz que
lim
x→∞
π(x)(
x
ln(x)
) = 1,
ou seja, que a função
x
ln(x)
é uma boa aproximação para π(x), para valores grandes de x.
Todas as demonstrações conhecidas do Teorema dos Números Primos fazem uso da Hipó-
tese de Riemann, ou seja, que ζ(s) = 0 somente quando s = −2n ou s =
1
2
+ ti para algum
t ∈ R. Que tal usar seu tempo livre para tentar resolver o problema? Se conseguir, e ganhar o
prêmio do Clay, lembre-se deste seu pobre professor :)
111
9 Soluções em séries para EDOs: pontos regulares
Sejam P, Q, R funções boas (neste caso, polinômios) e considere a EDO
P(x)y′′(x) + Q(x)y′(x) + R(x)y(x) = 0. (55)
Se x0 é tal que P(x0) ̸= 0, diremos que x0 é um ponto regular; caso contrário, será chamado
ponto singular.
Vamos considerar problemas de valor inicial com y(x0) = y0. Neste caso, se x0 não for
regular, como P(x0) = 0, a equação vai ser degenerada, o que não desejamos.
Sendo x0 um ponto regular, pela continuidade de P, existirá um intervalo ao redor de x0
onde P(x) ̸= 0. Dividindo a equação (55) por P(x), obteremos
y′′(x) + p(x)y′(x) + q(x)y(x) = 0, (56)
onde p = Q/P e q = R/P. Pelo Teorema de Existência e Unicidade, a equação (56) tem solução
(única). Vamos procurar tal solução em termos de uma série de potências.
Exemplo 9.1. Encontre uma solução em séries para y′′ + y = 0.
Note que nesta equação todo ponto é um ponto regular, já que P(x) = 1 é constante. Seja
y(x) =
∞
∑
n=0
anxn = a0 + a1x + a2x2 + . . .
uma solução da equação no enunciado, e vamos assumir que esta série converge em algum
intervalo |x|Vamos aperfeiçoar esta definição para casos mais gerais.
Dada uma EDO P(x)y′′ + Q(x)y′ + R(x)y = 0, diremos que x0 é um ponto regular se as
funções p = Q/P e q = R/P forem analíticas em x0. Se existir um termo não-homogêneo S(x),
suporemos também que f = S/P é analítica em x0.
Caso contrário, diremos que x0 é um ponto singular.
Teorema 9.3 (Fuchs, 1866). Seja x0 é um ponto regular de
P(x)y′′ + Q(x)y′ + R(x)y = 0,
ou seja, p(x) = Q(x)/P(x) e q(x) = R(x)/P(x) são analíticas em x0. Então existe uma solução em
série da forma
y(x) =
∞
∑
n=0
an(x − x0)
n = a0y1(x) + a1y2(x),
onde a0, a1 são constantes e y1, y2 são séries de potências analíticas em x0. As soluções y1, y2 formam
um conjunto fundamental, e o raio de convergência de y é pelo menos igual ao menor dos raios de con-
vergência das séries de p e q.
115
Agora sim, temos um teorema que garante a existência de soluções em séries, ao menos no
caso analítico.
Exemplo 9.4. Do teorema anterior, concluímos que o raio de convergência da série (57) do
Exemplo 9.2 é infinito. ◁
Exercício 9.5. Determine o raio de convergência da solução em série de
cos(x)y′′ + y′ + R(x)y = 0
em torno de x = 0, onde R(x) é um polinômio.
Exercício 9.6. Mostre que a equação de Chebyshev
(1 − x2)y′′ − xy′ + α2y = 0, α ∈ R,
tem soluções polinomiais nos casos em que α = 0, 1, 2, 3.
9.1 Soluções em séries para EDOs: pontos singulares
Agora vamos considerar x0 um ponto singular da EDO
P(x)y′′(x) + Q(x)y′(x) + R(x)y(x) = 0
e tentar obter uma solução em série perto de x0 - lembre-se que isto significa que Q(x)/P(x)
não é analítica em x = x0. Será que o mesmo método anterior ainda funciona?
Exemplo 9.7. Considere a equação xy′′ + y′ = 0. Se supomos uma solução da forma
y =
∞
∑
n=0
anxn
teremos que
x
∞
∑
n=0
n(n − 1)anxn−2 +
∞
∑
n=0
nanxn−1 = 0.
Expandindo, teremos
x
(
2a2 + 6a3x + 12a4x2 + . . .
)
+ (a1 + 2a2x + 3a3x2 + . . .) = 0,
e agrupando
a1 + 4a2x + 9a3x2 + 16a4x3 + . . . = 0
Como é uma igualdade de funções, obtemos que a1 = 0, a2 = 0 e ak = 0 para todo k, ou seja, a
única solução que obteremos é a solução nula. ◁
O exemplo anterior mostra que precisamos de um novo método, e é o que vamos começar
a procurar agora! Vamos começar com um exemplo bastante representativo do que poderá
acontecer na situação geral: a equação de Euler
x2y′′ + αxy′ + βy = 0,
116
com α, β ∈ R e x0 = 0.
Note que x0 = 0 é o único ponto singular da equação, pois P(x) = x2. Iremos procurar
soluções válidas para x > 0.
Vamos supor que a equação de Euler tem uma solução do tipo y(x) = xr. Sentimento de
déjà vu? Pois é. Substituindo y′(x) = rxr−1 e y′′(x) = r(r − 1)xr−2 na equação temos
x2r(r − 1)xr−2 + αxrxr−1 + βxr = 0,
ou
xr(r(r − 1) + αr + β
)
= 0.
Se r for solução de
r(r − 1) + αr + β = 0
então y(x) = xr será solução de
x2y′′ + αxy′ + βy = 0.
As soluções de
r(r − 1) + αr + β = 0 (58)
são
r1,2 =
−(α − 1)±
√
(α − 1)2 − 4β
2
.
Estas soluções podem ser reais e iguais, reais e distintas ou complexas, e para cada tipo temos
uma estratégia. É importante notar que as soluções não necessariamente são inteiras, logo
podem aparecer soluções do tipo y(x) = x1/5.
Não iremos demonstrar a maioria dos resultados a seguir, mas é muito importante, ao perce-
ber que o ponto é singular, utilizar estes métodos. Simplesmente propor uma série de potências
“tradicional"não vai funcionar.
O primeiro caso é quando as raízes r1, r2 de (58) são reais e distintas. Se r1, r2 são soluções
de r(r − 1) + αr + β = 0, com r1 ̸= r2 então y1(x) = xr1 e y2(x) = xr2 são soluções da EDO
x2y′′ + αxy′ + βy = 0, e a solução geral é
y(x) = cxr1 + c̃xr2 .
Note que r1 (ou r2) pode ser irracional, e neste caso definimos a potência como xr = er ln x.
Exercício 9.8. Resolva a EDO 2x2y′′ + 3xy′ − y = 0, x > 0.
No caso das soluções de (58) serem iguais, r2 = r2, obtemos uma única solução y1(x) = xr1 .
É possível mostrar que a segunda solução pode ser escolhida tomando y2(x) = xr1 ln x, com
x > 0. A solução geral terá a forma
y(x) = cxr1 + c̃ ln(x)xr1 , x > 0.
Se as raízes de (58) forem complexas, usaremos um truque parecido com o que fizemos antes
para obter separamente a parte real e a parte imaginária da solução.
Sejam r1 = λ + iµ e r2 = λ − iµ. As soluções serão
• ỹ1 = xr1 = xλ+iµ = xλxiµ e
• ỹ2 = xr2 = xλ−iµ = xλx−iµ.
117
Como xr = er ln(x), segue que xiµ = eiµ ln(x), logo
• ỹ1 = xr1 = xλxiµ = xλ
(
cos(µ ln(x)) + isen (µ ln(x))
)
e
• ỹ2 = xr2 = xλx−iµ = xλ
(
cos(µ ln(x))− isen (µ ln(x))
)
.
Usando o mesmo truque de antes, consideramos
y1 =
ỹ1 + ỹ2
2
= xλ cos(µ ln x), y2 =
ỹ1 − ỹ2
2i
= xλsen (µ ln x)
Estas soluções são linearmente independentes (calcule o Wronskiano!), e a solução geral tem
a forma
y(x) = cxλ cos(µ ln x) + c̃xλsen (µ ln x).
Exemplo 9.9. Resolva a EDO x2y′′ + xy′ + y = 0, x > 0. ◁
O que mostramos até agora é como obter as soluções para x > 0. Para estender a solução ao
intervalo x 0. Multiplicando (59) por x2 a equação fica
x2y′′ + x2p(x)y′ + x2q(x)y = 0.
Como
xp(x) =
∞
∑
n=0
pnxn e x2q(x) =
∞
∑
n=0
qnxn,
ficamos com
x2y′′ + x
∞
∑
n=0
pnxny′ +
∞
∑
n=0
qnxny = 0,
119
ou
x2y′′ + x(p0 + p1x + p2x2 + . . .)y′ + (q0 + q1x + q2x2 + . . .)y = 0.
Note que p0 = limx→0 x
Q(x)
P(x)
e q0 = limx→0 x2 R(x)
P(x)
. Se p0 ̸= 0, q0 ̸= 0 e todos os outros
termos pj, qj são nulos, então esta equação é exatamente a equação de Euler. Caso contrário,
vamos assumir que uma solução é dada por
y = xr(a0 + a1x + . . . + anxn + . . .
)
=
∞
∑
n=0
anxn+r,
com a0 ̸= 0, e procurar os coeficientes. Este método se chama método de Frobenius. Neste
curso vamos assumir a convergência desta série e somente determinar o raio R > 0.
Exercício 9.12. Resolva a equação
x2y′′ + x
(
xp(x)
)
y′ +
(
x2q(x)
)
y = 0,
onde xp(x) =
∞
∑
n=0
pnxn e x2q(x) =
∞
∑
n=0
qnxn são séries convergentes em (−R, R).
O ponto x = 0 é ponto singular regular. Vamos procurar uma solução da forma
y(x) =
∞
∑
n=0
anxr+n,
com a0 ̸= 0. Substituindo tudo na equação:
a0r(r − 1)xr + a1(r + 1)rxr+1 + . . . + an(r + n)(r + n − 1)xr+n + . . .
+ (p0 + p1x + . . . + pnxn + . . .)×
×
(
a0rxr + a1(r +1)xr+1 + . . . + an
(
r + n
)
xr+n + . . .
)
+ (q0 + q1x + . . . + qnxn + . . .)×
× (a0xr + a1xr+1 + . . . + anxn+r + . . .) = 0
Reorganizando, ficamos com
a0F(r)xr + [a1F(r + 1) + a0(p1r + q1)]xr+1
+ [a2F(r + 2) + a0(p2r + q2) + a1(p1(r + 1) + q1)]xr+2
+ . . . + [anF(r + n) + a0(pnr + qn) + a1(pn−1(r + 1) + qn−1)]
+ . . . + an−1[p1(r + n − 1) + q1]xr+n + . . . = 0
que pode ser reescrito como
a0F(r)xr +
∞
∑
n=1
[
F(r + n)an +
n−1
∑
k=0
ak
(
(r + k)pn−k + qn−k
)]
xr+n = 0,
onde
F(r) = r(r − 1) + p0r + q0
120
e F(r) = 0 é chamada de equação indicial. Da equação indicial
r(r − 1) + p0r + q0 = 0
descobriremos quem é r; daí é só utilizar a relação de recorrência
F(r + n)an +
n−1
∑
k=0
ak
(
(r + k)pn−k + qn−k
)
= 0
e descobrir o coeficiente de xr+n (este coeficiente dependerá de todos os anteriores e também
de r).
Sejam r1, r2 ∈ R, r1 ≥ r2, as soluções da equação indicial. Olhe de novo para a relação de
recorrência:
vF(r + n)an +
n−1
∑
k=0
ak
(
(r + k)pn−k + qn−k
)
= 0.
Se, em algum momento, tivermos F(r + n) = 0, não poremos calcular an. Como as únicas
soluções de F(m) = 0 são F(r1) = 0 e F(r2) = 0, não existe solução do tipo F(r1 + n) (pois a
outra solução é r2 ≤ r1), logo uma solução da EDO é dada por
y1 = xr1
(
1 +
∞
∑
n=1
an(r1)xn
)
.
No caso em que r1 ̸= r2 e r1 − r2 não é um inteiro positivo, então podemos encontrar a outra
solução da mesma forma, obtendo
y2 = xr2
(
1 +
∞
∑
n=1
an(r2)xn
)
,
pois neste caso, F(r2 + n) ̸= 0 sempre. Teremos problemas se r1 − r2 ∈ Z+, ou se r1, r2 ∈ C.
Não iremos tratar este caso.
Exercício 9.13. Resolva a EDO
2x(1 + x)y′′ + (3 + x)y′ − xy = 0
usando séries perto dos pontos singulares.
121
10 Séries de Fourier e problemas de valor de contorno
10.1 Problemas de valor de contorno
Considere a equação diferencial
y′′ + p(x)y′ + q(x)y = g(x) (60)
e vamos procurar uma solução desta equação definida no intervalo [α, β] e que satisfaça y(α) =
y1 e y(β) = y2, para certos valores y1, y2. Este tipo de condição sobre a solução é conhecido
como “valor de contorno”.
Vamos fazer um exemplo.
Exemplo 10.1. Seja L > 0 uma constante fixada. Quais as soluções da equação y′′ + λy = 0,
com condições de contorno y(0) = 0 e y(L) = 0?
Vamos separar em alguns casos, conforme o sinal de λ.
• Se λ 0, digamos λ = µ2, com µ > 0. Então a equação fica y′′ + µ2y = 0. O polinômio
característico é r2 + µ2 = 0, com raízes r = ±iµ, o que nos dá a solução geral
y = c1 cos(µx) + c2sen (µx).
Da primeira condição, y(0) = 0, teremos que c1 = 0. Aplicando a segunda condição,
y(L) = 0, teremos c2sen (µL) = 0. É razoável supor que não estamos interessados na
solução nula, então vamos supor que c2 ̸= 0. Logo sen (µL) = 0, e daí µL precisará ser
um múltiplo inteiro de π, ou seja, µL = nπ com n ∈ Z, e daí µ = nπ/L, ou λ = n2π2/L2.
Com isso, os valores possíveis para λ são: π2/L2, 4π2/L2, 9π2/L2, etc.
A solução portanto é y(x) = c2sen (nπx/L), com c2 ∈ R - mas lembramos que esta
solução é para o caso em que λ = n2π2/L2. Se λ for positivo mas não for um destes
valores, o problema de valor de contorno não terá solução.
◁
Observação 10.2. O Teorema de Existência e Unicidade era para PVIs e não vale aqui. Com isso,
podemos não ter solução para o PVC (60) com as condições de contorno y(α) = y1 e y(β) = y2.
122
10.2 Séries de Fourier
Lembre-se que dizemos que uma função f é periódica de período T > 0 (ou T-periódica) se o
domínio de f contém x + T sempre que contém x, e além disto f (x + T) = f (x). O período de
f será o menor T > 0 que satisfaz esta propriedade.
Exemplo 10.3. Nossos primeiros exemplos de funções periódicas são as funções trigonomé-
tricas sen (x) e cos(x), que são 2π-periódicas. Generalizando um pouco, se k > 0, a função
cos(kx) é 2π/k-periódica. ◁
Uma série da forma
a0
2
+
∞
∑
m=1
(
am cos
(
mπx
L
)
+ bmsen
(
mπx
L
))
é chamada de série de Fourier. Já já vamos mostrar sob que condições uma série assim converge.
O motivo do argumento das funções trigonométricas envolvidas na série anterior ser
mπx
L
será compreendido em breve, e tem relação direta com o Exemplo 10.1.
falar do argumento da base, ortogonal, gerador, etc. motivador para a
Se u, v são funções definidas no intervalo [α, β], vamos definir o produto interno de u e v no
intervalo [α, β] por
⟨u, v⟩ =
∫ β
α
u(x)v(x) dx.
As funções u, v são ditas ortogonais em [α, β] se ⟨u, v⟩ = 0. Um conjunto de funções é dito
ser ortogonal se todas as funções do conjunto são, duas a duas, ortogonais.
Teorema 10.4. As funções sen (mπx/L) e cos(mπx/L), m ∈ Z+, são mutualmente ortogonais no
intervalo [−L, L]. Mais que isto,
⟨cos
(
mπx
L
)
, cos
(
nπx
L
)
⟩ =
∫ L
−L
cos
(
mπx
L
)
cos
(
nπx
L
)
dx = δmnL,
⟨cos
(
mπx
L
)
, sen
(
nπx
L
)
⟩ =
∫ L
−L
cos
(
mπx
L
)
sen
(
nπx
L
)
dx = 0,
⟨sen
(
mπx
L
)
= sen
(
nπx
L
)
⟩ =
∫ L
−L
sen
(
mπx
L
)
sen
(
nπx
L
)
dx = δmnL.
Suponha que a série
a0
2
+
∞
∑
m=1
(
am cos
(
mπx
L
)
+ bmsen
(
mπx
L
))
converge, e denote-a por f (x). Quem são os coeficientes am, bm? Quando tínhamos séries de
Taylor, os coeficientes tinha relação com as derivadas de f , e agora?
Observação 10.5. Dada a presença de várias funções trigonométricas na expressão da série de
Fourier, é esperado que esta série faça bastante sentido no caso de funções periódicas.
123
Teorema 10.6 (Fórmula de Euler-Fourier). Se
f (x) =
a0
2
+
∞
∑
m=1
(
am cos
(
mπx
L
)
+ bmsen
(
mπx
L
))
,
onde estamos supondo que a série converge, então
a0 =
1
L
∫ L
−L
f (x) dx,
an =
1
L
∫ L
−L
f (x) cos
(
nπx
L
)
dx,
bn =
1
L
∫ L
−L
f (x)sen
(
nπx
L
)
dx, n ≥ 1.
Exemplo 10.7. Seja
f (x) =



−x, −l ≤ xonde f
é contínua, e converge para a média
(
f (x+) + f (x−)
)
/2 nos pontos de descontinuidade.
Observação 10.11. Note que:
• As condições para que uma função tenha uma série de Fourier são muito mais simples do
que exigimos antes para convergência da série de Taylor.
125
• A notação f (c+) significa lim
x→c+
f (x), análogo para f (c−).
Exercício 10.12. Calcule a série de Fourier de
f (x) =
{
x + 2, −2 ≤ x 0 após
o início da variação de temperatura. Neste caso, a função u(x, t) satisfaz à equação diferencial
α2uxx = ut, 0 0,
onde α > 0 é uma constante que depende de propriedades físicas da barra.
Vamos supor que inicialmente a temperatura na barra seja dada por uma função f (x), x ∈
[0, L], ou seja, u(x, 0) = f (x). Assumiremos que nos extremos a temperatura é constante e igual
a zero: u(0, t) = u(L, t) = 0, t > 0, ou seja, temos a equação diferencial parcial



α2uxx = ut,
u(x, 0) = f (x),
u(0, t) = 0,
u(L, t) = 0.
11.2 Como resolver a equação do calor?
O ano era 1822 e o jovem Joseph Fourier (nem tão jovem, ele tinha 54 anos na época) tentava
resolver uma EDP que descrevia o fluxo de calor numa barra. Após várias tentativas, Fourier
decide que iria procurar soluções de uma maneira especial: supôs que a solução seria da forma
u(x, t) = X(x)T(t),
ou seja, que as variáveis estivessem, de certa forma, separadas.
Este método é conhecido como método de separação de variáveis. O que acontece quando
colocamos isto na equação? Se u(x, t) = X(x)T(t), então uxx = X′′(x)T(t) e ut = X(x)T′(t).
Substituindo em α2uxx = ut obtemos
α2X′′(x)T(t) = X(x)T′(t),
ou
X′′(x)
X(x)
=
1
α2
T′(t)
T(t)
. (63)
O lado esquerdo de (63) só depende de x, e o lado direito de (63) só depende de t. A única
forma disto ser possível é se cada lado for constante! Seja −λ esta constante. Assim
X′′(x)
X(x)
=
1
α2
T′(t)
T(t)
= −λ,
ou seja, temos duas equações diferenciais ordinárias:
X′′ + λX = 0,
T′ + α2λT = 0.
127
Quais as condições iniciais? Começando pela 1a equação:
u(0, t) = X(0)T(t) = 0 ⇒ X(0) = 0,
u(L, t) = X(L)T(t) = 0 ⇒ X(L) = 0.
Ou seja, teremos o problema de valor de contorno
X′′ + λX = 0, X(0) = 0, X(L) = 0. (64)
Reconhece esta equação? As soluções de (64) podem ser obtidas como fizemos no Exemplo
10.1, usando o método da equação característica. Se X(x) = eat é uma solução, então a2 + λ = 0
e daí a = ±
√
−λ. Já vimos que se λ ≤ 0 então a única solução é a nula, portanto suporemos
λ > 0 e daí a solução geral será da forma
X(x) = c1 cos(
√
λx) + c2sen (
√
λx).
Usando as condições de contorno, obtemos primeiro que c1 = 0 e depois que sen (
√
λL) =
0, ou seja,
√
λL = nπ para n ∈ N, de onde teremos que
√
λ = nπ/L. Assim, a solução
é X(x) = c2sen (nπx/L), com n ∈ Z, n > 0. Para cada n, considere as funções Xn(x) =
sen (nπx/L), n = 1, 2, 3, . . . , associadas aos valores λn = n2π2/L2, n = 1, 2, . . . . Observe que
as funções Xn são autofunções (autovetores) do operador associado à equação diferencial, e
os autovalores correspondentes são justamente os valores de λn. Estes são os únicos valores
possíveis de λ. Substituindo estes valores de λ na equação que envolve T, teremos
T′ + (n2π2α2/L2)T = 0.
As soluções desta equação são fáceis de obter:
T(t) = ke−n2π2α2t/L2
.
Juntando isto com as soluções da outra equação, e ignorando a constante multiplicativa, tere-
mos
un(x, t) = e−n2π2α2t/L2
sen (nπx/L), n = 1, 2, . . .
Note que TODAS as funções un(x, t) satisfazem à EDP, bem como combinações lineares delas.
Portanto, a solução geral da EDP tem a forma
u(x, t) =
∞
∑
n=1
cnun(x, t) =
∞
∑
n=1
cne−n2π2α2t/L2
sen (nπx/L).
Ainda temos que verificar a condição inicial, u(x, 0) = f (x), isto é, precisamos que
u(x, 0) =
∞
∑
n=1
cnsen (nπx/L) = f (x).
Ou seja: a série ∑∞
n=1 cnsen (nπx/L) é a série de Fourier de f (x), o que nos permite calcular os
coeficientes cn:
cn =
2
L
∫ L
0
f (x)sen (nπx/L) dx.
128
Proposição 11.1 (Solução da equação do calor). Portanto, a solução de



α2uxx = ut,
u(x, 0) = f (x),
u(0, t) = 0,
u(L, t) = 0
é
u(x, t) =
∞
∑
n=1
cne−n2π2α2t/L2
sen (nπx/L)
com
cn =
2
L
∫ L
0
f (x)sen (nπx/L) dx.
Observação 11.2. • A hipótese de que os extremos estão fixados com temperatura 0 é des-
necessária, podemos colocar temperatura T1 em um extremo e T2 em outro que obteremos
um desenvolvimento parecido.
• Os extremos da barra podem estar isolados, sem fluxo de calor, por exemplo com uma
condição ux(L, t) = 0. Neste caso também é possível obter a solução.
• A versão n-dimensional deste problema tem solução bem parecida. Por exemplo, no caso
bidimensional, teremos uma “placa” sendo aquecida.
Exemplo 11.3. Encontre a solução do problema de condição de calor uxx = 4ut, 0 0, com u(0, t) = u(2, t) = 0 para t > 0 e u(x, 0) = 2sen (πx/2)− sen (πx) + 4sen (2πx)
para 0 ≤ x ≤ 2.
A solução de
1
4
uxx = ut é dada por
u(x, t) =
∞
∑
n=1
cne
−n2π2
1
4
t/(22)
sen (nπx/2).
Eu recomendo você a reduzir novamente esta equação, como fizemos anteriormente, para fixar
o procedimento, ao invés de usar a “fórmula”. A distribuição inicial de calor na barra é dada
por
u(x, 0) =
∞
∑
n=1
cnsen
(nπx
2
)
= 2sen (πx/2)− sen (πx) + 4sen (2πx),
ou seja, c1 = 2, c2 = −1, c3 = 0, c4 = 4 e cn = 0 para todo n > 4. Portanto,
u(x, t) = 2e−π2t/16sen (πx/2)− e−π2t/4sen (πx) + 4e−π2tsen (2πx)
é a solução.
Vamos tentar entender o que isso significa nos gráficos a seguir.
◁
129
0.5 1.0 1.5 2.0
-2
0
2
4
6
(a) Distribuição inicial de tem-
peratura (t = 0).
0.5 1.0 1.5 2.0
-2
0
2
4
6
(b) Temperatura em t = 0, 1.
0.5 1.0 1.5 2.0
-2
0
2
4
6
(c) Temperatura em t = 1.
Figura 19: Evolução da temperatura num ponto x da barra.
11.3 A equação da onda
“Onda, onda, olha a onda” – Tchakabum
Considere uma corda elástica de comprimento L, fixada em suportes localizados em x = 0
e x = L. Se esta corda for colocada em movimento, como ela evolui? Seja u(x, t) a posição
do ponto x ∈ [0, L] após t unidades de tempo do início do movimento. Então u satisfaz uma
equação do tipo a2uxx = utt, onde a depende de propriedades do material da corda.
Como a corda está fixada nos extremos, temos que u(0, t) = u(L, t) = 0, para todo t > 0.
Vamos supor que a posição inicial é dada por uma função f (x), ou seja, u(x, 0) = f (x), x ∈
[0, L].
Além disto, considere que existe uma velocidade inicial (acorda por ser "jogada") ut(x, 0) =
g(x), x ∈ [0, L]. Vamos precisar que f (0) = f (L) = 0 e g(0) = g(L) = 0.
A função u(x, t) que descreve o movimento da corda satisfaz



a2uxx = utt,
u(0, t) = u(L, t) = 0,
u(x, 0) = f (x),
ut(x, 0) = g(x).
Como procurar soluções? Faremos primeiro o caso em que g ≡ 0. Vamos repetir o processo
de antes, supor u(x, t) = X(x)T(t). No entanto, agora será muito mais difícil. Substituindo
u(x, t) = X(x)T(t) na equação a2uxx = utt nos leva, quase como antes, em
X′′(x)
X(x)
=
1
α2
T′′(t)
T(t)
.
O lado esquerdo só depende de x, o direito só de t, então precisam ser constantes,
X′′(x)
X(x)
=
1
α2
T′′(t)
T(t)
= −λ.
Isto nos dá duas equações diferenciais ordinárias de segunda ordem.
{
X′′ + λX = 0
T′′ + a2λT = 0 ,
com as condições X(0) = 0, X(L) = 0 e T′(0) = 0. A equação para x tem exatamente as
mesmas soluções que antes, as autofunções Xn(x) = sen (nπx/L), n = 1, 2, 3, . . . associadas
130
aos autovalores λn = n2π2/L2, n = 1, 2, . . . . Substituindo estes valores de λ na equação que
envolve T, teremos T′′ + (n2π2a2/L2)T = 0. Esta é uma EDO de 2a ordem razoavelmente
simples de resolver, e daí obtemos
T(t) = k1 cos(nπat/L) + k2sen (nπat/L).
Da condição inicial T′(0) = 0 teremos que k2 = 0, portanto T(t) = k1 cos(nπat/L). Logo
un(x, t) = sen (nπx/L) cos(nπat/L), n = 1, 2, . . .
satisfaz a EDP, e daí a solução geral é
u(x, t) =
∞
∑
n=1
cnsen (nπx/L) cos(nπat/L).
Da condição u(x, 0) = f (x) temos f (x) = u(x, 0) = ∑∞
n=1 cnsen (nπx/L), portanto esta série é
a série de Fourier de f (x), ou seja,
cn =
2
L
∫ L
0
f (x)sen (nπx/L) dx, n = 1, 2, 3, . . . .
O que acontece se g(x) não for nula? Até obtermos a solução geral
u(x, t) =
∞
∑
n=1
knsen (nπx/L) cos(nπat/L)
tudo continua igual. Vamos supor que f (x) ≡ 0. Assim
ut(x, 0) =
∞
∑
n=1
nπa
L
knsen (nπx/L) = g(x)
e daí
kn =
L
nπa
2
L
∫ L
0
g(x)sen (nπx/L) dx, n = 1, 2, . . .
Proposição 11.4 (Solução da equação da onda). A solução de
{
a2uxx = utt,
u(0, t) = u(L, t) = 0, u(x, 0) = f (x), ut(x, 0) = g(x)
é dada por
u(x, t) =
∞
∑
n=1
(
kn + cn
)
sen (nπx/L) cos(nπat/L)
com
cn =
2
L
∫ L
0
f (x)sen (nπx/L) dx, n = 1, 2, 3, . . . ,
kn =
L
nπa
2
L
∫ L
0
g(x)sen (nπx/L) dx, n = 1, 2, . . . .
Observação 11.5. Refletindo um pouco sobre as soluções da equação da onda e da equação do
calor, note que na equação do calor temos uma exponencial, o que faz sentido já que é esperado
que com t → ∞, a temperatura tenda a zero (temperatura do ambiente). Já aqui, na equação da
onda, não temos termo exponencial, somente senos e cossenos, o que faz sentido, pois a corda
tem comprimento fixo e só vai ficar oscilando.
Exercício 11.6. Encontre a solução do problema de vibração de uma corda elástica uxx = utt, com
0 0, e condições de contorno u(0, t) = u(1, t) = 0, t > 0, ut(x, 0) = 0, 0 0, existir n0 ∈ N tal que |xn − a| 0, o conjunto
B(x, r) = {y ∈ X, d(x, y) 0, existir n0 ∈ N tal que ||xn − a|| 0, existir n0 ∈ N tal que
para todos m, n ≥ n0 temos ||xn − xm||lineares de Rn
em Rn. Note que L(Rn) é isomorfo a Mn×n(R) (este isomorfismo depende de uma escolha de
base).
Vamos agora introduzir algumas normas no espaço L(Rn).
Como L(Rn) é isomorfo a Mn×n(R), e o o conjunto Mn×n(R) é basicamente um RN com
N grande (no caso, N = n2), poderíamos pensar em usar em L(Rn) uma norma construída
assim: dado T ∈ L(Rn), escolha uma base B de Rn e calcule a matriz A = [T]B. Esta matriz
pode ser pensada como um vetor em Rn2
, e neste espaço temos a norma usual. Poderíamos
definir ||T|| = ||A||. O problema disso é que a norma ficaria dependendo da escolha particular
da base B. Para contornar isto, poderíamos supor que sempre usaríamos a base canônica. Aí
entra um problema mais sutil: existe uma certa desigualdade envolvendo a norma matricial
que queremos que seja verdadeira, e ela não é verdadeira usando esta norma “herdada” de
Rn2
. Faremos a definição de ||T|| de uma forma um pouco mais complicada, mas que provará
bem o seu valor em breve.
Primeiro denote por ⟨·, ·⟩ o produto interno usual de Rn e por || · || a norma usual, ou seja,
se x = (x1, . . . , xn) e y = (y1, . . . , yn) então
⟨x, y⟩ = x1y1 + . . . + xnyn
e
||x|| =
√
⟨x, x⟩ =
√
x2
1 + . . . + x2
n.
Se A ∈ L(Rn), vamos definir a norma de A por
||A|| = sup
{ ||Ax||
||x|| , x ̸= 0
}
= sup {||Ax||, ||x|| = 1} .
A primeira pergunta: este supremo está bem definido? Sim!
Prova (Versão difícil). O conjunto dos x ∈ Rn tais que ||x|| = 1 é compacto; como a função x 7→ Ax
é contínua, o conjunto dos Ax é também compacto, daí o conjunto dos ||Ax|| é limitado e portanto tem
supremo. ■
Prova (Versão também difícil, mas como é álgebra linear, vamos fazer o caso bidimensional e
deixar o caso geral como exercício, que é o que matemáticos fazem). Sejam x = (x, y) e
A =
(
a b
c d
)
.
135
Então
Ax =
(
ax + by
cx + dy
)
.
Seja x ̸= 0 e vamos calcular ||Ax||/||x||.
||Ax||
||x|| =
√
(ax + by)2 + (cx + dy)2
√
x2 + y2
=
√
a2x2 + b2y2 + c2x2 + d2y2 + 2axby + 2cxdy√
x2 + y2
=
√
x2
x2 + y2 (a2 + c2) +
y2
x2 + y2 (b
2 + d2) +
xy
x2 + y2 (2ab + 2cd)
≤
√
a2 + c2 + b2 + d2 + 2ab + 2cd
Portanto, o conjunto dos valores ||Ax||/||x|| é limitado (por uma constante que não depende de x).
Logo, o supremo existe e a norma está bem definida! ■
Agora temos uma norma em L(Rn) (e também em Mn×n(Rn)). O problema é que com a
definição
||A|| = sup {||Ax||, ||x|| = 1}
não fica tão simples calcular de fato as normas. Vamos fazer um exemplo bidimensional para
entender como podemos proceder.
Exemplo 12.8. Considere a matriz
A =
(
1 0
0 3
)
e vamos calcular ||A||. Seja x = (a, b) ∈ R2 satisfazendo ||x|| = 1, ou seja, a2 + b2 = 1. Note
que
Ax =
(
1 0
0 3
)(
a
b
)
= (a, 3b)
e portanto
||Ax|| = ||(a, 3b)|| =
√
a2 + 9b2.
Assim,
||A|| = sup{
√
a2 + 9b2, a2 + b2 = 1}.
Para calcular o supremo acima, precisamos determinar qual é o “maior” valor que a expressão√
a2 + 9b2 assume, dado que temos a restrição a2 + b2 = 1. Vamos chamar este maior valor de
K. Assim,
√
a2 + 9b2 = K e a2 + b2 = 1. Geometricamente, isto significa que o ponto (a, b) está
ao mesmo tempo sobre o círculo unitário x2 + y2 = 1 e sobre a elipse x2 + 9y2 = K2.
Se você fizer algumas figuras, vai se convencer de que isto só é possível se K ∈ [1, 3]. Como
queremos o “maior” valor de K (as aspas são por conta de não ser o maior, mas sim o supremo),
deveremos ter K = 3. Logo, ||A|| = 3. ◁
136
Observação 12.9. Sobre o exemplo anterior, perceba que 3 é exatamente o módulo do maior
autovalor de A. Será que é coincidência?
Lembra que definimos a norma de ||A|| de uma forma complicada por conta de uma desi-
gualdade? Aqui está ela:
Proposição 12.10 (Justificativa da escolha da norma). Se A ∈ L(Rn) e x ∈ Rn então ||Ax|| ≤
||A|| · ||x||. Por consequência, temos ||AB|| ≤ ||A|| · ||B|| e também ||An|| ≤ ||A||n.
Observação 12.11. Podemos definir qualquer norma em L(Rn), já que como o espaço tem di-
mensão finita, elas são todas equivalentes. Só estamos usando a norma definida anteriormente
para ganharmos a desigualdade da Proposição 12.10.
Observação 12.12. Cuidado, na Proposição 12.10 estamos usando o símbolo || · || para muitas
coisas diferentes! Decida qual é a norma pelo contexto.
Teorema 12.13. L(Rn) é um espaço de Banach.
É fácil provar isto com o lema
Lema 12.14. Rk é um espaço de Banach para todo k ≥ 1.
juntamente com a observação de que as normas são equivalentes, ou seja, se denotarmos
por ||A||2 a norma de Mn×n(Rn) quando considerado Rn2
, então temos que existem constantes
c, c̃ com c||A||2 ≤ ||A|| ≤ c̃||A||2.
12.4 Exponencial matricial
Seja A uma matriz n × n. Voltemos à série que usamos para definir a exponencial de matriz,
exp(A) = Id + A +
1
2!
A2 +
1
3!
A3 + . . . +
1
n!
An + . . .
Como provar que exp(A) é uma matriz (ou um operador)? Simples, vamos provar que a
sequência das somas parciais da série acima é de Cauchy, logo ela será convergente (pois L(Rn)
é um espaço de Banach). Seja ε > 0. Denote
Sn =
n
∑
k=0
1
k!
Ak.
Devemos achar n0 tal que se m, n ≥ n0 então ||Sn − Sm|| m e seja n = m + p. Vamos usar uma série auxiliar para concluir a prova:
seja
exp(t) =
∞
∑
n=0
1
n!
tn
a série de Taylor da função exponencial (de números reais). Podemos calcular exp(t) em t =
||A||, pois a norma de A é um número real. Então a série
exp(||A||) =
∞
∑
n=0
1
n!
(||A||)n
137
converge. Portanto, a sequência das somas parciais desta série é de Cauchy.
Vamos denotar (Wn)n a sequência de somas parciais da série
exp(||A||) =
∞
∑
n=0
1
n!
(||A||)n,
ou seja,
Wn =
n
∑
k=0
1
k!
(||A||)k.
Como (Wn)n é de Cauchy, existe n0 ∈ N tal que para todo m, n ≥ n0 temos |Wn − Wm|incógnitas, a parte desconhe-
cida da equação, será uma função e não mais um número. São as chamadas equações funci-
onais. Mas não vamos tratar de quaisquer equações funcionais. Estaremos interessados es-
pecialmente nas equações que envolvem as funções e suas derivadas. No começo as funções
dependerão somente de uma variável, e as derivadas serão com respeito a esta variável e por
isto serão chamadas de equações diferenciais ordinárias (EDOs).
Exemplo 1.1. Considere a equação y′ = 2x. Uma solução desta equação é uma função y = f (x)
tal que para todo x ∈ R temos f ′(x) = 2x. Não é difícil pensar em uma função com esta
propriedade: y = f (x) = x2 funciona. Mas também funciona y = x2 + c, c constante. Portanto,
a equação tem infinitas soluções. ◁
É comum que uma equação diferencial tenha mais que uma solução, e este conjunto de so-
luções pode ser chamado de família de soluções – a família é indexada pela “constante de inte-
gração”. Com uma condição auxiliar, ou seja, escolhendo a constante, podemos tentar “forçar”
a solução a ser única. Um problema de valor inicial (PVI) é uma equação diferencial com uma
condição “extra” sobre a solução. A condição inicial é uma forma de “escolhermos”, dentre
todas as soluções, a que satisfaça alguma condição.
Observação 1.2. Neste texto, faremos uma diferenciação entre “solução geral” e “solução par-
ticular”. A “solução particular” é a solução de um PVI; já a “solução geral”, é solução da
equação sem ter condições iniciais pré-estabelecidas. A solução geral da equação costuma ter
parâmetros que, se ajustados, permite resolver qualquer PVI que envolva aquela equação.
Observação 1.3. Vamos fazer uma pausa para falar sobre notações. Estamos sempre usando
“y = f (x)”, mas não há necessidade. A função pode ser denota por y = y(x). É um abuso
de notação, mas facilita em muitos aspectos. Por exemplo, no caso anterior, poderíamos ter
escrito a equação como y′ = 2x e a condição inicial y(0) = 2, sem ter que introduzir uma nova
letra. Assim, em equações do tipo y′ = g(x), devemos entender que y = y(x), ou seja, y é uma
função de x. Em muitos casos, o contexto deixará claro qual é a variável dependente e quando
é a variável independente.
Exemplo 1.4. Considere o PVI y′ = 2x, y(0) = 5. A solução da equação é y = x2 + c. Se
queremos que y(0) = 5, então y(0) = 0 + c, ou seja, c = 5. Portanto, y = x2 + 5 é a solução do
PVI. ◁
2Veja aqui: https://www.bbc.co.uk/newsround/47154810.
7
https://www.bbc.co.uk/newsround/47154810
Encontrar soluções para equações diferenciais da forma y′ = g(x) não é diferente de calcular
integrais. De fato, considerando a equação diferencial y′ = g(x) e uma condição inicial y(a) =
b, o Teorema Fundamental do Cálculo nos garante que uma solução do PVI é
y(x) =
∫ x
a
g(t) dt + b.
Dependendo da regularidade da função g(x), esta é a única solução do PVI.
A coisa começa a ficar divertida quando a equação diferencial é da forma y′ = g(y, x), ou
seja, o lado direito da equação depende também de y.
Exemplo 1.5. Considere a equação y′ = y, em que o lado direito depende somente de y. Procu-
ramos uma função y(x) tal que y′(x) = y(x) para todo x num certo conjunto I (em geral, um
intervalo). Qual função é igual à sua derivada? Ora, a função y(x) = ex e, mais geralmente,
qualquer função do tipo y(x) = aex. Se estivermos interessados na solução de um PVI como
y′ = y, y(0) = 4, então devemos escolher y(x) = 4ex (faça as contas!). ◁
O caso em que o lado direito depende de y e de x, como por exemplo a equação y′ = y + x,
é um pouco mais complicado do que estamos dispostos a ir neste capítulo. Você pode gastar
algum tempo tentando descobrir uma solução para essa equação.
Em resumo: uma equação diferencial é uma equação que envolve uma função desconhecida
y(x), suas derivadas y′(x), y′′(x), . . . e a variável independente x; um PVI é quando temos uma
conjunto composto por uma equação diferencial e um conjunto de condições iniciais, que são
simplesmente valores que a função y(x) assume em certos valores de x, y(x0) = y0, y(x1) = y1,
etc, podendo também levar em conta valores das derivadas de y em alguns pontos.
Vamos aprender a resolver equações diferenciais, mas antes disto precisamos saber bem
como verificar que uma função é de fato solução de uma EDO ou de um PVI. Precisaremos tam-
bém desenvolver a habilidade de saber encontrar soluções “por inspeção” (o famoso “chute”).
Exercício 1.6. Verifique que y(x) = 1 − ex2/2 é solução da equação y′ − xy = −x.
Exercício 1.7. Verifique que y(x) = 1 + x + x2/2 é solução da equação y′′ − y′ = −x.
Exercício 1.8. Verifique que a função
y =
{
−x4, x 0, o que nos dá o
intervalo de validade da solução: x ∈ (−5, 5). ◁
Exercício 1.12. Encontre soluções y(x) para a equação diferencial y′′′ + y = 0.
Exercício 1.13. Encontre soluções y(x) para a equação diferencial y′ = y + x.
1.2 Classificação
Divide et impera. – Julius Caesar
Antes de introduzir mais exemplos, vamos definir bem nosso objeto de estudo e apresentar
uma classificação das equações diferenciais.
Uma equação diferencial é chamada de ordinária, se a equação só envolve derivadas com
respeito a uma variável:
• y′′(x) + 3y(x)2 = cos(x),
• zx(x, y) + zx(x, y)3 = 1.
Já uma equação diferencial é chamada de parcial se a equação envolve derivadas com res-
peito a mais que uma variável:
• α2uxx(x, t) = ut(x, t),
• α2uxx(x, t) = utt(x, t).
Iremos utilizar bastante a notação de “operador” para representar uma equação diferen-
cial. Um operador é uma função que pega funções e variáveis num conjunto que é o produto
cartesiano de espaços de funções com R e os leva numa combinação desses elementos.
Por exemplo, a equação diferencial y′′(t)− 3y′(t)+ 2y(t)+ cos(t) = 0 está associada à equa-
ção L(t, y, y′, y′′) = 0, onde L(t, y, y′, y′′) = y′′ − 3y′ + 2y + cos(t) e o domínio de definição de L
pode ser algo como
L : U × C3 × C2 × C1 → C3,
sendo U ⊂ R um aberto e Cr = Cr(U, R) o conjunto das funções g : U ⊂→ R que são de classe
Cr. Note que a função L é linear nas variáveis y, y′, y′′ e que se y resolve a equação diferencial
associada, então y ∈ ker(L).
Considere então a equação diferencial L
(
t, y, y′, . . . , y(n)
)
= 0, definida pelo operador L.
Essa equação é dita linear se o operador L é linear nas variáveis y, y′, . . . , y(n), como em
• y′′(t) + 3ety(t)− cos(t) = 0,
9
• 7y′′(t) + 3y′(t)− y(t)− t = 0,
• y′(t) + t5y(t) = cos(t),
e é não linear, se o operador L é não linear:
• (y′(t))2 + y(t)− t = 0,
• y(t)y′(t) + cos(t)− 1 = 0.
É preciso entender que não-linear não significa que as funções envolvidas serão lineares,
mas sim que os termos envolvendo y e suas derivadas são lineares. Em termos do operador
L
(
t, y, y′,do capítulo anterior na solução de sistemas de equa-
ções diferenciais.
13.1 Equações homogêneas
Se A é uma matriz n × n e t ∈ R, a exponencial de At é definida por
eAt = exp(At) =
∞
∑
n=0
1
n!
Antn.
Seja x0 ∈ Rn. Sendo eAt uma matriz, o produto eAtx0 está bem-definido e é um elemento de Rn.
Vamos denotar x(t) = eAtx0. Note que x(0) = x0 e19
d
dt
x(t) =
d
dt
(
eAtx0
)
=
d
dt
(( ∞
∑
n=0
1
n!
Antn
)
x0
)
= AeAtx0 = Ax(t)
Portanto x(t) = eAtx0 é uma solução do problema de valor inicial
d
dt
x(t) = Ax(t), x(0) = x0.
Proposição 13.1. Seja A uma matriz n × n, a ∈ Rn e x(t) = (x1(t), . . . , xn(t) uma função R → Rn
cujas coordenadas são diferenciáveis. Então a solução do problema de valor inicial x′(t) = Ax(t),
x(0) = a é x(t) = eAta.
Exemplo 13.2. Considere
A =
(
1 0
0 −2
)
.
O problema de valor inicial ẋ = Ax, x(0) = (1, 3) é equivalente ao sistema de equações
{
ẋ1 = x1
ẋ2 = −2x2
com condições iniciais x1(0) = 1, x2(0) = 3. A solução deste PVI pode ser obtida de forma
simples: x(t) = exp(At)(1, 3). Como
exp(At) = exp
(
t 0
0 −2t
)
=
(
et 0
0 e−2t
)
,
segue que
x(t) =
(
et 0
0 e−2t
)(
1
3
)
=
(
et
3e−2t
)
,
ou seja, x1(t) = et e x2(t) = 3e−2t. ◁
19Não provamos que esta série pode ser derivada termo a termo, mas assim como no caso de séries de potências,
isto pode ser feito.
140
13.2 Equações não-homogêneas
Um caso um pouco mais complicado, mas que pode ser resolvido usando a Proposição 13.3, é
o dos sistemas da forma
ẋ = Ax + b(t).
Para resolver este sistema, vamos achar um fator integrante. Como? Multiplicando por uma
exponencial matricial, claro!
Multiplicando
ẋ − Ax = b(t)
por e−At obtemos
e−Atẋ − e−At Ax = e−Atb(t),
que pode ser reescrita como
d
dt
(
e−Atx(t)
)
= e−Atb(t)
e integrada como
e−Atx(t) =
∫
e−Atb(t) dt.
A integral do lado direito de
e−Atx(t) =
∫
e−Atb(t) dt
pode ser resolvida para obtermos
∫
e−Atb(t) dt = g(t) + c
e daí
x(t) = eAtg(t) + eAtc,
onde c = (c1, . . . , xn). Portanto, todo o problema está em calcular uma primitiva para a função
vetorial g′(t) = e−Atb(t).
Proposição 13.3. Seja A uma matriz n × n, b(t) uma função contínua. Então a solução do problema de
valor inicial x′(t) = Ax(t) + b(t) é x(t) = eAtg(t) + eAtc, com g′(t) = e−Atb(t) e c uma constante
(que dependerá das condições iniciais).
Exercício 13.4. Mostre que a solução de
{
ẋ = x + t,
ẏ = 5y + 2.
é da forma x(t) = aet − 1 − t, y(t) = be5t − 2/5, onde a, b são constantes.
141
13.3 Retrato de fase
Um sistema de n equações diferenciais lineares de primeira ordem exige n condições iniciais,
uma para cada função envolvida. No caso de sistemas bidimensionais, as condições iniciais são
da forma x(t0) = α e y(t0) = β. No caso de sistemas autônomos, o valor de t0 não importará;
iremos sempre considerar t0 = 0.
Uma consequência do teoria de existência e unicidade no caso de sistemas autônomos é
que as soluções decompõe o espaço. Veja o exemplo anterior: dados dois pontos P, Q ∈ R2,
ou eles pertencem à mesma curva-solução ou eles pertencem a soluções diferentes. Em outras
palavras, o conjunto das soluções é uma partição do espaço, e portanto podemos definir a
relação de equivalência: x ∼ y quando x, y estão na mesma curva-solução.
Chamaremos de trajetória a cada uma das curvas-solução do sistema. Chamaremos de re-
trato de fase à união de todas as trajetórias (ou à sua representação geométrica, como na figura
acima). Muitas vezes incluiremos o campo vetorial no retrato de fase. Quando a figura só
incluir o campo vetorial, chamaremos de campo de direções.
Exercício 13.5. Construa o retrato de fase do sistema
{
x′ = x,
y′ = 3y.
Exercício 13.6. Construa o retrato de fase do sistema
{
x′ = x,
y′ = −3y.
Exemplo 13.7 (Caso geral). Seja A uma matriz diagonal, A = diag(λ, µ), com λ, µ ∈ R. Vamos
determinar o retrato de fase de ẋ = Ax.
ẋ = Ax ⇔
{
x′ = λx,
y′ = µy.
Neste caso é fácil calcular a exponencial de A:
exp(At) =
(
eλt 0
0 eµt
)
.
Assim, se x(0) = (ff, fi) é a condição inicial, a solução é dada por
x(t) = eAtx(0) =
(
ffe˘t, fie¯t)
Caso 1: λ > 0 e µ > 0 (repulsor)
x(t) = eAtx(0) =
(
ffe˘t, fie¯t)
Caso 2: λ 0 (µ = −ρ, ρ > 0) (ou vice-versa) (sela)
x(t) = eAtx(0) =
(
ffe˘t, fie−æt)
◁
142
13.4 Calculando explicitamente as exponenciais matriciais
Até agora, calculamos exponenciais de matrizes diagonais. Veremos agora como calcular algu-
mas exponenciais matriciais um pouco mais gerais. O funcionamento do método é garantido
pelo seguinte resultado:
Teorema 13.8. Sejam A, B matrizes n × n e suponha que exista uma matriz invertível M tal que A =
MBM−1. Então exp(At) = exp((MBM−1)t) = M exp(Bt)M−1.
Prova. Fica como exercício, e a dica é perceber que
(MBM−1)n = (MBM−1)(MBM−1) · · · (MBM−1) = MBnM−1.
■
Como vamos usar este teorema neste curso?
Se quisermos resolver um sistema ẋ = Ax onde exp(At) é “difícil” de calcular, iremos pro-
curar matrizes B, M tais que exp(Bt) seja mais fácil de calcular e satisfazendo A = MBM−1; daí
conseguiremos obter exp(At) pela fórmula
exp(At) = exp((MBM−1)t) = M exp(Bt)M−1.
Como encontrar B e M? Pelos autovalores e autovetores! Vamos fazer em detalhes o caso 2× 2.
Considere A uma matriz real n × n. Seja
pA(λ) = det(A − λI)
o polinômio característico de A. Os autovalores de A são as raízes λ1, . . . , λn deste polinômio.
No caso de matrizes 2 × 2 o polinômio característico tem a forma
pA(λ) = λ2 − tr(A)λ + det(A).
Note que os autovalores podem ser reais ou complexos. Seja λ um autovalor de A. Então
det(A − λI) = 0
e isto significa que o sistema linear homogêneo
(A − λI)x = 0
tem uma solução não-nula, digamos x = u. Esta solução não nula é chamada de autovetor
associado a λ. Note que se (A − λI)u = 0 então Au = λu.
Quando λ ∈ C \ R, pode acontecer do autovetor u também ter coordenadas complexas.
Iremos contornar isto mais para frente. No caso em que λ ∈ R, então o autovetor u também só
terá coordenadas reais.
No caso em que os autovalores são iguais, λ = µ, pode acontecer de não existirem dois
autovetores linearmente independentes.
Seja então A uma matriz 2 × 2, λ, µ seus autovalores. Vamos encontrar as matrizes B e M.
Suponha primeiro que λ ̸= µ. Assim teremos dois autovetores u, v, com Au = λu e Av =
µv. Acabamos de descobrir a matriz B:
B =
(
λ 0
0 µ
)
.
143
Para construir M, se u = (u1, u2) e v = (v1, v2), defina
M =
(
u1 v1
u2 v2
)
.
Assim,
A = MBM−1
e
exp(At) = M exp(Bt)M−1.
O que é a matriz M? A matriz M é uma matriz de mudança de base. Estamos trocando a
base, da base canônica de R2 para a base {u, v}. Ou seja, estamos trocando a base na qual a
matriz da transformação linear TA : R2 → R2, TA(x) = Ax está escrita.
Se C denota a base canônica e B = {u, v}, então
A = MBM−1 ⇔ [A]CC = [I]BC [B]
B
B[I]
C
B,
onde M = [I]BC é a matriz mudança de base, da base B para a base canônica.
O que acontece se λ, µ forem complexos? Neste caso vamos usar a Forma de Jordan Real, ou
Forma de Jordan-Schur da matriz. Vamos escrever todos os objetos em termos de suas partes
reais e imaginárias: sejam λ = a + bi e µ = λ = a − bi os autovalores de A. Analogamente,
quebramos os autovetores associados em suas partes reais e imaginárias: u = z + wi, v = u =
z − wi.
Agora vem uma conta muito boa. Como Au = λu, temos que
A(z + wi) = (a + bi)(z + wi)
= (a + bi)z + (−b + ai)w
= az − bw + i(bz + aw)
Comparando partes reais e partes imaginárias, obtemos que
Az = az − bw, Aw = bz + aw.
Seja C ′ = {z, w}. Então C ′ é base de R2 (exercício!) e iremos usar esta base, ao invés de base C.
Fazendo isto, a matriz B ficará
B =
(
a −b
b a
)
e a matriz M será
B =
(
z1 w1
z2 w2
)
,
onde z = (z1, z2) e w = (w1, w2).
O que acontece se só existir 1 autovalor? Suponha que os autovalores sejam iguais, λ = µ
e que só exista um autovalor, denotado por u. Não terá como obtermos a matriz na forma
diagonal (pois para isto precisaríamos de uma base com dois autovetores). O que acontece
neste caso é que (A − λI)x = 0 só tem umasolução (só um autovetor). Noutras palavras, a
imagem da transformação linear A − λI : R2 → R2 tem dimensão 1. Uma vez escolhido o
autovetor u, seja v tal que Av − λv = u (u existe!).
Considere agora a base B′′ = {u, v}, temos:
Au = λu, Av = u + λv.
144
Para quem já estudou álgebra linear, isto significa que
[A]CB′′ =
(
λ 1
0 λ
)
.
Portanto, se considerarmos agora M como sendo a matriz mudança de base, de B′′ para C,
teremos a igualdade
A = MBM−1.
Teorema 13.9. Seja A uma matriz 2 × 2. Então existe uma matriz invertível M com
A = MBM−1,
onde B é de uma das formas abaixo:
(
λ 0
0 µ
)
,
(
λ 0
0 λ
)
,
(
λ 1
0 λ
)
,
(
a −b
b a
)
.
Observação 13.10. Os comentários nos parágrafos anteriores nos mostram como calcular M
para cada um dos casos do teorema anterior.
Iremos reduzir o problema do cálculo de exp(At) ao cálculo de exp(Ajt), onde
A1 =
(
λ 0
0 µ
)
, A2 =
(
λ 0
0 λ
)
, A3 =
(
λ 1
0 λ
)
, A4 =
(
a −b
b a
)
.
Fica como exercício20 mostrar que:
• exp(A1t) =
(
eλt 0
0 eµt
)
, exp(A2t) =
(
eλt 0
0 eλt
)
• exp(A3t) =
(
eλt teλt
0 eλt
)
• exp(A4t) =
(
eat cos(bt) −eatsen (bt)
eatsen (bt) eat cos(bt)
)
Exemplo 13.11. Encontre a solução geral do sistema
{
ẋ = 2x − y,
ẏ = x + 2y
e esboce o retrato de fase.
Seja
A =
(
2 −1
1 2
)
.
Desta vez é fácil: a matriz é do tipo A4, portanto
exp(At) =
(
e2t cos(t) e2tsen (t)
−e2tsen (t) e2t cos(t)
)
20Eu fiz as contas durante a aula. Em algum momento elas estarão aqui.
145
Se x(0) = (a, b) é a condição inicial, então a solução é dada por
x(t) =
(
e2t cos(t) e2tsen (t)
−e2tsen (t) e2t cos(t)
)(
a
b
)
O retrato de fase está na figura a seguir.
6 4 2 0 2 4 6
x
6
4
2
0
2
4
6
y
◁
Exemplo 13.12. Encontre a solução geral do sistema
{
ẋ = x − 2y,
ẏ = −3x + 2y
e esboce o retrato de fase.
Seja
A =
(
1 −2
−3 2
)
.
Neste caso precisaremos de nossa amiga álgebra linear, pois exp(At) não é tão simples de cal-
cular diretamente. Então vamos calcular autovalores, autovetores, matriz B e matriz M.
Seja A a matriz do sistema. Os autovalores de A são: λ = −1 e µ = 4, associados aos
autovetores u = (1, 1), v = (−2, 3). Defina
B =
(−1 0
0 4
)
, M =
(
1 −2
1 3
)
.
Temos que (confira!)
MBM−1 = A
e que
exp(Bt) =
(
e−t 0
0 e4t
)
.
Como exp(At) = M exp(Bt)M−1, segue que
exp(At) = M exp(Bt)M−1 =
(
1 −2
1 3
)(
e−t 0
0 e4t
)( 3
5
2
5
−1
5
1
5
)
=


3e−t
5
+
2e4t
5
2e−t
5 − 2e4t
5
3e−t
5
− 3e4t
5
2e−t
5 + 3e4t
5


146
Portanto, se a condição inicial for x(0) = (a, b), a solução será dada por
x(t) =
(
3e−t
5 + 2e4t
5
2e−t
5 − 2e4t
5
3e−t
5 − 3e4t
5
2e−t
5 + 3e4t
5
)(
a
b
)
.
Por exemplo, se a condição inicial for x(0) = (1/2, 3/4), a solução será dada por
x(t) =
(
− 1
10
e−t (e5t − 6
)
,
3
20
e−t (e5t + 4
))
No próximo gráfico, fazemos várias condições iniciais em azul e esta em particular em ver-
melho.
6 4 2 0 2 4 6
x
6
4
2
0
2
4
6
y
◁
Exercício 13.13. Encontre o retrato de fase dos sistemas abaixo:
1. ẋ = x − 2y, ẏ = x − y
2. ẋ = 3x − 2y, ẏ = x − y
3. ẋ = 4x − 2y, ẏ = 3x − y
Exemplo 13.14. Vamos resolver o sistema
{
ẋ = x + 3y + t,
ẏ = −3x + y + 2.
Seja
A =
(
1 3
−3 1
)
, b(t) =
(
t
2
)
.
Temos que
eAt =
(
et cos(3t) et sin(3t)
−et sin(3t) et cos(3t)
)
e daí
e−Atb(t) =
(
2et sin(3t) + ett cos(3t)
2et cos(3t)− ett sin(3t)
)
Integrando cada função coordenada em e−Atb(t), obtemos a função g(t) dada por
147
g(t) =


1
50
et((15t + 7) sin(3t) + (5t − 26) cos(3t))
1
50
et((26 − 5t) sin(3t) + (15t + 7) cos(3t))


A solução geral da equação é
z(t) = eAtg(t) + etA(c1, c2)
t.
Note que z(0) = g(0) + (c1, c2)
t, então não é tão imediato achar uma solução particular. ◁
Exemplo 13.15. Vamos resolver o sistema
{
ẋ1 = −2x1 + x2 + 2et,
ẋ2 = x1 − 2x2 + 3t.
Considere
A =
( −2 1
1 −2
)
, b(t) =
(
2e−t
3t
)
.
Desta forma,
eAt =


1
2
e−3 t +
1
2
e−t 1
2
e−t − 1
2
e−3 t
1
2
e−t − 1
2
e−3 t 1
2
e−3 t +
1
2
e−t


e daí
e−Atb(t) =


1 + e2 t − 3
2
te3 t +
3
2
tet
−e2 t + 1 +
3
2
tet +
3
2
te3 t


Agora integramos cada função coordenada de e−Atb(t), obtendo
g(t) =


t +
1
2
e2 t − 1
2
te3 t +
1
6
e3 t +
3
2
tet − 3
2
et
−1
2
e2 t + t +
3
2
tet − 3
2
et +
1
2
te3 t − 1
6
e3 t


Desta forma, a solução geral da EDO é
x(t) = etAg(t) + etA(c1, c2)
T.
◁
13.5 Sistemas não-homogêneos sem coeficientes constantes (e a matriz fun-
damental)
Nesta aula veremos como resolver sistema da forma
ẋ = A(t)x + b(t),
148
onde A(t) = (ai,j(t))i,j é uma matriz n × n e as funções ai,j(t) são contínuas no intervalo (α, β).
Vamos começar com caso b(t) ≡ 0:
ẋ = A(t)x. (66)
Neste caso, temos n equações diferenciais lineares. Note que se x(t) e y(t) são soluções da
equação (66), então pela linearidade, c1x(t) + c2y(t) também será solução.
Será que existe um conjunto mínimo de soluções? Sim, existe!
Teorema 13.16. O conjunto das soluções de (66) é um espaço vetorial de dimensão n.
Como encontrar uma base deste espaço vetorial? Usando o teorema abaixo:
Teorema 13.17. Se x1(t), . . . , xn(t) são soluções de (66) no intervalo (α, β) então o Wronskiano
W(x1(t), . . . , xn(t))
ou é a função nula ou nunca vale zero. Se nunca se anular, as funções são l.i.
Outra forma de encontrar uma base para o espaço-solução de (66) é a seguinte. Sejam e1 =
(1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . e en = (0, . . . , 0, 1).
Teorema 13.18. Sejam x1(t), . . . , xn(t) soluções de (66) com condições iniciais xj(0) = ej, no intervalo
(α, β). Então
{x1(t), . . . , xn(t)}
é uma base para o conjunto-solução de (66), chamada de conjunto fundamental de solucões.
A prova do teorema acima é fácil: o Wronskiano destas soluções sempre vale 1 em t = 0.
Considere novamente a equação
ẋ = A(t)x
e seja {x1(t), . . . , xn(t)} um conjunto fundamental de soluções. A matriz obtida colocando a
função xj(t) na coluna j,
Ψ(t) =


x1
1(t) x1
2(t) · · · x1
n(t)
x2
1(t) x2
2(t) · · · x2
n(t)
...
... . . . ...
xn
1 (t) xn
2 (t) · · · xn
n(t)

 ,
é chamada de matriz fundamental do sistema, onde
xj(t) = (x1
1(t), . . . , xn
1 (t)).
Como {x1(t), . . . , xn(t)} um conjunto fundamental de soluções, as colunas de Ψ(t) são l.i.,
logo Ψ(t) é uma matriz invertível, para todo valor de t ∈ (α, β). A solução geral da equação
(66) é dada por
x(t) = c1x1(t) + . . . + cnxn(t),
ou em termos da matriz fundamental,
x(t) = Ψ(t)c,
149
onde c = (c1, . . . , cn). Se o sistema (66) estiver acompanhado de uma condição inicial x(t0) =
x0 = (x0
1, . . . , x0
n) então a solução do sistema poderá ser obtida fazendo
x(t) = Ψ(t)Ψ−1(t0)x0,
onde Ψ(t) é a matriz fundamental. Quando a matriz fundamental for construída usando as
soluções como no Teorema 13.18 (xj(0) = ej), ela será denotada por Φ(t). Neste caso, a solução
do sistema (66) com condição inicial x(0) = x0 é
x(t) = Φ(t)x0.
A matriz fundamental não se parece muito com a exponencial da matriz dos coeficientes?
Sim! Porém, a técnica vale mesmo quando os coeficientes não são constantes, enquanto a expo-
nencial matricial só vale quando temos coeficientes constantes.
No caso em que os coeficientes não forem constantes, como eu vou achar a matriz funda-
mental? Sei lá. Quer dizer, já tínhamos este problema antes. Use algum método: coeficien-
tes a determinar, variação de parâmetros, etc. Use qualquer método que produza as soluções
x1(t), . . . , xn(t).
Considere a equação
ẋ = A(t)x + b(t)
e suponha que você tenha uma matriz fundamental Ψ(t) para o problema homogêneo associ-
ado.
A solução da equação não-homogênea vai ser obtida conseguindo uma solução particular
para ela, usando o método de variação dos parâmetros.
Assuma que existe uma solução na forma
x(t) = Ψ(t)u(t).
Derivando em t, obtemos
Ψ′(t)u(t) + Ψ(t)u′(t) = P(t)Ψ(t)u(t) + b(t)
Como Ψ(t) é a matriz fundamental, temos que Ψ′(t) = A(t)Ψ(t). Logo a equação anterior
se reduz a
Ψ(t)u′(t) = b(t).
Como Ψ(t) é invertível, segue que
u′(t) = Ψ−1(t)b(t).
Esta equaçãopode ser facilmente resolvida:
u(t) =
∫
Ψ−1(t)b(t) dt + c,
onde c é um vetor constante. Resolvendo agora para x(t) temos
x(t) = Ψ(t)c + Ψ(t)
∫ t
t1
Ψ−1(s)b(s) ds,
com t1 ∈ (α, β). Se nossa condição inicial for x(t0) = x0 e a matriz fundamental escolhida for a
Φ(t) então a solução será
x(t) = Φ(t)x0 + Φ(t)
∫ t
t0
Φ−1(s)b(s) ds.
150
Observação 13.19 (Resumo sobre soluções de sistemas de equações diferenciais de primeira
ordem lineares). Considere o sistema ẋ = A(t)x + b(t).
1. Se A(t) ≡ A e b(t) ≡ 0, então a solução é dada por
x(t) = exp(At)x0,
onde x0 é o vetor com as condições iniciais.
• Para calcular exp(At) pode ser necessário escrever A = MBM−1 (forma de Jordan),
onde B é a matriz com os autovalores e M é a matriz mudança de base.
• Atenção ao caso complexo e também ao caso de autovalores repetidos.
2. Se A(t) ≡ A e b(t) ̸= 0 então
x(t) = eAtg(t) + eAtc,
onde
g(t) + c =
∫
e−Atb(t) dt,
• Note que c não necessariamente é o vetor das condições iniciais, mas pode ser des-
coberto a partir dele.
• Podemos calcular exp(At) da mesma forma que antes, passando pela forma de Jor-
dan.
3. No caso geral A = A(t) e b = b(t), a solução é dada por
x(t) = Φ(t)x0 + Φ(t)
∫ t
t0
Φ−1(s)b(s) ds,
onde x(t0) = x0 é o vetor com condições iniciais.
• A matriz fundamental Φ(t) é construída colocando em suas colunas as soluções dos
PVIs com condições iniciais xj(0) = ej.
• Atenção: se A = A(t), não podemos calcular exp(At)! Por isto recorremos à matriz
fundamental.
• Como achar as soluções xj(t)? Usando coeficientes a determinar, ou variação dos
parâmetros, ou qualquer outro método, incluindo sonhar com as soluções.
• O método geral é bastante complicado, e é difícil achar soluções explícitas escritas
em termos de funções elementares.
Exercício 13.20. Resolva o PVI {
ẋ = −2y,
ẏ = x + aet,
com condições iniciais x(0) = y(0) = 1, e onde a ∈ R é uma constante.
• Mostre que a solução depende continuamente de a.
• Esboce a solução deste PVI com a = 0 e com a = 1 e veja como as soluções são diferentes.
151
• Tente fazer com valores menores de a e veja que as trajetórias nunca são curvas fechadas se a ̸= 0.
Exercício 13.21 (agora em 3D). Resolva o PVI



ẋ = −2y,
ẏ = x,
ż = z + x,
com condições iniciais x(0) = y(0) = z(0) = 1. Você consegue fazer um esboço desta trajetória?
152
Referências bibliográficas
[1] Dennis G. Zill. A First Course in Differential Equations with Modeling Applications. Cen-
gage Learning, 11 edition, 2018.
[2] William E. Boyce and Richard C. DiPrima. Elementary differential equations and
boundary value problems. John Wiley & Sons, 2005.
[3] Djairo Guedes de Figueiredo. Equações diferenciais aplicadas. 12o Coloquio Brasileiro de
Matematica. IMPA, 1979.
[4] William F. Trench. Elementary Differential Equations. Faculty Authored and Edited Books
& CDs., 2013.
[5] Gilbert Strang. Differential equations and linear algebra. Wellesley-Cambridge Press, 2014.
[6] George F. Simmons. Differential equations with applications and historical notes. CRC/-
Taylor & Francis, 2017.
[7] Dennis G. Zill and Warren S. Wright. Advanced Engineering Mathematics. 5a edition,
2014.
[8] Djairo Guedes Figueiredo and Aloisio Freiria Neves. Equações diferenciais aplicadas.
IMPA, 2008.
[9] Adam E. Parker. Wronskians and linear independence: A theorem misunderstood by
many. MAA Convergence, January 2021.
[10] Michael A. B. Deakin. The development of the laplace transform, 1737-1937: I. euler to
spitzer, 1737-1880. Archive for History of Exact Sciences, 25(4):343–390, 1981.
[11] Michael A. B. Deakin. The development of the laplace transform, 1737–1937 ii. poincaré to
doetsch, 1880–1937. Arch. Hist. Exact Sci., 25:351–381, 1982.
[12] José Ruidival dos Santos Filho. A função delta de Dirac. Notas de Minicurso, 2o Colóquio
de Matemática do Sudeste. SBM, 2013.
[13] J. Stewart. Cálculo, volume 1. Cengage Learning, 9 edition, 2022.
[14] Elon Lages Lima. Curso de Análise. IMPA, 15 edition, 2019.
[15] Matt Hudelson. Proof without words: The alternating harmonic series sums to ln 2. Math.
Mag., page 294, 2010.
[16] Aloisio Freiria Neves. Forma de jordan e equações diferenciais lineares. Notas de aula.
153
	Exemplos e definições iniciais
	Equações.. diferenciais?
	Classificação
	Interpretação geométrica da EDO
	Ferramentas computacionais
	Existência e unicidade de soluções para EDOs
	Sistemas de equações diferenciais
	O fluxo de uma EDO autônoma
	Modelagem matemática e aplicações
	Equações diferenciais lineares de primeira ordem
	Equações com coeficientes constantes
	EDOs lineares de primeira ordem com coeficientes variáveis
	Equações de Bernoulli
	Equações separáveis: modo ingênuo
	Formas diferenciais
	Campos vetoriais e formas diferenciais
	Formas lineares
	Formas diferenciais em R2
	Equações envolvendo formas diferenciais
	Equações separáveis e equações exatas
	Equações separáveis
	Equações exatas
	Transformando equações não-exatas em equações exatas
	Redução de ordem
	Equações diferenciais lineares de segunda ordem
	Existência de soluções
	Equações homogêneas de segunda ordem
	O Wronskiano
	O espaço-solução das equações diferenciais de segunda ordem
	Equações homogêneas: método das equações características
	Equações não-homogêneas: método dos coeficientes a determinar
	Equações não-homogêneas: método da variação dos parâmetros
	Equações diferenciais de segunda ordem com coeficientes não-constantes: redução de ordem
	Em termos de operadores diferenciais
	Equações de ordens superiores
	Transformada de Laplace
	Motivação e definição da transformada de Laplace
	Integrais impróprias
	Existência da Transformada de Laplace
	Transformadas de Laplace e PVIs
	Método geral
	Função degrau
	Transformadas inversas e funções degrau
	Função impulso e Delta de Dirac
	O produto de convolução
	Sequências e séries numéricas
	Relações de equivalência
	O conjunto dos números reais
	Sequências
	Séries
	Critérios de convergência de séries numéricas
	Soluções em séries para equações diferenciais
	Polinômios de Taylor
	Séries de Potências
	Soluções em séries para EDOs: pontos regulares
	Soluções em séries para EDOs: pontos singulares
	Soluções em séries para EDOs: caso singular-regular
	Séries de Fourier e problemas de valor de contorno
	Problemas de valor de contorno
	Séries de Fourier
	Funções pares e funções ímpares
	Equações do calor, da onda e de Laplace
	Equação do calor
	Como resolver a equação do calor?
	A equação da onda
	A equação de Laplace
	Exponencial matricial
	Exponencial de.. matrizes?
	Espaços métricos
	Espaços normados
	Exponencial matricial
	Sistemas de equações diferenciais
	Equações homogêneas
	Equações não-homogêneas
	Retrato de fase
	Calculando explicitamente as exponenciais matriciais
	Sistemas não-homogêneos sem coeficientes constantes (e a matriz fundamental). . . , y(n)
)
= 0, a restrição às últimas n + 1 entradas é que deve ser linear.
A ordem de uma equação diferencial é a maior ordem de derivação que aparece na equação
diferencial.
• (y′(t))4 + y′′′(t) = 2 é uma equação de ordem 3,
• y(t)y′(t) + cos(t) = y′′(t) é uma equação de ordem 2.
Exercício 1.14. Em cada um dos exemplos acima, qual é o operador?
No restante desse texto, vamos supor que o termo com maior ordem de derivação sempre
pode ser “isolado”, ou seja, que as equações são da forma
y(n) = F
(
t, y, y′, . . . , y(n−1))
para algum operador F, de modo que apareça de fato algum termo dependendo de y ou de
suas derivadas no lado direito da equação. Na maioria dos casos, vamos também supor que o
operador F é linear, ou seja, a equação diferencial pode ser escrita como
a0(x)y(n) + a1(x)y(n−1) + . . . + an−1(x)y′ + an(x)y = g(x),
onde a0, . . . , an, g são funções “boas”.
Observação 1.15. Quando temos uma equação de ordem n, para construir um PVI devemos
fornecer n condições. Assim, se a EDO é y(n) = f
(
t, y, y′, . . . , y(n−1)), o PVI associado terá a
forma
y(n) = f
(
t, y, y′, . . . , y(n−1)), y(t0) = y0, y′(t0) = y1, . . . , y(n−1)(t0) = yn−1
para certas constantes y0, y1, . . . , yn−1.
Note que todas as condições iniciais iniciais precisam ser dadas no mesmo valor t = t0.
Exercício 1.16. Agora é hora de você produzir um exemplo de EDO de cada tipo que classificamos acima.
Esse exercício parece bobo, mas não é.
10
Exemplo 1.17. Uma famosa equação diferencial parcial não-linear de segunda ordem cuja so-
lução vale 1 milhão de dólares é a equação de Navier-Stokes3:



∂
∂t
ui +
n
∑
j=1
uj
∂ui
∂xj
= ν∆ui −
∂p
∂xi
+ fi(x, t), x ∈ Rn, t ≥ 0,
div u =
n
∑
i=1
∂ui
∂xi
= 0, x ∈ Rn, t ≥ 0,
u(x, 0) = u◦(x), x ∈ Rn,
onde ∆ é o Laplaciano. ◁
1.3 Interpretação geométrica da EDO
Dada uma equação diferencial y(n) = f
(
t, y, y′, . . . , y(n−1)), cada solução y(t) é uma função e,
portanto, pode ser representada por um gráfico. Em geral chamaremos tais gráficos de curva-
solução.
Um outro conceito muito importante em termos de representação gráfica de soluções de
EDOs é o de curva integral. Uma curva γ é chamada de curva integral da equação diferencial
se cada segmento de γ que for gráfico de função é parte de uma solução da equação diferencial.
Uma curva integral pode ser a concatenação de várias curvas-solução. Note que toda curva
solução é uma curva integral, mas a recíproca não é verdadeira.
Exemplo 1.18. A Figura 1 mostra curvas-soluções da equação y′ = y que, como já vimos, são
as curvas y = aex, com a ∈ R. ◁
−4 −2 2
2
4
x
y
Figura 1: Algumas curvas-soluções de y′ = y.
Exemplo 1.19. Considere a equação diferencial y′ = −x/y. As funções y(x) = ±
√
a2 − x2 são
soluções desta equação. Assim, seus gráficos são curvas-solução. Como todo círculo de raio
a centrado na origem pode ser obtido como concatenação de duas destas curvas, todo círculo
centrado na origem é uma curva integral da equação diferencial (mas não são curvas-soluções).
◁
3Dê um Google por “Clay Problems” para ver a lista dos outros problemas cujas soluções valem um milhão de
dólares.
11
Em muitos casos, não conseguiremos explicitar a curva solução (por não poder isolar y na
solução), então curvas integrais são muito importantes. Em particular, para algumas EDOs,
vamos descrever as curvas integrais como sendo curvas de nível de alguma função h(x, y), e
isso facilitará muito o nosso trabalho.
Vamos aprender agora uma estratégia para fazer esboços das soluções de PVIs, sem que
tenhamos que resolver a equação. Considere uma equação de primeira ordem da forma
y′ = f (x, y). (1)
Seja g(x) uma solução para (1) com g(x0) = y0, ou seja, temos g′(x) = f (x, g(x)) para todo x
num certo intervalo, e o gráfico de y = g(x) passa pelo ponto (x0, y0).
Encontrar explicitamente g(x) pode ser difícil, mas sabemos qual é a inclinação da reta tan-
gente a essa curva: essa inclinação é f (x0, y0). Ou seja: você pode até não saber como é o gráfico
de y = g(x), mas sabe bem como é a reta tangente a esse gráfico perto do ponto (x0, y0): é
y = y0 + f (x0, y0)(x − x0).
Em cada ponto (x0, y0), vamos considerar um vetor com inclinação f (x0, y0) e com base
nesse ponto. Se fizermos isso para muitos pontos, teremos uma boa ideia de como é o com-
portamento qualitativo das soluções. Grosso modo, se “unirmos"esses vetores poderemos ter
uma boa ideia de como será o gráfico da solução y = g(x). Esta figura com vários “vetores”
representando inclinações de retas tangentes a soluções da equação é chamada de campo de
direções.
Exemplo 1.20. Vamos construir o campo de direções de y′ = 1 − xy. Para isto, vamos marcar
vetores X(x, y) = (1, 1 − xy) em alguns pontos do quadrado [−1, 1] × [−1, 1]. A escolha da
primeira coordenada como sendo 1 é arbitrária: só precisamos de um vetor diretor para uma
reta que tenha inclinação 1 − xy no ponto (x, y). A Figura 2 mostra o campo de direções de
y′ = 1 − xy.
−1 −0.5 0 0.5 1
−1
−0.5
0
0.5
1
Figura 2: Campo de direções de
dy
dx
= 1 − xy.
◁
Exercício 1.21. Construa o campo de direções das equações diferenciais abaixo:
12
(a) y′ = xy
(b) y′ =
x2
1 − x2 − y2
(c) y′ = y − x3
1.3.1 Método das isóclinas
Seja y′ = f (x, y) uma equação diferencial. Um método que pode ajudar a esboçar o campo de
direções é o método das isóclinas. As curvas isóclinas associadas a esta equação são as curvas
dadas por f (x, y) = c, com c uma constante real.
No caso c = 0, teremos f (x, y) = 0, ou seja, y′ = 0: são os pontos onde vetores do campo
de direções são horizontais, assim como a curva f (x, y) = 1 contém os pontos onde o vetor
tangente aponta na direção do vetor (1, 1). Como usar a informação das isóclinas para desenhar
o campo de direções?
Exercício 1.22. Construa o campo de direções e algumas isóclinas de y′ = y(x − y).
1.4 Ferramentas computacionais
Já que indiretamente começamos a falar sobre uso de ferramentas computacionais na seção
anterior, plotando campos de direções, é hora de termos uma conversa franca sobre equações
diferenciais e computadores.
Em alguns dias, aprenderemos a resolver o PVI y′′′ − 3y′ + 2y = ex cos(x), y(0) = 1, y′(0) =
2, y′′(0) = 3 e encontraremos a solução
y(x) =
1
30
e−2x
(
30e3xx + 40e3x − 3e3x sin(x)− 9e3x cos(x)− 1
)
.
Apesar do método ser simples (equações lineares com coeficientes constantes, mesmo no caso
não-homogêneo, admitem soluções fechadas), não é algo tão trivial. Se estivesse numa prova,
você poderia facilmente errar.
No Mathematica, o comando
DSolve[{y’’’[x] - 3 y’[x] + 2 y[x] == Exp[x]*Cos[x], y[0] == 1,
y’[0] == 2, y’’[0] == 3}, y, x]
nos dá a solução do PVI em menos que um segundo. Podemos ainda plotar o gráfico desta
função com o comando
Plot[Evaluate[
y[x] /. DSolve[{y’’’[x] - 3 y’[x] + 2 y[x] == Exp[x]*Cos[x],
y[0] == 1, y’[0] == 2, y’’[0] == 3}, y, x]], {x, -3, 3}]
O comando DSolve resolve de forma algébrica/analítica tanto EDOs quanto PVIs nos casos
em que uma solução fechada pode ser obtida. Para equações que não admitem soluções explí-
citas, o comando NDSolve utiliza métodos numéricos para obter aproximações das soluções. Se
o objetivo é fazer o gráfico da solução, o NDSolve é mais rápido e mais eficiente do que o DSolve:
13
-3 -2 -1 1 2 3
-10
10
20
30
40
50
Figura 3: Gráfico da solução do PVI.
Plot[Evaluate[
y[x] /. NDSolve[{y’’’[x] - 3 y’[x] + 2 y[x] == Exp[x]*Cos[x],
y[0] == 1, y’[0] == 2, y’’[0] == 3}, y, {x, -5, 5}]], {x, -3, 3}]
As sintaxes básicas são:
• DSolve[equacao, condicoes iniciais, y, x]: retorna a solução da equação, onde y =
y(x).
• NDSolve[equacao, condicoes iniciais, y, x,a,b]: retorna a aproximação numérica
da solução da equação, onde y = y(x) e [a, b] é o domínio desejado.
No caso do uso do NDSolve para calcular uma solução numérica para y(x), para obter o
valor de y(c) deve-se usar
y[c] /. NDSolve[{equacao, condicoes iniciais}, y, {x,a,b}]
O campo de direções de uma equação y = f (x, y) pode ser plotado com o StreamPlot. Por
exemplo, o campo de direções de y′ =x − y2 pode ser obtido com o comando
VectorPlot[{1, x - y^2}, {x, -1, 1}, {y, -1, 1}].
Outra opção, que gera gráficos melhores que o VectorPlot, é o StreamPlot, que mostra as
“linhas de fluxo”, que são mais ou menos aproximações para curvas integrais.
Isto posto, agora conhecemos ferramentas computacionais que conseguem encontrar solu-
ções, aproximar soluções numericamente, plotar gráficos, soluções, etc. Não vamos ignorá-las,
mas precisamos seguir com a parte matemática do curso. O fato do Mathematica resolver as
EDOs não significa que você não precise saber resolvê-las “na mão” – mas significa sim que é
uma boa ideia você saber utilizar o Mathematica (ou Python, ou outra ferramenta computacio-
nal). Não vamos nos alongar nesta discussão sobre “se o computador faz tudo, por qual motivo eu
preciso estudar isto?”.
Exemplo 1.23. Vamos retomar o Exemplo 1.20 e exibir uma solução da EDO junto como campo
de direções. Lembre-se que a EDO é y′ = 1 − xy. Vamos agora calcular numericamente uma
solução e mostrá-la junto com o campo de direções obtido anteriormente. Na Figura 5, desta-
camos a solução com condição inicial y(−1) = −0.75:
◁
14
-1.0 -0.5 0.0 0.5 1.0
-1.0
-0.5
0.0
0.5
1.0
-1.0 -0.5 0.0 0.5 1.0
-1.0
-0.5
0.0
0.5
1.0
Figura 4: Resultado do VectorPlot, à esquerda, e do StreamPlot, à direita, para construir o
campo de direções de y′ = x − y2 (na verdade, o campo de direções é o da esquerda).
Figura 5: Campo de direções de
dy
dx
= 1 − xy juntamente com solução com condição inicial
y(−1) = −0.75.
Exemplo 1.24. Vamos exibir algumas isóclinas, o campo de direções de y′ = xy e a solução que
passa pelo ponto (0, 1/2) usando o Mathematica. Para isto, é só usar o comando
Show[
ContourPlot[x*y, {x, -2, 2}, {y, -2, 2}, ContourShading -> None,
Contours -> 20],
VectorPlot[{1, x*y}, {x, -2, 2}, {y, -2, 2}],
Plot[Evaluate[
y[x] /. NDSolve[{y’[x] == x*y[x], y[0] == 1/2},
y, {x, -2, 2}]], {x, -2, 2}, PlotStyle -> {Red, Thick}]]
e o resultado pode ser visto na Figura 6.
◁
1.5 Existência e unicidade de soluções para EDOs
Encontrar a solução y(x) do PVI
{
y′(x) = f (x, y),
y(x0) = y0
(2)
15
-2 -1 0 1 2
-2
-1
0
1
2
Figura 6: Campo de direções (colorido), isóclinas (preto) e solução (vermelho) do PVI y′ = xy ,
y(0) = 1/2.
significa encontrar uma função y(x) que satisfaça ao sistema (2), ou seja, de modo que
y′(x) = f (x, y(x))
e y(x0) = y0. A solução será da forma
y(x) = y0 +
∫ x
x0
f (s, y(s)) ds,
para x num certo intervalo I contendo x0, mas nem sempre será fácil encontrar explicitamente
tal solução.
Seja C um conjunto de funções (que iremos definir melhor a frente) e considere a aplicação
L : C → C que associa a cada função y ∈ C uma função L(y) ∈ C dada por
L(y)(x) = y0 +
∫ x
x0
f (s, y(s)) ds.
Uma função como L é chamada de operador diferencial (já vamos um pouco sobre operado-
res). Lembre-se que um ponto fixo de uma função g(x) é um valor x0 que satisfaz g(x0) = x0.
Note que
y(x) resolve o PVI
{
y′(x) = f (x, y),
y(x0) = y0
⇔ a função y é ponto fixo de L,
pois
L(y) = y ⇔ y(x) = y0 +
∫ x
x0
f (s, y(s)) ds,
que, como vimos, é a solução de (2).
Portanto, mostrar que uma EDO tem uma solução é equivalente a mostrar que um certo ope-
rador linear tem um ponto fixo. Como garantir a existência de um ponto fixo para o operador
L?
16
Teorema 1.25 (Teorema do Ponto Fixo de Banach). Seja (M, d) um espaço métrico completo e seja
f : M → M uma contração, ou seja, existe uma constante 0 ≤ kde condições iniciais seria x1(0) = α1, . . . , xn(0) = αn, onde αj ∈ R.
18
Exemplo 1.29. Vamos encontrar uma solução para o PVI



x′(t) = −2x(t),
y′(t) = 3y(t),
x(0) = 1, y(0) = 5.
Este é um exemplo de sistema “desacoplado”, ou seja, uma equação do sistema não depende
das outras. Portanto, podemos resolver separadamente cada uma delas. A primeira equação
tem como solução x(t) = c1e−2t. Como x(0) = 1, temos que 1 = x(0) = c1, e daí c1 = 1. A
segunda equação tem como solução y(t) = c2e3t. Como y(0) = 5, temos que 5 = y(0) = c2,
logo c2 = 5 e daí a solução do PVI é x(t) = e−2t e y(t) = 5e3t. ◁
Exemplo 1.30. Vamos encontrar uma solução para o sistema de EDOs
{
x′(t) = −y(t),
y′(t) = x(t).
Agora precisamos encontrar duas funções, x(t) e y(t), com a propriedade de que a derivada
de x é −y e a derivada de y é x. Uma possibilidade, que você deve se lembrar do Cálculo
I, é tomar x(t) = cos(t) e y(t) = sen (t). Pode-se mostrar que a solução geral deste sistema
é x(t) = a cos(t) − bsen (t), y(t) = bsen (t) + a cos(t). Dadas condições iniciais x(0), y(0),
podemos encontrar a, b para obter a solução do PVI. ◁
Note que a solução de um sistema de equações diferenciais pode ser entendida como uma
curva parametrizada. Vejamos o caso da solução obtida no Exemplo 1.29. Se escrevermos
α(t) = (x(t), y(t)) = (e−2t, 5e3t), teremos uma curva α tal que α(0) = (1, 5), que é exatamente
a condição inicial do PVI. No caso de sistemas autônomos, ou seja, quando o lado direito das
equações não depende explicitamente de t, esta curva é chamada de trajetória do sistema. En-
tão a curva α(t) é a trajetória que passa pelo ponto (1, 5). Além disto, se pensamos no sistema
de equações como definindo um campo vetorial, este campo será tangente às soluções da equa-
ção5.
O Teorema de Existência e Unicidade também vale aqui, e nos garante que para cada con-
dição inicial temos uma única solução. Portanto, o domínio da equação (neste caso, R2) fica
folheado por trajetórias da equação. O conjunto de todas as trajetórias é chamado de retrato de
fase do sistema de equações diferenciais. É comum chamarmos de retrato de fase uma repre-
sentação gráfica com várias trajetórias, como na Figura 7.
Com o retrato de fase, conseguimos perceber que as soluções do sistema do Exemplo 1.30
são periódicas6 (curvas fechadas7), enquanto nenhuma solução do sistema do Exemplo 1.29
parece ser periódica. Determinar se um sistema tem ou não soluções periódicas é um problema
importante dentro da teoria das equações diferenciais. Os exemplos anteriores são especiais no
seguinte sentido: as equações permitem soluções explícitas. No caso de não termos soluções
explícitas, pode ser complicado determinar a existência ou não de soluções periódicas para
equações diferenciais – ou seja, vamos querer determinar a existência de soluções periódicas
sem que a gente consiga de fato resolver o sistema. Surpreendentemente, isto pode ser feito.
5Verifique isto no sistema do Exemplo 1.30.
6Com exceção da solução (0, 0). Verifique que este ponto é uma solução da EDO!
7Pense um pouco sobre esta relação: soluções periódicas e curvas fechadas no retrato de fase.
19
-2 -1 1 2
-2
-1
1
2
-2 -1 1 2
-2
-1
1
2
Figura 7: Retratos de fase dos sistemas dos Exemplos 1.29 e 1.30. Cada curva é uma solução do
sistema de equações (ou seja, cada curva é solução de um determinado PVI).
Exemplo 1.31 (Equação de van der Pol). A equação diferencial x′′ − µ(1 − x2)x′ + x = 0 é
chamada de equação de van der Pol. Transformando esta equação num sistema e colocando
µ = 1, ficamos com {
u′ = v,
v′ = −u + (1 − u2)v. (7)
Esta equação admite uma única solução periódica, mas não conseguimos exibir uma para-
metrização para a solução8. Ou seja: não podemos obter a solução de forma explícita.
Na Figura 8, a curva vermelha é uma aproximação para a solução periódica de van der Pol.
As soluções “internas” se aproximam da curva vermelha, e o mesmo acontece com as soluções
“externas”. A curva vermelha é um típico exemplo de algo que se chama ciclo limite atrator.
-2 -1 1 2
-2
-1
1
2
Figura 8: Solução periódica da equação de van der Pol (7).
◁
Exemplo 1.32 (Uma boa hora para revisar o Teorema de Green). Aproveitando que estamos
falando sobre órbitas periódicas, considere a equação
u′′(t) + u(t) = 2u′(t). (8)
Será que ela tem alguma solução periódica?
8Tente usar o Mathematica para resolver analiticamente esta equação!
20
Vamos usar o truque de transformar essa equação de segunda ordem num sistema de equa-
ções de primeira ordem. Para isso, fazemos o seguinte: seja u(t) uma solução de equação (8).
Denote v(t) = u′(t). Então v′(t) = u′′(t). Como u(t) é solução de (8), temos que
v′(t) = u′′(t) = 2u′(t)− u(t) = 2v(t)− u(t)
e obtemos o sistema {
u′(t) = v(t),
v′(t) = 2v(t)− u(t). (9)
Suponha que exista uma solução α(t) = (u(t), v(t)) para o sistema (9) que seja T-periódica.
Seja R a região limitada cuja fronteira é a curva α. Então
∮
α
(v,−u + 2v) · n ds =
∮
α
v dv − (2v − u) du,
mas a integral da esquerda precisa ser zero, já que o campo (v,−u + 2v) é tangente à curva α e
o campo vetorial n, sendo normal a α, será normal também a (v,−u + 2v). Por outro lado, pelo
Teorema de Green, ∮
α
v dv − (2v − u)du =
∫∫
R
2 du dv.
Temos então ∫∫
R
2 du dv = 0,
o que é um absurdo, pois essa integral não pode dar zero (ela calcula uma área). De onde vem
o absurdo? De termos suposto que existe a curva α, solução periódica! Logo, a equação inicial
não tem soluções periódicas. ◁
1.7 O fluxo de uma EDO autônoma
Vamos trabalhar em dimensão 2 só por simplicidade. Considere uma EDO autônoma
{
ẋ1 = f (x1, x2)
ẋ2 = g(x1, x2).
(10)
Perceba que as funções f , g dependem somente as variáveis x1, x2, e não de t (é um sistema
autônomo). Entretanto, é claro que x1, x2 são funções de t, então poderíamos escrever o sistema
anterior, de forma mais explícita, como
{
x′1(t) = f (x1(t), x2(t))
x′2(t) = g(x1(t), x2(t)).
Vamos supor que f , g estão definidas em um aberto U ⊂ R2 e que o domínio para t é todo
o R (esta hipótese é forte). O fluxo da equação (10) é a aplicação φ : R × U → R2 tal que
φ(t, (a, b)) é solução do PVI 


ẋ1 = f (x1, x2)
ẋ2 = g(x1, x2),
x1(0) = a, x2(0) = b.
21
Figura 9: O fluxo leva o ponto α(0) = (a, b) (azul) no ponto α(s) (vermelho).
Ou seja, o valor φ(s, (a, b)) é obtido assim: considere a (única) solução α(t) de (10) que passa
pelo ponto (a, b) quando t = 0 (α(0) = (a, b)) e defina φ(s, (a, b)) = α(s) (veja a Figura 9).
O fluxo satisfaz duas propriedades importantes: φ(0, (a, b)) = (a, b) e φ(t + s, (a, b)) =
φ(t, φ(s, (a, b))). Ou seja, o fluxo é uma ação de grupo (ação do grupo dos reais no domínio da
equação diferencial). Para cada t fixado, o fluxo é um difeomorfismo.
Muitas vezes denotaremos o fluxo por φt(a, b) = φ(t, (a, b)).
Exercício 1.33. Seja φt(a, b) o fluxo de ẋ = −y, ẏ = x. Mostre que para t = θ ∈ [0, 2π) fixado, o
fluxo é uma rotação de θ graus.
1.8 Modelagem matemática e aplicações
Equações diferenciais são muito eficientes para modelar fenômenos físicos. Não veremos o as-
sunto com profundidade neste curso, mas faremos alguns exemplos e já vamos começar agora.
Você pode ver mais detalhes sobre os exemplos abaixo nas referências [7], [1] e [8].
Exemplo 1.34 (Modelo de Malthus). Um dos campos onde a modelagem por equações diferen-
ciais tem tido grande sucesso é no estudo de dinâmica de populações. Seja p(t) a população
num certo local num tempo t. É de interesse entender o comportamento da função p(t), prin-
cipalmente quando t → ∞. Uma hipótese que parece razoável é que a população aumenta de
forma proporcional à população atual, com alguma constante de proporcionalidade λ, ou seja,
ṗ = λp. Considerando que existe uma população inicial p(t0) = p0, então uma solução para o
PVI é p(t) = p0eλ(t−t0). Se fizermos t → ∞, temos que p(t) → ∞, o que não é razoável (já que a
população naturalmente perde alguns indivíduos). ◁
Exemplo 1.35 (Modelo de Verhulst). Um dos problemas do modelo de Malthus é que ele supõe
que a populaçãoaumenta de forma constante λ. Isto não acontece com vários tipos de popula-
ções, por exemplo por questões de disponibilidade de alimento. Então, a população joga contra
ela mesma. Verhulst propôs que a constante do modelo de Malthus fosse trocada por um termo
não-constante, λ = a − bp(t), onde a, b > 0 dependem da população. Assim, a equação di-
ferencial fica p′ = (a − bp)p. A solução desta equação, com uma condição inicial p(t0) = p0,
é
p(t) =
ap0
bp0 + (a − bp0)e−a(t−t0)
.
Neste caso, se t → ∞, então p(t) → a/b, ou seja, temos uma população de equilíbrio – e isto
acontece mesmo se a população inicial for superior a a/b, ou seja, o equilíbrio funciona tanto
aumentando quanto reduzindo a população. ◁
Exemplo 1.36. O espalhamento de uma doença contagiosa pode ser modelado usando equações
diferenciais. Durante a pandemia de Covid-19, modelos adaptados do modelo SIR foram muito
22
utilizados para prever os próximos passos da pandemia. Um modelo mais simples é seguinte.
Considere uma doença viral que se espalha numa população. Suponha que uma população com
n indivíduos se divide em dois grupos: os que contraíram a doença e os que ainda não foram
expostos ao vírus (esta é uma simplificação da realidade, pois na maioria dos casos existem
pessoas que foram expostas e não contraíram).
Seja x(t) a quantidade de pessoas que já contraíram a doença passado um tempo t e y(t) a
quantidade de pessoas que ainda não foram expostas ao vírus. Para sabermos se a quantidade
de pessoas contaminadas está aumentando ou diminuindo, precisamos estudar x′(t). É razoá-
vel supor que x′(t) será proporcional a x(t) (quanto mais gente contaminada, mais fácil será um
não contaminado encontrar com alguém contaminado) e também a y(t) (pois com mais pessoas
disponíveis para “serem contaminadas”, fica mais fácil contaminar alguém). Assim, x′(t) é pro-
porcional ao produto x(t)y(t), ou seja, temos a equação x′(t) = kx(t)y(t), onde k é um parâme-
tro que depende da situação específica. Como também temos que x(t) + y(t) = n, obtemos a
relação x′ = kx(n − x). Uma condição inicial pode ser x(0) = 1 (no começo temos somente um
indivíduo infectado). Assim, uma solução para a equação é x(t) = nent/
(
ent + n − 1
)
. Note
que, se t → ∞, então x(t) → n, ou seja, toda a população será infectada.
◁
23
2 Equações diferenciais lineares de primeira ordem
Neste capítulo vamos começar a resolver nossas primeiras equações diferenciais: as equações
diferenciais lineares com coeficientes constantes. Veremos um método bastante poderoso para
lidar com essas equações que também servirá em situações mais gerais.
Aprenderemos também que a notação de Leibniz é muito poderosa, e terminaremos o capí-
tulo fazendo aquilo que sempre nos falaram para não fazer.
2.1 Equações com coeficientes constantes
Vamos focar inicialmente em equações da forma
y′(t) + ay(t) = b. (11)
em que a, b são números reais. Essas equações são lineares e tem coeficientes constantes. Note
que se b = 0 então a solução nula y(t) ≡ 0 resolve (11). Como encontrar as soluções não-
triviais?
Depois de algum tempo olhando para essas equações, você vai começar a pensar em coisas
como: “se o lado esquerdo de (11) pudesse ser colocado no formato (µ(t) · y(t))′ para alguma função
µ(t), então eu conseguiria resolver essa equação.”
Faz sentido: se a equação fosse da forma
(
µ(t) · y(t)
)′
= g(t)
então poderíamos resolvê-la usando o Teorema Fundamental do Cálculo, obtendo
µ(t) · y(t) =
∫
g(t) dt
e daí
y(t) =
1
µ(t)
∫
g(t) dt.
Observação 2.1. Você deve entender o argumento/construção acima!
Bom, podemos tentar arrumar o lado esquerdo de (11) multiplicando por µ(t), onde µ(t) é
uma função a ser definida. A equação se transformará em
µ(t)y′(t) + aµ(t)y(t) = bµ(t).
Mas esse não é nosso objetivo: queremos que o lado esquerdo seja da forma
(
µ(t)y(t)
)′
= µ(t)y′(t) + µ′(t)y(t)
e ele ficou
µ(t)y′(t) + aµ(t)y(t).
Como resolver o problema? Ora, precisamos escolher µ(t) satisfazendo
aµ(t) = µ′(t).
24
Relembrando um pouco o que aprendemos sobre derivadas, chegamos em
µ(t) = keat.
Assim, ficamos com
(µ(t)y(t))′ = bµ(t),
o que implica em
(keaty(t))′ = bkeat.
Agora podemos resolver a equação anterior usando o Teorema Fundamental do Cálculo e
obter
y(t) =
bk
keat
∫
eat dt =
b
eat
(
eat
a
+ c
)
=
b
a
− bc e−at
que é a solução da EDO acima. A função µ(t) é chamada de fator integrante, pois ela permite
que a equação diferencial seja integrada.
Observação 2.2. Note que, na construção anterior, a constante k não foi importante - por isso
não usaremos mais constantes de integração ao construir fatores integrantes.
Passo a passo para encontrar a solução:
1. Comece com a equação
y′(t) + ay(t) = b. (12)
2. Para tentar colocar o lado esquerdo de (12) na forma (µ(t)y(t))′, multiplicamos a equação
toda por uma função µ(t) (chamada de fator integrante), obtendo
µ(t)y′(t) + aµ(t)y(t) = bµ(t).
3. Comparando os termos, precisamos que µ′(t) = aµ(t), ou seja, µ(t) = eat.
4. A equação então fica
eaty′(t) + aeaty(t) = beat,
que pode ser escrita como (
eaty(t)
)′
= beat,
o que integrando dá
eaty(t) = b
∫
eat dt + c.
5. Finalmente chegamos em
y(t) =
1
eat b
∫
eat dt +
c
eat ,
e resolvendo a integral obtemos
y(t) =
b
a
+
c
eat ,
onde c é a constante de integração.
6. Se for um PVI, aplicando a condição y(x0) = y0 obteremos o valor específico de c.
25
A solução geral de y′(t) + ay(t) = b é
y(t) =
b
a
+
c
eat , c ∈ R,
e pode ser obtida multiplicando a equação pelo fator integrante µ(t) = eat.
Exemplo 2.3. Vamos resolver a equação diferencial y′ = 2y− 3. Multiplicando-a por µ(t), temos
µ(t)y′(t)− 2µ(t)y(t) = −3µ(t).
Queremos que o lado esquerdo seja
(µ(t)y(t))′ = µ(t)y′(t) + µ′(t)y(t).
Portanto, devemos escolher µ(t) tal que
µ′(t) = −2µ(t).
Uma escolha possível é µ(t) = e−2t. Portanto teremos (µ(t)y(t))′ = −3µ(t) ou
y(t) = − 3
µ(t)
∫
µ(t) dt.
Substituindo µ(t) = e−2t teremos
y(t) = − 3
e−2t
∫
e−2t dt = − 3
e−2t
∫
e−2t dt
Resolvendo a integral teremos
y(t) = − 3
e−2t
(
−1
2
e−2t + c
)
=
3
2
− 3c e2t
Note que y(0) =
3
2
− 3c. ◁
Exemplo 2.4. Vamos resolver o PVI y′ = 7y + 1, y(0) = 1. Multiplicando a equação por µ(t)
ficamos com
µ(t)y′(t)− 7µ(t)y(t) = µ(t).
Gostaríamos que fosse algo do tipo
µ(t)y′(t) + µ′(t)y(t) = µ(t),
então vamos escolher µ′(t) = −7µ(t), o que implica µ(t) = e−7t.
Assim a equação fica
e−7ty′(t)− 7e−7ty(t) = e−7t,
que pode ser escrita como (
e−7ty(t)
)′
= e−7t.
26
Integrando e fazendo as devidas algebrizações, obtemos a solução geral da equação:
y(t) = −1
7
+
c
e−7t , c ∈ R.
Aplicando a condição inicial y(0) = 1 ficamos com
1 = y(0) = −1
7
+ c,
o que nos dá c = 8/7. Logo a solução do PVI (solução particular) é
y(t) = −1
7
+
8
7e−7t .
◁
Exercício 2.5. Resolva o PVI y′ + 5y − 2 = 0, y(0) = 2.
2.2 EDOs lineares de primeira ordem com coeficientes variáveis
Vamos agora estudar equações da forma
y′(t) + p(t)y(t) = g(t), (13)
onde p(t), g(t) são funções “boas”. A técnica será a mesma de antes, multiplicar por um fator
integrante que nos permita utilizar o Teorema Fundamental do Cálculo.
Multiplicando a equação (13) por uma função µ(t) ficamos com
µ(t)y′(t) + p(t)µ(t)y(t) = µ(t)g(t). (14)
Queremos que o lado esquerdo seja da forma
(
µ(t)y(t)
)′
= µ(t)y′(t) + µ′(t)y(t)
para poder usar o TFC, então precisaremos escolher µ(t) com
µ′(t) = p(t)µ(t).
Assim, teremos
µ′(t)
µ(t)
= p(t)
nos pontos em que µ(t) ̸= 0. Integrando, obtemos
ln µ(t) =
∫
p(t) dt,
ou
µ(t) = exp
(∫
p(t) dt
)
,
e este é nosso fator integrante.
27
Com esta escolha de µ(t), a equação (14) pode ser escrita como
(
µ(t)y(t)
)′
= µ(t)g(t),
e daí integrando dos dois lados obtemos
µ(t)y(t) =
∫
µ(t)g(t) dt + c.
Isolando y(t) nos dá9
y(t) =
1
µ(t)
∫
µ(t)g(t) dt +
c
µ(t)
= exp
(
−
∫
p(t) dt
)
·
∫ [
g(t) · exp
(∫
p(t) dt
)]
dt + c exp
(
−
∫
p(t) dt
)
que é a solução geral de (13).
A solução geral de y′(t) + p(t)y(t) = g(t) é
y(t) = exp
(
−
∫
p(t) dt
)
·
∫ [
g(t) · exp
(∫
p(t) dt
)]
dt + c exp
(
−
∫
p(t) dt)
.
Exemplo 2.6. Vamos resolver a equação diferencial y′+ 2xy = x. Essa é uma equação diferencial
linear de 1a ordem! Multiplicando por µ(x) temos
µ(x)y′(x) + 2µ(x)xy(x) = µ(x)x.
Se fosse (
µ(x)y(x)
)′
= µ(x)y′(x) + µ′(x)y(x)
teríamos µ′(x) = 2µ(x)x, portanto devemos escolher µ(x) = ex2
. Fica como exercício terminar
as contas. ◁
Exercício 2.7. Resolva o PVI y′ = xy, y(0) = 1 e compare com o que você fez no Exercício 1.24.
Exemplo 2.8. Resolva o PVI y′ + 3y = cos(t) com condição inicial y(0) = 1.
Multiplicando por µ(t) temos
µ(t)y′(t) + 3µ(t)y(t) = cos(t)µ(t).
Para que seja
µ(t)y′(t) + µ′(t)y(t) = cos(t)µ(t)
devemos escolher µ′(t) = 3µ(t), ou seja, µ(t) = e3t. A equação então fica
e3ty′(t) + 3e3ty(t) = cos(t)e3t.
9Conselho: nem pense em decorar esta fórmula. O método é mais importante.
28
Simplificando temos (
e3ty(t)
)′
= cos(t)e3t.
Com mais algum algebrismo:
y(t) =
3 cos(t) + sen (t)
10
+
c
e3t .
Agora usando a condição inicial:
1 = y(0) =
3 cos(0) + sen (0)
10
+
c
e0 =
3
10
+ c ⇒ c =
7
10
.
Portanto, a solução10 do PVI é:
y(t) =
3 cos(t) + sen (t) +
7
10e3t
10
.
◁
Exercício 2.9. Resolva o PVI y′ +
y
x
= sin(x), y(π) = 1.
2.3 Equações de Bernoulli
Algumas EDOs não estão no formato que estudamos nas seções anteriores, mas podem ser
reduzidas a uma delas. É o caso das equações de Bernoulli
y′(t) + P(t)y(t) = Q(t)yn(t), (15)
que, de certa forma, generalizam as equações anteriores. Em particular, são equações não-
lineares.
A estratégia para resolver estas equações é eliminar o termo yn e transformar essa equação
numa equação de primeira ordem com coeficientes variáveis. Primeiro dividimos a equação
(15) por yn para eliminar a não-linearidade em y do lado direito, obtendo
y−n(t)y′(t) + P(t)y1−n(t) = Q(t).
Agora fazermos a mudança de variáveis w(t) = y1−n(t), que implica em
w′(t) = (1 − n)y−n(t)y′(t),
e daí substituindo na equação (15) temos
1
1 − n
w′(t) + P(t)w(t) = Q(t).
Deste ponto em diante, podemos usar fatores integrantes e obter a solução.
10Que tal testar se esta função satisfaz mesmo y′ + 3y = cos(t)?
29
Observação 2.10. Podemos estabelecer um “passo a passo” para resolver a Equação de Ber-
noulli y′ + P(x)y = Q(x)yn. Para n = 0 ou n = 1, sabemos o que fazer, pois a equação se reduz
a uma EDO linear de primeira ordem. Já para n ≥ 2:
• multiplique a equação por y−n: y−ny′ + P(x)y1−n = Q(x),
• faça a mudança de variáveis w = y1−n, w′ = (1 − n)y−ny′,
• ficamos com
1
1 − n
w′ + P(x)w = Q(x).
Exemplo 2.11. Vamos resolver o PVI 6y′ − 2y = xy4, y(0) = −2. Primeiro escrevemos a EDO
“isolando” o y:
6y−4y′ − 2y−3 = x.
Agora seja v = y−3. Assim, v′ = −3y−4y′. Substituindo na equação diferencial, temos
−2v′ − 2v = x,
ou seja,
v′ + v = −1
2
x.
Agora temos uma EDO de primeira ordem. O fator integrante é µ(x) = ex. Resolvendo a
equação, temos
v(x) = −1
2
(x − 1) + ce−x.
Voltando para y, temos
y−3 − 1
2
(x − 1) + ce−x.
Usando a condição inicial, temos que c = −5/8. Portanto, a solução é
y = − 2
(4x − 4 + 5e−x)1/3 .
◁
Exercício 2.12. Resolva a EDO y′ + xy = xy2.
Exercício 2.13. Resolva a EDO y′+ y = cos(t)y2 e obtenha a solução y(t) =
2
2cet + cos(t)− sen (t)
.
2.4 Equações separáveis: modo ingênuo
Começaremos agora a aprender a resolver um segundo tipo de equações diferenciais de pri-
meira ordem: as separáveis. Nas próximas seções veremos mais detalhes sobre isto, mas aqui
vai algo para vocês pensarem.
Observação 2.14. Atenção, use a técnica abaixo com muita moderação! Material altamente
explosivo.
30
Considere uma equação diferencial da forma y′ = f (x)g(y), onde f , g são funções “boas”.
Vamos cometer uma insanidade e “multiplicar cruzado” os diferenciais:
dy
g(y)
= f (x) dx.
Colocando símbolos de integrais em ambos os lados, ficamos com
∫ dy
g(y)
=
∫
f (x) dx.
Podemos agora resolver essas integrais, e faremos isso no exemplo a seguir.
Exemplo 2.15. Vamos resolver a equação diferencial
dy
dx
= xey. Primeiro “multiplique” os dife-
renciais e obtenha
dy
ey = x dx.
Agora integre em ambos os lados: ∫ dy
ey =
∫
x dx.
Resolvendo as integrais, teremos:
−e−y =
x2
2
+ c.
Portanto
y = − ln
(
x2
2
+ c
)
.
Note que esta função de fato é uma solução para a EDO inicial! ◁
Que fique claro: precisamos formalizar isto. Não saia por aí multiplicando diferenciais sem
supervisão de um adulto com doutorado em matemática. No próximo capítulo falaremos sobre
formas diferenciais, para poder fazer isso de forma “profissional”. Outra possibilidade é pular
direto para o Capítulo 4: as equações separáveis são um caso particular das equações exatas,
que será o foco do capítulo.
31
3 Formas diferenciais
Um espírito matemático aceitará o formalismo,
e tirará vantagens dos procedimentos formais se entender o seu sentido correto
e sentir que todos eles podem ser justificados.
– Djairo G. de Figueiredo & Aloisio Neves
Em algum sentido, esse capítulo é opcional. O conteúdo dele é bastante denso, e no fim
conseguiremos um “atalho” para tratar equações exatas e equações separáveis. Mesmo assim,
recomendo que o leia. Compreendê-lo é uma espécie de “licença para multiplicar diferenciais”,
ou quase isso.
3.1 Campos vetoriais e formas diferenciais
Um campo vetorial em Rn é uma aplicação F : Ω ⊂ Rn → Rn, onde Ω é um conjunto aberto.
Uma ideia geométrica para isto é colocar em cada ponto x ∈ Rn, o vetor F(x).
Exemplo 3.1. Se F : Ω ⊂ R2 → R2 é uma função diferenciável, então o gradiente de F
∇F(x, y) = (Fx(x, y), Fy(x, y))
é um campo vetorial. ◁
Dizemos que um campo vetorial F : Ω ⊂ Rn → Rn é um campo gradiente se F = ∇G para
alguma função G.
A função G, neste caso, é chamada de potencial do campo F.
Exemplo 3.2. Para determinar se o campo
F(x, y) = (P(x, y), Q(x, y))
é um campo gradiente, ou seja, se
F(x, y) = ∇G(x, y)
para alguma função G(x, y), devemos estudar a existência de uma função diferenciável G(x, y)
tal que
P(x, y) = Gx(x, y), Q(x, y) = Gy(x, y).
◁
Podemos decidir se um campo é campo gradiente sem necessariamente ter que achar o
potencial. Por exemplo, das relações
P = Gx, Q = Gy,
caso o campo seja C2, deduzimos que Py = Qx (Teorema de Clairaut-Schwarz).
Um campo vetorial que satisfaz a estas condições é dito ser um campo fechado.
Observação 3.3. Você deve se lembrar dessas coisas do Cálculo II e, se não lembrar, é uma boa
hora para reler suas notas de aula.
32
Usaremos o conteúdo desse capítulo para estudar duas classes de equações diferenciais: as
da forma
y′ =
f (x)
g(y)
e as da forma
N(x, y)y′ + M(x, y) = 0.
Sendo bastante displicente com a notação y′ = dy/dx, podemos reescrever estas equações
nas formas
g(y)dy = f (x)dx
e
M(x, y)dx + N(x, y)dy = 0.
Você vai entender melhor o motivo pelo qual fazemos essa atrocidade se ler as próximas
seções. É importante observar que, apesar de parecer bastante, não estamos “multiplicando”
diferenciais como se fosse frações. Você perceberá que Leibniz era um cara esperto e introduziu
uma notação bem poderosa.
3.2 Formas lineares
Uma forma linear (ou funcional linear) em R2 é uma função L : R2 → R tal que
L(aα + bβ) = aL(α) + bL(β),
onde a, b ∈ R e α, β ∈ R2.
Note que uma forma linear fica definida se soubermos seu valor numa base {e1, e2} de R2,
pois se u = ae1 + be2 então
L(u) = aL(e1) + bL(e2).
Exemplo 3.4. A aplicação L : R2 → R dada por L(α1, α2) = 3α1 − 2α2 é uma forma linear. ◁
Defina duas formas lineares e1, e2 declarando que
e1(e1) = 1, e1(e2) = 0, e2(e1) = 0, e2(e2) = 1.
Note que toda forma linear L pode ser escrita como
L = ae1 + be2,
para certos valores de a, b (que são exatamente os valores desta forma em e1 e e2).
Exemplo 3.5. A forma L(α1, α2) = 3α1 − 2α2 pode ser decomposta como
L(α1, α2) = 3e1(α1, α2)− 2e2(α1, α2).
◁
O conjunto das formas lineares em R2 é um espaço vetorial de dimensão 2, chamado de
espaço dual de R2 e denotado por (R2)∗. Os elementos de (R2)∗ são chamados de covetores.
Os covetores e1 e e2 que definimos antes formam uma base de (R2)∗.
Note que ei(ej) = δij, ou seja, a base {e1, e2} não precisa ser a canônica.Observação 3.6. Você já deve ter percebido que tudo isto se generaliza facilmente para Rn e
(Rn)∗. Não iremos focar nisso, mas prepare-se para estudar essas coisas no curso de Álgebra
Linear Avançada.
33
3.3 Formas diferenciais em R2
Seja Ω um aberto de R2. Uma 1-forma diferencial (ou só forma diferencial) é uma função
ω : Ω ⊂ R2 → (R2)∗.
Assim, se ω é uma forma diferencial, para cada (x, y) ∈ R2,
w(x, y) : R2 → R
é uma forma linear (um funcional linear) e será calculada em (u, v) ∈ R2, ou seja,
ω(x, y)(u, v) ∈ R.
Ora, {e1, e2} é base do espaço vetorial das formas lineares, logo ω(x, y) pode ser escrita
como combinação linear de e1 e e2:
ω(x, y) = ω1(x, y)e1 + ω2(x, y)e2,
onde ω1, ω2 : Ω → R são chamadas de componentes da forma ω. Diremos que ω é de classe
Cr se ω1, ω2 forem.
Observação 3.7. Uma observação muito importante: ω1(x, y) e ω2(x, y) não precisam ser line-
ares, já que ω não é uma forma linear. A “coisa” linear envolvida na história é ω(x, y), que aí
sim é uma forma linear.
Exemplo 3.8. Seja ω : Ω → (R2)∗ dada por
ω : Ω → (R2)∗
(x, y) → ω(x, y) : R2 → R
(α1, α2) → ω(x, y)(α1, α2) = yα1 + xyα2
Lembra da nossa forma linear L(α1, α2) = 3α1 − 2α2?
Note que
ω(−2/3, 3) = L = 3e1 − 2e2.
◁
Vamos definir agora duas formas diferenciais muito importantes e com nomes muito espe-
ciais.
• dx : Ω → (R2)∗ é a forma dx = 1 · e1 + 0 · e2, ou seja,
dx(x, y)(α1, α2) = α1
• dy : Ω → (R2)∗ é a forma dy = 0 · e1 + 1 · e2, ou seja,
dy(x, y)(α1, α2) = α2
34
Assim, se ω é uma forma qualquer, então
ω = ω1dx + ω2dy
para certas funções ω1, ω2.
Observação 3.9. Verifique a afirmação acima, por exemplo trabalhando a afirmação com o
exemplo anterior.
Observação 3.10. É bom lembrar que podemos somar formas componente a componente, e
podemos multiplicar uma forma ω : Ω → (R2)∗ por uma função f : Ω → R multiplicando as
componentes de ω por f .
Se f : Ω → R é uma função diferenciável, definimos a forma diferencial d f por
d f : Ω → (R2)∗
como sendo a forma diferencial cujas componentes são fx e fy, ou seja,
d f (x, y) =
∂ f
∂x
(x, y) dx +
∂ f
∂y
(x, y) dy,
ou
d f = fx dx + fy dy. (16)
Exercício 3.11. Verifique que
• d( f + g) = d f + dg
• d( f g) = f dg + g d f
• d(c) = 0 se c é constante
• d f = 0 implica f constante (se Ω for conexo)
Uma forma diferencial ω : Ω → (R2)∗ é exata se existir f : Ω → R tal que ω = d f . Uma
forma diferencial é fechada se
∂w1
∂y
=
∂w2
∂x
.
Teorema 3.12. Toda forma exata é fechada. A recíproca não é verdadeira.
Teorema 3.13. Se Ω for simplesmente conexo, uma forma ω : Ω → (R2)∗ é exata se, e só se, ela for
fechada.
Observação 3.14. Reflita um pouco sobre isso: Formas exatas estão na imagem do operador d;
formas fechadas estão no núcleo do operador d.
Em termos de integrais, o próximo resultado relaciona formas diferenciais e integrais de
linha.
Teorema 3.15. Uma forma diferencial ω : Ω → (R2)∗ é exata se, e só se,
∫
α
ω = 0
para todos os caminhos fechados α : [a, b] → Ω contidos em Ω, onde
∫
α
ω =
∫ b
a
ω(α(t))α′(t) dt.
35
3.4 Equações envolvendo formas diferenciais
Agora que sabemos alguma coisa sobre formas diferenciais, vamos estudar equações envol-
vendo tais objetos. Como a forma d f envolve derivadas parciais, essas equações envolverão
derivadas de funções.
Se você está pensando que é aí que as equações diferenciais entram na história: bingo! Acer-
tou em cheio. Seja ω = f (x) dx − g(y) dy uma forma diferencial e considere a equação
f (x) dx − g(y) dy = 0.
Note que o lado esquerdo da equação
f (x) dx − g(y) dy = 0
é uma forma diferencial exata e pode ser escrito como dH = 0, onde
H(x, y) =
∫
f (x) dx −
∫
g(y) dy.
De fato, para calcularmos dH usamos a fórmula (16) observamos que
Hx = f (x), Hy = g(y)
e portanto
dH = Hx dx + Hy dy = f (x) dx + g(y) dy.
As soluções desta equação são da forma H(x, y) = constante.
Observação 3.16. As soluções de dH = 0 são curvas da forma H(x, y) = constante, e nem
sempre será possível isolar y ou x nessa equação (serão curvas dadas implicitamente).
Já na equação geral M(x, y) dx + N(x, y) dy = 0, se o lado esquerdo for uma forma exata
dV = 0 devemos ter Vx = M e Vy = N; logo as soluções serão da forma V(x, y) = constante.
Caso a forma diferencial do lado esquerdo de
M(x, y) dx + N(x, y) dy = 0
não seja exata, podemos tentar torná-la exata multiplicando por um fator integrante µ, até que
µ(x, y) M(x, y) dx + µ(x, y) N(x, y) dy
seja uma forma exata. Vamos estudar dois tipos particulares de tais equações: as equações
diferenciais exatas e as equações diferenciais separáveis.
Observação 3.17. Nesse ponto você deve estar pensando: “esse professor está me enganando
com essa história de formas diferenciais. Afinal de contas,
M(x, y) dx + N(x, y) dy = 0
é uma equação diferencial ou uma forma diferencial?”
Pouco tempo atrás, quando falamos (informalmente) sobre sistemas de equações diferen-
ciais, fizemos a associação entre uma equação diferencial e um campo vetorial. A solução,
naquele caso, era uma curva que tinha como campo vetorial tangente a equação diferencial
inicial.
A situação aqui é exatamente a mesma: temos um “campo vetorial” e procuramos uma
curva “integral” desse campo. É exatamente aí que entra a ligação entre equações diferenciais
como a acima e as formas diferenciais.
36
4 Equações separáveis e equações exatas
Neste capítulo estudamos equações diferenciais do tipo
M(x, y) + N(x, y)
dy
dx
= 0.
O caso mais simples é o das equações separáveis, em que M = M(x) e N = N(y). O caso geral,
das equações exatas, também será abordado.
Não faremos uso explícito de formas diferenciais neste capítulo – mas saiba que elas estão
presentes aqui.
4.1 Equações separáveis
Seja g(x) uma função e suponha que o gráfico de y = g(x) esteja contido em uma curva de
nível de uma função V(x, y), ou seja, V(x, g(x)) = c para alguma constante e para x ∈ I ⊂ R.
Derivando esta expressão implicitamente (em x) temos que
Vx(x, g(x)) + Vy(x, g(x))g′(x) = 0.
Portanto, g(x) é solução da equação diferencial
Vx(x, y) + Vy(x, y)y′ = 0.
Vamos usar esta ideia para resolver uma enorme classe de equações diferenciais.
xxx xxx xxx
Considere uma equação diferencial da forma
M(x, y) + N(x, y)
dy
dx
= 0,
com M, N funções de classe C2. Vamos supor que as funções M, N são ainda mais específicas:
M = M(x) só depende de x e N = N(y) só depende de y. Portanto, a equação se escreve como
M(x) + N(y)
dy
dx
= 0. (17)
A equação anterior é chamada de equação separável, pois em termos de formas diferenciais,
ela pode ser escrita como
M(x)dx + N(y)dy
e daí cada diferencial aparece multiplicada somente por funções que dependem daquela variá-
vel (ou seja, pode-se “separar” as variáveis)11.
A equação (17) pode ser escrita como
dy
dx
= −M(x)
N(y)
= 0 (18)
desde que N(y) ̸= 0.
11Equações separáveis são um caso particular das equações exatas. A única razão para o tratamento separado é
pedagógica, graças à história (errada) de “multiplicar diferenciais”.
37
Então, como já vimos no começo da seção, podemos resolver (18) usando um truque sim-
ples. Sejam
F(x) =
∫
M(x) dx e G(y) =
∫
N(y) dy.
Então as soluções y(x) de (18) satisfazem
G(y(x)) = F(x) + constante.
Isto significa que a curva-solução é dada implicitamente pela equação
G(y)− F(x) = c.
De fato: a equação (17) pode ser escrita como
F′(x) + G′(y(x))y′(x) = 0.
Lembrando da derivada da regra da cadeia e integrando a equação anterior, temos que
F(x) + G(y(x)) = c,
onde c é constante. Portanto: se y(x) satisfaz
F(x) + G(y(x)) = c,
então y(x) também satisfaz (17).
Se houver uma condição inicial y(x0) = y0 associada à equação (17), então teremos que
F(x0) + G(y(x0)) = c, ou seja, c = F(x0) + G(y0) e a solução fica
F(x) + G(y(x)) = F(x0) + G(y0).
Passo a passo: Considere a equação diferencial da forma
y′ =
f (x)
g(y)
,
onde g(y) ̸= 0.
• Passando para formas diferenciais, ou multiplicando os diferenciais, podemos reescrever
a equação como
g(y) dy − f (x) dx = 0.
Se você não tiver lido o capítulo anterior, essa equação não significa

Mais conteúdos dessa disciplina