Prévia do material em texto
Notas de aula de Equações Diferenciais Ricardo Miranda Martins IMECC/Unicamp RMiranda@unicamp.br Resumo Estas notas de aula são voltadas para o curso de Cálculo III da Unicamp. Elas não substi- tuem um bom livro de equações diferenciais (veja algumas sugestões na lista de referências bibliográficas). Este texto está em constante modificação, não imprima-o. Se encontrar al- gum erro, por favor me mande um e-mail. Conteúdo 1 Exemplos e definições iniciais 7 1.1 Equações.. diferenciais? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.2 Classificação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.3 Interpretação geométrica da EDO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.4 Ferramentas computacionais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.5 Existência e unicidade de soluções para EDOs . . . . . . . . . . . . . . . . . . . . 15 1.6 Sistemas de equações diferenciais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 1.7 O fluxo de uma EDO autônoma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 1.8 Modelagem matemática e aplicações . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2 Equações diferenciais lineares de primeira ordem 24 2.1 Equações com coeficientes constantes . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.2 EDOs lineares de primeira ordem com coeficientes variáveis . . . . . . . . . . . . 27 2.3 Equações de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.4 Equações separáveis: modo ingênuo . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3 Formas diferenciais 32 3.1 Campos vetoriais e formas diferenciais . . . . . . . . . . . . . . . . . . . . . . . . . 32 3.2 Formas lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 3.3 Formas diferenciais em R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.4 Equações envolvendo formas diferenciais . . . . . . . . . . . . . . . . . . . . . . . 36 1 4 Equações separáveis e equações exatas 37 4.1 Equações separáveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 4.2 Equações exatas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 4.3 Transformando equações não-exatas em equações exatas . . . . . . . . . . . . . . 41 4.4 Redução de ordem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 5 Equações diferenciais lineares de segunda ordem 47 5.1 Existência de soluções . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 5.2 Equações homogêneas de segunda ordem . . . . . . . . . . . . . . . . . . . . . . . 48 5.3 O Wronskiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 5.4 O espaço-solução das equações diferenciais de segunda ordem . . . . . . . . . . . 52 5.5 Equações homogêneas: método das equações características . . . . . . . . . . . . 54 5.6 Equações não-homogêneas: método dos coeficientes a determinar . . . . . . . . . 57 5.7 Equações não-homogêneas: método da variação dos parâmetros . . . . . . . . . . 60 5.8 Equações diferenciais de segunda ordem com coeficientes não-constantes: redu- ção de ordem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 5.9 Em termos de operadores diferenciais . . . . . . . . . . . . . . . . . . . . . . . . . 65 5.10 Equações de ordens superiores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 6 Transformada de Laplace 66 6.1 Motivação e definição da transformada de Laplace . . . . . . . . . . . . . . . . . . 66 6.2 Integrais impróprias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 6.3 Existência da Transformada de Laplace . . . . . . . . . . . . . . . . . . . . . . . . 68 6.4 Transformadas de Laplace e PVIs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 6.5 Método geral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 6.6 Função degrau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 6.7 Transformadas inversas e funções degrau . . . . . . . . . . . . . . . . . . . . . . . 75 6.8 Função impulso e Delta de Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 6.9 O produto de convolução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 7 Sequências e séries numéricas 86 7.1 Relações de equivalência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 7.2 O conjunto dos números reais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 7.3 Sequências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 7.4 Séries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 7.5 Critérios de convergência de séries numéricas . . . . . . . . . . . . . . . . . . . . 99 8 Soluções em séries para equações diferenciais 105 8.1 Polinômios de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 8.2 Séries de Potências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 9 Soluções em séries para EDOs: pontos regulares 112 9.1 Soluções em séries para EDOs: pontos singulares . . . . . . . . . . . . . . . . . . . 116 9.2 Soluções em séries para EDOs: caso singular-regular . . . . . . . . . . . . . . . . . 118 2 10 Séries de Fourier e problemas de valor de contorno 122 10.1 Problemas de valor de contorno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 10.2 Séries de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 10.3 Funções pares e funções ímpares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 11 Equações do calor, da onda e de Laplace 127 11.1 Equação do calor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 11.2 Como resolver a equação do calor? . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 11.3 A equação da onda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 11.4 A equação de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 12 Exponencial matricial 133 12.1 Exponencial de.. matrizes? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 12.2 Espaços métricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 12.3 Espaços normados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 12.4 Exponencial matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 13 Sistemas de equações diferenciais 140 13.1 Equações homogêneas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 13.2 Equações não-homogêneas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 13.3 Retrato de fase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 13.4 Calculando explicitamente as exponenciais matriciais . . . . . . . . . . . . . . . . 143 13.5 Sistemas não-homogêneos sem coeficientes constantes (e a matriz fundamental) . 148 Mais um texto de equações diferenciais Bem-vindo a esta proposta de curso introdutório de equações diferenciais! Este curso se localiza após os dois primeiros cursos de cálculo (limites, derivadas e integrais de funções de uma e várias variáveis), um curso de geometria analítica e vetores, e talvez um curso introdutório de álgebra linear. O que esse material cobre? Estas notas cobrem a ementa atual do curso de Cálculo III ministrado na Unicamp, complemen- tado por alguns conteúdos modernos, importantes em especial para alunos de Matemática/Fí- sica e de algumas engenharias. A sequência é mais ou menos essa: 1. Equações diferenciais ordinárias de primeira ordem. Equações lineares. Teorema de exis- tência e unicidade. Equações separáveis, exatas, fatores integrantes. Redução de ordem. 2. Equações diferenciais ordináriasnada, e ela só serve para você se lembrar como achar a solução. • Obtendo primitivas G(y) de g(y) e F(x) de f (x), temos que a equação é equivalente a da forma dH = 0, onde H(x, y) = F(x)− G(y), ou seja G(y)− F(x) = constante. • Logo a solução y(x) da equação diferencial satisfaz G(y(x))− F(x) = constante e as curvas-solução são dadas implicitamente por G(y)− F(x) = constante. 38 Exemplo 4.1. Resolva o PVI y′ = −x3/(y + 1)2, y(0) = 0. • Forma diferencial equivalente: (y + 1)2 dy + x3 dx. • A solução y(x) satisfaz x4 4 + (y + 1)3 3 = constante. • Da condição inicial: 0 + 1 3 = c. • A solução do PVI é a curva x4 4 + (y + 1)3 3 = 1 3 . ◁ Exercício 4.2. Descreva todas as soluções de y′ = x/y. Exercício 4.3. Descreva todas as soluções de y′ = −2xy. 4.1.1 Equações homogêneas e mudanças de variáveis Nesta subseção, apresentamos alguns exemplos importantes de equações separáveis. Você deve se lembra que muitas integrais eram resolvidas fazendo mudanças de variáveis no integrando. Para equações diferenciais, uma estratégia parecida funciona para muitos casos. Exemplo 4.4. Vamos resolver a EDO y′ = (x + y + 1)2. Seja u = x + y + 1. Então u′ = 1 + y′. Substituindo na equação original temos du dx = 1 + u2. Esta equação pode ser resolvida por separação de variáveis, fazendo du 1 + u2 = dx e integrando em ambos os lados. ◁ Exemplo 4.5. O exemplo anterior pode ser generalizado para uma equação da forma y′ = f (ax + by + c). Se u = ax + by + c, então u′ = a + by′ = a + b f (u). Agora é só resolver a equação separável du/dx = a + b f (u). ◁ Exemplo 4.6. As EDOs da forma y′ = f (y/x), com x ̸= 0, são chamadas de equações homo- gêneas. Uma possibilidade para resolvê-las é fazer a substituição u = y/x, ou y = ux. Assim, y′ = u′x + u, ou seja, f (u) = u′x + u e daí f (u)− u = x du dx . Esta equação é separável, e pode ser escrita como dx x = du f (u)− u e pode ser facilmente resolvida, dependendo de f . ◁ Exercício 4.7. Resolva as equações homogêneas: a) y′ = x2 + xy + y2 x2 b) y′ = 4y − 3x 2x − y Exercício 4.8. Considere a equação y′ = 2y − x + 5 2x − y − 4 . Fazendo uma substituição do tipo x = X − h e y = Y − k, encontre k e h de tal forma que a equação seja homogênea e resolva a equação. 39 4.2 Equações exatas Vamos estudar um pouco mais o caso das equações do tipo M(x, y) + N(x, y)y′ = 0, (19) com M, N funções C1 definidas no aberto conexo Ω. A equação (19) será chamada de exata se existir um potencial12 V para o campo vetorial (M, N), ou seja, se (M, N) = ∇V = (Vx, Vy). Neste caso, a equação fica Vx + Vyy′ = 0 e as soluções y(x) satisfazem V(x, y(x)) = constante, ou seja, as soluções de (19) estão contidas nas curvas de nível de V. Note que somente generalizamos um pouco o caso das equações separáveis, e a motivação é a mesma que usamos no início da seção anterior. Precisamos agora entender quando uma equação da forma M(x, y) + N(x, y)y′ = 0 é separável, e veremos que isto depende de propriedades de M e N. Proposição 4.9. Nas hipóteses anteriores, se M, N forem C1 e Ω for simplesmente conexo então M(x, y) + N(x, y)y′ = 0 é exata se, e só se, My = Nx. Prova. Considere a equação M(x, y) + N(x, y)y′ = 0. (20) Se a equação (20) for exata teremos13 My = Nx, já que M = Vx, N = Vy e pela regularidade vale o Teorema de Clairaut-Schwarz: Vxy = Vyx. Reciprocamente, se My = Nx e Ω for simplesmente conexo, conseguimos encontrar um potencial V(x, y) (é possível fazer isto usando integral de linha). ■ Observação 4.10. Nem sempre será possível “isolar” y na equação no fim da demonstração anterior, então teremos que ficar satisfeitos com soluções implícitas. Observação 4.11 (Como resolver equações exatas). Dada uma equação exata M(x, y) + N(x, y)y′ = 0, procuramos V(x, y) tal que Vx = M e Vy = N (para achar V é só integrar). A solução y(x) vai satisfazer V(x, y(x)) = c. Exemplo 4.12 (Equações separáveis). Note que equações separáveis são um caso particular de equações exatas. De fato, se a equação é M(x) + N(y)y′ = 0 e M, N são C1, então como My = Nx = 0, estas são iguais. Daí, podemos tomar o potencial como sendo V(x, y) = ∫ M(x) dx + ∫ N(y) dy. ◁ 12ou “integral primeira". 13É preciso um bom comportamento das funções envolvidas para isto funcionar. Tome cuidado no caso de funções com baixa regularidade. 40 Exemplo 4.13. Descreva as soluções de (2xy + 1) + (x2 + 4y)y′ = 0. ◁ Exemplo 4.14. Resolva a EDO y′ = −3e3xy − 2x e3x . Existem pelo menos duas formas de resolver essa EDO: a primeira é reescrevê-la como 3e3xy − 2x e3x + y′ = 0, tomar M(x, y) = 3e3xy − 2x e3x e N(x, y) = 1. Neste caso temos My = 3, Nx = 0 e concluiremos que a EDO não é exata. Outra possibilidade é “multiplicar cruzado” e escrever a EDO como (3e3xy − 2x) + e3xy′ = 0. Neste caso, M(x, y) = 3e3xy − 2x, N(x, y) = e3x e como My = Nx = 3e3x, a equação é exata. Então o primeiro comentário é o seguinte: a maneira como a EDO está escrita tem bastante influência em nossa determinação a priori de sua exatidão. Na Seção 4.3 veremos como lidar com a primeira abordagem acima; por enquanto, vamos considerar a equação reescrita como (3e3xy − 2x) + e3xy′ = 0. Neste caso, como já vimos, temos que My = Nx. Como as funções M, N são de classe C1, a EDO é exata. Calculando um potencial, obteremos V(x, y) = e3xy − x2, logo as soluções são da forma y = c + x2 e3x , c constante. ◁ Exercício 4.15. Descreva as soluções de (x2 + 1)y′ + 2xy − x2 = 0. Exercício 4.16. A equação xy′ − y = 0 não é exata: ela é equivalente a x dy − y dx = 0, com N = x, M = −y, e My ̸= Nx. Se multiplicarmos a equação por 1/x2, ela se tornará exata. Será que sempre poderemos fazer isto? 4.3 Transformando equações não-exatas em equações exatas Motivados pelo exemplo anterior, vamos focar em equações do tipo M(x, y) + N(x, y)y′(x) = 0, (21) com M, N funções de classe C1 definidas num aberto Ω ⊂ R2. Se (M, N) é um campo gradiente com potencial V, então M = Vx, N = Vy (22) 41 e sabemos resolver a equação (21). Vimos também que ser gradiente é equivalente a (22) no caso de Ω ser simplesmente conexo. O que fazer quando temos uma equação como (21) sem a condição (22)? O mesmo truque de sempre: vamos multiplicar (21) por um fator integrante µ(x, y), obtendo µ(x, y)M(x, y) + µ(x, y)N(x, y)y′(x) = 0. Nosso objetivo é que esta equação seja exata, ou seja, precisaremos que ∂ ∂y ( µ(x, y)M(x, y) ) = ∂ ∂x ( µ(x, y)N(x, y) ) , o que é equivalente a 1 µ ( Nµx − Mµy ) = My − Nx. (23) Como encontrar µ que satisfaz (23)? Somos bons em encontrar fatores integrantes que de- pendam de somente uma variável, então vamos começar daí. 4.3.1 Fatores integrantes que só dependem de y Suponha que µ(x, y) só dependa de y. Assim, µx = 0 e a condição (23) se transforma em µy(y) µ(y)︸ ︷︷ ︸ só depende de y = Nx(x, y)− My(x, y) M(x, y)︸ ︷︷ ︸ logo, este lado também só pode depender de y . Integrando, obtemos ln(µ(y)) = ∫ Nx − My M dy, ou seja, µ(y) = exp ( ∫ Nx − My M dy ) . Agora devemos encontrar o potencial V(x, y). Ele satisfaz Vy(x, y) = µ(y)N(x, y), Vx(x, y) = µ(y)M(x, y), ou seja, V satisfaz V(x, y) = ∫ µ(y) N(x, y) dy + c1(x) e também V(x, y) = µ(y) ∫ M(x, y) dx + c1(y). Observação 4.17. Com funções iniciais boas, sempre será possível encontrar o potencial V. 42 Observação 4.18. A hipótese “µ só depende de y” implica que Nx − My M também só depende de y, e este é um critério para decidir se vamos procurar um fator integrante que só depende de y. Faça a conta Nx − My M : se só depender de y, então poderemos achar um fator integrante que só depende de y. Exemplo 4.19. Resolva a EDO (3x2 − y2)y′ − 2xy = 0. Note que Nx − My M = 6x + 2x −2xy = − 8 2y = −4 y só depende de y. Logo µ(y) = exp ∫ Nx − My M dy = exp ( − ∫ 4 y dy ) = exp (−4 ln(y)) = exp ( ln(y−4) ) = 1 y4 . Precisamos achar V com Vx = µM e Vy = µN, ou seja, Vx = −2xy/y4, Vy = (3x2 − y2)/y4. Integrando obtemos V(x, y) = −x2/y3 + c1(y), V(x, y) = −(x2/y3) + 1/y + c2(x). Portanto, V(x, y) = −(x2/y3) + 1/y. As soluçõesda EDO cumprem − x2 y(x)3 + 1 y(x) = constante. ◁ 4.3.2 Fatores integrantes que só dependem de x Agora suponha que µ(x, y) só dependa de x. Da condição (23) 1 µ ( Nµx − Mµy ) = My − Nx obtemos que 1 µ ( Nµx ) = My − Nx, ou seja, µx µ = My − Nx N . Logo µ(x) = exp ( ∫ My − Nx N dx ) . Encontrado o fator integrante, a solução da EDO pode ser encontrada como no caso anterior. 43 Observação 4.20. Uma pequena modificação da Observação 4.18 também vale aqui neste caso. Exemplo 4.21. Resolva a EDO (x2y − x)y′ + y = 0. Note que, como My − Nx N = 1 − (2xy − 1) x2y − x = 2 − 2xy x2y − x = 2(1 − xy) x2y − x = −2 x , o fator integrante é µ(x) = exp (∫ −2 x dx ) = exp ln(x−2) = 1 x2 . ◁ Exercício 4.22. Resolva a EDO 3e3xy − 2x e3x + y′ = 0 achando um fator integrante. Observação 4.23 (Outros tipos de fatores integrantes). Vimos que se Nx − My M só depender de y, poderemos escolher um fator integrante que também só depende de y. Já se My − Nx N só depender de x, poderemos escolher um fator integrante que também só depende de x. Exis- tem pelo menos outros dois casos em que achar o fator integrante é razoavelmente simples: • Quando (My − Nx)/(Ny − Mx) é função de x · y, como por exemplo em (3x3y4 + x)y′ + y = 0. Note que, na expressão anterior, temos derivadas parciais no numerador e produtos no denominador. • Se M, N são funções homogêneas de mesmo grau então um fator integrante é µ = 1 x · M + y · N , como por exemplo em y2 + (x2 − xy − y2)y′ = 0. Exercício 4.24. Considere a equação y′ = αx + βy γx + δy , com cγx + δy ̸= 0. (a) Transforme essa equação numa equação exata multiplicando-a por um fator integrante (veja co- mentário anterior) e resolva a equação 44 (b) Resolva a equação de outra forma, usando a mudança de variáveis y(t) = u(t)x(t) e obtendo uma equação separável. Esta mesma mudança de variável serve para vários tipos de equações. Exercício 4.25. Resolva a EDO y′ = 2x + y 5x − 3y . 4.4 Redução de ordem Até agora estudamos equações de primeira ordem, ou seja, que que só envolvem y′. Algu- mas equações de segunda ordem podem ser transformadas em equações de primeira ordem. Veremos como fazer isto com dois tipos de equações: • equações sem y : y′′ = f (x, y′), • equações sem x : y′′ = g(y, y′). 4.4.1 Equações do tipo y′′ = f (x, y′) Neste caso, fazemos a mudança v(x) = y′(x), o que nos dá v′(x) = y′′(x). Logo, podemos escrever a equação como v′ = f (x, v). (24) Estas equações são de fato equivalentes, mas precisamos ter algum cuidado com as constantes de integração. A solução v(x) de (24) depende de uma constante de integração c, por isto vamos denotá-la por v(x, c). Como obtemos a solução de (24)? Resolvendo a equação y′(x) = v(x, c)! Se y′(x) = v(x, c), para acharmos y(x) aparecerá outra constante de integração c̃, logo y(x) = ∫ v(x, c) dx + c̃. Exemplo 4.26. Resolva a equação y′′ + 3y′ = x. Fazendo a mudança v = y′ obtemos v′ + 3v = x. Esta é uma equação linear de 1a ordem. Sua solução pode ser obtida e é v(x) = −1 9 + x 3 + ce−3x. Se y′(x) = v(x, c), para acharmos y(x) aparecerá outra constante de integração c̃, logo y(x) = ∫ v(x, c) dx + c̃. Resolvendo a EDO y′(x) = −1 9 + x 3 + ce−3x obtemos y(x) = −1 3 ce−3x + x2 6 − x 9 + c̃. ◁ Exercício 4.27. Resolva a EDO 2x2y′′ + (y′)3 = 2xy′, x > 0. 45 4.4.2 Equações do tipo y′′ = g(y, y′) Neste caso14, a mudança de coordenadas não é tão óbvia. Se v(x) = y′(x) então v′(x) = y′′(x) = g(y(x), v(x)) e a equação dependerá de muitas variáveis. Pense que variável independente é y. Então dv dx = dv dy dy dx = v dv dy , e ficamos com v dv dy = f (y, v). Obtivemos uma equação de 1a ordem, mas de um tipo que pode ser bem difícil de resolver. Suponha que exista uma solução v(y) para v dv dy = f (y, v). Poderemos achar y resolvendo dy dt = v(y), sendo que esta última equação é separável! Exemplo 4.28. Resolva a equação y′′ + y = 0. Seja y′ = v(y), de modo que y′′ = v(y)v′(y). A equação fica vv′ + y = 0, ou v dv dy = −y. A equação é separável! v dv = −y dv. Agora é só terminar a resolução. ◁ Exercício 4.29. Resolva a equação 2y′′ − (y′)2 = y. Dica: você vai recair numa equação de Bernoulli. 14Este caso é muito degenerado e não recomendo dar muita atenção a ele. 46 5 Equações diferenciais lineares de segunda ordem Neste capítulo vamos começar a estudar equações de ordem superior. O foco será nas de se- gunda ordem, mas todo o conteúdo pode ser facilmente generalizado para equações de ordens superiores. 5.1 Existência de soluções Sejam p, q, f : (a, b) → R funções contínuas definidas num aberto (a, b) e considere a equação x′′(t) + p(t)x′(t) + q(t)x(t) = f (t). (25) Vamos também considerar condições iniciais x(t0) = x0 e x′(t0) = v0, onde t0 ∈ (a, b) e x0, v0 são dados. Às vezes chamaremos t0 de tempo inicial, x0 de posição inicial, v0 de velocidade inicial. Teorema 5.1 (Existência e unicidade para equações de segunda ordem). Se p, q, f : (a, b) → R são funções contínuas definidas no intervalo aberto (a, b), t0 ∈ (a, b), x0, y0 ∈ R, então o PVI { x′′(t) + p(t)x′(t) + q(t)x(t) = f (t) x(t0) = x0, x′(t0) = v0 tem única solução ϕ : (a, b) → R. O Teorema anterior decorre do Teorema de Existência e Unicidade para equações de pri- meira ordem se transformarmos (25) num sistema de equações de primeira ordem: { x′(t) = y(t), y′(t) = −q(t)x(t)− p(t)y(t) + f (t), onde y(t) = x′(t). Observação 5.2. Já vimos este truque antes, mas é sempre bom repetir a mudança de coorde- nadas. A equação x′′′ + F(t, x, x′, x′′)x′′ + G(t, x, x′)x′ + F(t, x)x + H(t) = 0 se transforma no sistema x′ = y, y′ = z, z′ = −F(t, x, y, z)z − G(t, x, y)y − F(t, x)x + H(t), onde y = x′ e z = x′′. Quase todos os resultados desse capítulo são verdadeiros, ainda que com adaptações, para equações de ordem superior. Assim como fizemos com EDOs de primeira ordem, vamos separar a análise conforme ho- mogeneidade, constância dos coeficientes, etc. 47 5.2 Equações homogêneas de segunda ordem Vamos considerar dois PVIs especiais: E1,0 : { x′′(t) + p(t)x′(t) + q(t)x(t) = 0, x(t0) = 1, x′(t0) = 0, e E0,1 : { x′′(t) + p(t)x′(t) + q(t)x(t) = 0, x(t0) = 0, x′(t0) = 1. Vamos denotar por ϕ1,0(t) a solução do PVI E1,0 e ϕ0,1(t) a solução do PVI E0,1, ambas defi- nidas em (a, b) com t0 ∈ (a, b). Denotando ϕ(t) = αϕ1,0(t) + βϕ0,1(t) então ϕ′′(t) + p(t)ϕ′(t) + q(t)ϕ(t) = 0, (verifique!) ϕ(t0) = αϕ1,0(t0) + βϕ0,1(t0) = α, ϕ′(t0) = αϕ′ 1,0(t0) + βϕ′ 0,1(t0) = β ou seja, ϕ(t) é solução do PVI { x′′(t) + p(t)x′(t) + q(t)x(t) = 0, x(t0) = α, x′(t0) = β. (26) Teorema 5.3. A solução de um PVI qualquer como (26) pode ser obtida como combinação linear das soluções particulares dos PVIs ϕ1,0 e ϕ0,1. Observação 5.4. Os PVIs E1,0 e E0,1 foram escolhidos para refletir a base canônica de R2. Pode- ríamos ter usado outros PVIs, como por exemplo Ea,b : { x′′(t) + p(t)x′(t) + q(t)x(t) = 0, x(t0) = a, x′(t0) = b, e Ec,d : { x′′(t) + p(t)x′(t) + q(t)x(t) = 0, x(t0) = c, x′(t0) = d, desde que os vetores (a, b) e (c, d) sejam linearmente independentes. A única diferença é que seria um pouco mais difícil de escrever a combinação linear (coisa que é trivial com a base canônica). Observação 5.5. A propriedade da soma de soluções ser uma solução é chamada de princípio da superposição. Ela decorre do fato da equação ser homogênea e linear. Vimos que um PVI tem solução e ela é única. O teorema anterior diz que uma solução qualquer depende de duas soluções “fundamentais”. No exemplo anterior, foram necessárias duas soluções fundamentais: ϕ1,0 e ϕ0,1. Se a EDO tiver ordem k, precisaremos de k soluções fundamentais. Definição 5.6. Duas funções ϕ1, ϕ2 : (a, b) → R são linearmente dependentes (LD) se existe uma constante k tal que ϕ2(t) = kϕ1(t) para todo t ∈ (a, b). Caso contrário, as funções são chamadas de linearmente independentes (LI). 48 Podemos ainda definir primeiro funções linearmente independentes e depois as linearmente dependentes: Definição 5.7. Duas funções ϕ1,ϕ2 : (a, b) → R são linearmente independentes (LI) se αϕ1(t) + βϕ2(t) = 0 ∀t ∈ (a, b) implicar que α = β = 0. Caso contrário, as funções são chamadas de linearmente dependentes. Observação 5.8. Estas definições de LI e LD são as mesmas vistas nos cursos de geometria analítica ou álgebra linear e podem ser estendidas para um número qualquer de funções. Exemplo 5.9. 1. As funções f (t) = t2 e g(t) = 2t são linearmente independentes. 2. As funções cos(t) e sen (t) são linearmente independentes. 3. As funções eat e ebt são linearmente independentes se a ̸= b. 4. As funções t3 e |t|3 são linearmente independentes. 5. As funções p(t) = t2 e q(t) = 3t2 são linearmente dependentes. ◁ Observação 5.10. Pense um pouco sobre como se relacionam os gráficos de duas funções que são linearmente dependentes. 5.3 O Wronskiano Dadas ϕ1, ϕ2 : (a, b) → R funções diferenciáveis, o determinante W(ϕ1, ϕ2)(t) = det ( ϕ1(t) ϕ2(t) ϕ′ 1(t) ϕ′ 2(t) ) é chamado de Wronskiano de ϕ1 e ϕ2. Exemplo 5.11. Vamos calcular alguns wronskianos: (a) W(t2, 2t) = det ( t2 2t 2t 2 ) = −2t2 (b) W(cos(t), sen (t)) = det ( cos(t) sen (t) −sen (t) cos(t) ) = 1 (c) W(eat, ebt) = det ( eat ebt aeat bebt ) = (b − a)e(a+b)t (d) W(t2, 3t2) = det ( t2 3t2 2t 6t ) = 0 ◁ 49 Exemplo 5.12. Vamos mostrar que W(t3, |t|3) = 0 para todo t ∈ R. O primeiro passo é mostrar que a função f (t) = |t|3 é diferenciável. Note que f (t) = { t3 , t ≥ 0, −t3 , t(32), então ϕ1(t)− ϕ2(t) é solução da EDO homogênea associada x′′(t) + p(t)x′(t) + q(t)x(t) = 0. (33) (b) Seja ϕp(t) uma solução qualquer de (32) e ϕ1(t), ϕ2(t) soluções linearmente independentes de (33). Então ϕ(t) = αϕ1(t) + βϕ2(t) + ϕp(t) é a solução geral de (32). 5.5 Equações homogêneas: método das equações características Vamos começar com as equações homogêneas da forma x′′(t) + px′(t) + qx(t) = 0, (34) em que os coeficientes são constantes. Vamos buscar soluções na forma x(t) = eλt. Substituindo na equação obtemos λ2eλt + pλeλt + qetλ = 0, ou eλt(λ2 + pλ + q ) = 0, o que implica que λ2 + pλ + q = 0. A equação λ2 + pλ + q = 0 (35) é conhecida como equação característica. Para que x(t) = eλt seja solução de (34), λ terá que satisfazer (35). Seja ∆ = p2 − 4q. Vamos estudar as soluções de (34) conforme o sinal de ∆. 5.5.1 Caso ∆ > 0 Se ∆ > 0, as soluções de (35) são da forma λ = −p ± √ p2 − 4q 2 . Vamos denotar estas soluções por λ1, λ2. Note que λ1 ̸= λ2. As soluções de (34) serão x1(t) = eλ1t, x2(t) = eλ2t. Como os expoentes são diferentes, as soluções são linearmente independentes. Verifique isto calculando o Wronskiano das soluções. A solução geral será x(t) = αeλ1t + βeλ2t. 54 Exemplo 5.23. Vamos encontrar a solução geral da equação x′′ − 4x = 0. Suponha que x(t) = eλt. Obtemos então a equação característica λ2 − 4 = 0, que tem raízes ±2. Logo a solução geral da EDO é x(t) = αe−2t + βe2t. ◁ Exercício 5.24. Encontre a solução geral de x′′ − 5x′+ 6x = 0 e a solução do PVI x(0) = 1, x′(0) = 2. 5.5.2 Caso ∆ = 0 Neste caso, a equação característica λ2 + pλ + q = 0 só tem a raiz λ = −p/2, que dá origem à solução x1(t) = e−pt/2. Como achar uma função x2(t) que seja solução da EDO e seja LI com esta? Vamos usar um método conhecido como redução de ordem. Suponha que a outra solução seja da forma x2(t) = u(t)x1(t), com alguma função u(t). Substituindo na equação (34) obtemos u(t) ( x′′1 (t) + px′1(t) + qx1(t) ) + u′′(t)x1(t) + u′(t) ( px1(t) + 2x′1(t) ) = 0 Substituindo v(t) = u′(t) chegamos em v′(t) + ( p + 2 x′1(t) x1(t) ) v(t) = 0, e daí resta v′(t) = 0, ou seja, v(t) = c e com isso u(t) = ct + c̃. Como c, c̃ podem ser escolhidos, ficamos com u(t) = t e daí a solução x2(t) é dada por x2(t) = te−pt/2. Agora resta calcular W(x1, x2)(t) e comprovar que estas funções são linearmente indepen- dentes (exercício!). A solução geral será x(t) = αe−pt/2 + βte−pt/2. Exercício 5.25. Encontre a solução geral de x′′ + 2x′ + x = 0. 55 5.5.3 Caso ∆à solução: x(t) = c1eλ1t + c2eλ2t + α S′(a) · t · eat, desde que S′(a) ̸= 0. O que acontece se S′(a) = 0? Lembre que já tínhamos S(a) = 0, portanto a é raiz de S(λ) e de S′(λ), o que significa que é solução com multiplicidade 2 de S(λ) = 0. Neste caso, propor uma solução da forma xp(t) = ct2 · eat funcionará. Verifique isto nos próxi- mos exercícios. Exercício 5.31 (S(a) ̸= 0). Encontre a solução geral de x′′(t)− x′(t)− 2x(t) = −e5t. Exercício 5.32 (S(a) = 0, S′(a) ̸= 0). Encontre a solução geral de x′′(t)− 4x′(t) + 3x(t) = 2et. Exercício 5.33 (S(a) = S′(a) = 0). Encontre a solução geral de x′′(t)− 6x′(t) + 9x(t) = 5e3t. 59 5.6.2 Caso f (t) seja seno ou cosseno Caso f (t) = cos(ωt) ou f (t) = sen (ωt), vamos propor uma solução também trigonométrica, com xp(t) = A cos(ωt) + Bsen (ωt). Exercício 5.34. Resolva a EDO x′′(t)− 5x′(t) + 6x(t) = sen (3t). 5.6.3 Demais casos Em [3, pág. 179] encontramos uma tabela que nos diz como escolher o formato para a “pro- posta” de xp(t) conforme seja f (t): f (t) xp(t) eαt beαt cos(βt) ou sen (βt) b1 cos(βt) + b2sen (βt) a1 + a1t + . . . + antn b1 + b1t + . . . + bntn (a0 + a1t + . . . + antn)eαt cos(βt) ou (b0 + b1t + . . . + bntn)eαt cos(βt)+ (a0 + a1t + . . . + antn)eαtsen (βt) (c0 + c1t + . . . + cntn)eαtsen (βt) Observação 5.35. Talvez seja um bom momento para fazer uma importante observação: caso o termo f (t) seja uma expressão com “somas de funções”, os métodos terão que usados separa- damente. Por exemplo, se f (t) = t2e3t + cos(2t) então deveremos escolher xp(t) = (c0 + c1t + c2t2)e3t + a cos(2t) + bsen (2t). Exercício 5.36. Resolva as EDOs: 1. x′′ + 2x′ + x = t2e2t 2. x′′ + 2x′ + x = 2te−t 3. x′′ − 2x′ + 2x = et cos(t) + xe2t 4. x′′ + 2x′ + 4x = e−5t(1 + t3 + t5) cos(2t) + t9e7tsen (8t) (“the monster”) 5.7 Equações não-homogêneas: método da variação dos parâmetros Vamos agora resolver algumas equações não-homogêneas da forma x′′(t) + px′(t) + qx(t) = f (t). (38) Sejam y(t), z(t) soluções linearmente independentes de x′′(t) + px′(t) + qx(t) = 0 (39) e vamos procurar uma solução de (38) que seja da forma x(t) = a(t)y(t) + b(t)z(t). 60 Neste caso, temos x′(t) = a(t)y′(t) + a′(t)y(t) + b(t)z′(t) + b′(t)z(t) (40) e vamos supor que a′(t)y(t) + b′(t)z(t) ≡ 0. (41) Usando a condição (41) na equação (40), ficamos com x′(t) = a(t)y′(t) + b(t)z′(t). (42) Derivando a equação (42) com respeito a t, obtemos: x′′(t) = a(t)y′′(t) + b(t)z′′(t) + a′(t)y′(t) + b′(t)z′(t). Agora substituímos x(t), x′(t) e x′′(t) na equação (38). Usando que y(t), z(t) são soluções de (39), vários termos se anularão (vou mostrar com detalhes num exemplo), e restará a′(t)y′(t) + b′(t)z′(t) = f (t). (43) As equações (41) e (43) formam um sistema linear em a′(t), b′(t): { a′(t)y(t) + b′(t)z(t) = 0, a′(t)y′(t) + b′(t)z′(t) = f (t). Em forma matricial, temos: ( y(t) z(t) y′(t) z′(t) )( a′(t) b′(t) ) = ( 0 f (t) ) . Note que o determinante da matriz dos coeficientes do sistema anterior é exatamente W(y(t), z(t)), que é diferente de zero, já que supomos que y, z são soluções linearmente independentes. Re- solvendo o sistema obtemos que a′(t) = − f (t)z(t) W(y, z)(t) , b′(t) = f (t)y(t) W(y, z)(t) , (44) onde W(y, z)(t) = y(t)z′(t)− y′(t)z(t). Resolvendo as equações em (44) obtemos a(t) e b(t) e com isto x(t) = a(t)y(t) + b(t)z(t) será solução de (38). Exemplo 5.37. Resolva a equação x′′(t) + x′(t)− 2x(t) = cos(t). O primeiro passo é resolver a EDO homogênea associada: x′′ + x′ − 2x = 0. A equação característica é λ2 + λ − 2 = 0, que tem como soluções λ = 1 e λ = −2. Portanto, as soluções da equação homogênea associada são y(t) = et, z(t) = e−2t. 61 Partimos então à procura de soluções da forma x(t) = a(t)y(t) + b(t)z(t) para nossa EDO. Derivando obtemos x′(t) = a′(t)y(t) + a(t)y′(t) + b′(t)z(t) + b(t)z′(t) e forçamos a′(t)y(t) + b′(t)z(t) = 0. Isto nos dá x′(t) = a(t)y′(t) + b(t)z′(t) e x′′(t) = a′(t)y′(t) + a(t)y′′(t) + b′(t)z′(t) + b(t)z′′(t). Levemos tudo isto para a equação: ( a′(t)y′(t) + a(t)y′′(t) + b′(t)z′(t) + b(t)z′′(t) ) + ( a(t)y′(t) + b(t)z′(t) ) − 2 ( a(t)y(t) + b(t)z(t) ) = cos(t) Agrupando os termos... a(t) ( y′′(t) + y′(t)− 2y(t)︸ ︷︷ ︸ =0 ) + b(t) ( z′′(t) + z′(t)− 2z(t)︸ ︷︷ ︸ =0 ) + +a′(t)y′(t) + b′(t)z′(t) = cos(t) o que nos dá a′(t)y′(t) + b′(t)z′(t) = cos(t). Conseguimos um sistema de equações: { a′(t)y′(t) + b′(t)z′(t) = cos(t), a′(t)y(t) + b′(t)z(t) = 0. Como y(t) = et e z(t) = e−2t, temos que a′(t) = cos(t)e−2t 3e−t = cos(t)e−t 3 , b′(t) = −cos(t)et 3e−t = −cos(t)e2t 3 . Integrando obtemos a(t) = sen (t)− cos(t) 6et , b(t) = − e2t(2 cos(t) + sen (t) ) 15 Logo a solução da EDO é x(t) = sen (t)− cos(t) 6 − 2 cos(t) + sen (t) 15 . ◁ Exercício 5.38. Resolva as equações abaixo: 1. x′′(t)− x′(t) + x(t) = e4t 2. x′′(t) + x(t) = sen (t) 62 5.8 Equações diferenciais de segunda ordem com coeficientes não-constan- tes: redução de ordem Dizem que “mares calmos não fazem um bom marinheiro”, mas isso aqui é outro nível. Escreva uma equação de segunda ordem qualquer, com coeficientes não-constantes. É alta a probabili- dade de que essa equação não tenha solução explícita. No entanto, conseguimos brincar com algumas equações desse tipo. Você vai perceber que a maioria delas tem nome - e, se tem nome, tem história. Ninguém dá nome pra equações cujas soluções são fáceis de encontrar. Considere a equação x′′(t) + p(t)x′(t) + q(t)x(t) = f (t). (45) O que sabemos dela? Se p(t), q(t) são constantes e • Se p(t) ≡ p e q(t) ≡ q são constantes e f (t) ≡ 0, sabemos dar a solução geral de (45) (via equação característica). • Se p(t) ≡ p e q(t) ≡ q são constantes e f (t) ̸≡ 0, ainda assim temos bons métodos para resolver a (45): variação dos parâmetros e coeficientes indeterminados. Se p(t), q(t) NÃO são constantes, até agora só sabemos que no caso homogêneo a solução geral é dada por x(t) = c1ϕ1,0(t) + c2ϕ0,1(t), onde ϕ1,0, ϕ0,1 são soluções de PVIs particulares. Não sabemos como achar as soluções ϕ1,0, ϕ0,1 nem no caso homogêneo, muito menos como achar soluções particulares no caso não-homogêneo. Aliás, a coisa é pior: não existe método sistemático para resolver equações de segunda or- dem com coeficientes não-constantes. Mesmo assim, deixando o pessimismo de lado, veremos (rapidamente) alguns exemplos de como lidar com tais equações. Como estas equações terão duas soluções l.i., a estratégia básica será a seguinte: encontre uma solução (de alguma forma), e daí reduza o problema ao de encontrar uma solução para uma equação de primeira ordem. Isto é chamado de “redução de ordem”. Para equações homogêneas do tipo x′′(t) + p(t)x′(t) + q(t)x(t) = 0, (46) podemos tentar aplicar redução de ordem para achar uma segunda equação l.i. - supondo que já temos a primeira solução. Seja x1(t) uma solução da equação (46) e proponha uma segunda solução da forma x2(t) = u(t)x1(t). Levando na equação e usando a mudança v(t) = u′(t), obtemos v′(t) = ( p(t) + 2 x′1(t) x1(t) ) v(t) = 0. 63 Esta equação tem como fator integrante µ(t) = x1(t)e ∫ p(t) dt . Resolvendo a EDO em v temos v(t) = c x1(t)2 e − ∫ p(t) dt , c ∈ R. Como u′(t) = v(t), segue que u(t) = c ∫ ( 1 x1(t)2 e − ∫ p(t) dt ) dt e a segunda solução da EDO (46) é x2(t) = cx1(t) ∫ ( 1 x1(t)2 e − ∫ p(t) dt ) dt. Exemplo 5.39 (Equação de Legendre). A equação (1 − t2)x′′(t) − 2tx′(t) − λ(λ + 1)x(t) = 0, com t ∈ (−1, 1) e λ ∈ R é chamada de equação de Legendre. Mostre que x1(t) = t é solução da equação e procure outra solução da forma x2(t) = u(t)x1(t). ◁ Exemplo 5.40 (Equação de Bessel). Mostre que x1(t) = t−1/2 é solução da equação de Bessel t2x′′(t) + tx′(t) + (t2 − 1/4)x(t) = 0, t > 0. Determine uma outra solução x2(t) tal que x1 e x2 são linearmente independentes. ◁ Exercício 5.41. Encontre uma segunda solução para as EDOs abaixo: 1. t2x′′(t) + 2tx′(t)− 2x(t) = 0, x1(t) = t. 2. tx′′(t)− (t + N)x′(t) + Nx(t) = 0, x1(t) = et, N ∈ N. Exercício 5.42 (Equação de Euler-Cauchy). As equações do tipo t2x′′(t) +atx′(t) + bx(t) = f (t) são chamadas de equações de Euler-Cauchy. No caso homogêneo ( f (t) ≡ 0), podemos procurar uma solução da forma x(t) = eλt. Como achar a outra solução? Observação 5.43. Quando estudarmos soluções em séries de potências, teremos um outro mé- todo bem poderoso para resolver as equações desta seção. 64 5.9 Em termos de operadores diferenciais Para finalizar o capítulo, vamos novamente fazer alguns comentários sobre soluções das equa- ções em termos de operadores. Seja Cr([a, b], R) o espaço vetorial das funções x : [a, b] → R que são r vezes diferenciáveis. Considere o operador L : C2([a, b], R) → C0([a, b], R) dado por L(x)(t) = x′′(t) + p(t)x′(t) + q(t)x(t). O núcleo Ker(L) é o conjunto Ker(L) = {x ∈ C2([a, b], R); L(x)(t) ≡ 0}. Note que Ker(L) é o subespaço vetorial das soluções da EDO homogênea x′′(t) + p(t)x′(t) + q(t)x(t) = 0 e já vimos que dim Ker(L) = 2. Por outro lado, a imagem do operador L, Im(L), é o conjunto Im(L) = { f ∈ C0([a, b], R); ∃ x(t) ∈ C2([a, b], R) : L(x)(t) = f (t)}, ou seja, é o conjunto das soluções de EDOs não-homogêneas da forma x′′(t) + p(t)x′(t) + q(t)x(t) = f (t), variando f (t). Vimos que toda equação da forma x′′(t) + p(t)x′(t) + q(t)x(t) = f (t), com f ∈ C0([a, b], tem solução, logo vimos que o operador L é sobrejetivo. Como Ker(L) ̸= {0}, L não é injetor, ou seja, a imagem inversa L−1( f ) é uma classe lateral da forma y(t) + Ker(L), com y(t) ∈ L−1(F). Em palavras: a solução geral da não-homogênea pode ser obtida somando uma solução particular da não-homogênea com a solução geral da homogênea. 5.10 Equações de ordens superiores (em atualização) 65 6 Transformada de Laplace Se você tentar enfrentar um guepardo numa corrida, certamente vai perder: ele pode chegar a mais que 100 km/h, enquanto a maior velocidade já registrada por um ser humano foi de 44 km/h (atingida por Usain Bolt em 2012). No entanto, se a competição com o guepardo for um duelo de equações, aí o jogo vira e você terá uma boa chance de vencer (ou pelo menos empatar). Dada uma equação diferencial que queremos resolver, a Transformada de Laplace nos levará para uma arena onde a disputa será mais justa e onde teremos um pouco mais de recursos para resolvê-la. Mas não se anime tanto: ainda será um combate duro. 6.1 Motivação e definição da transformada de Laplace A transformada de Laplace é uma transformação linear L : F1 → F2 entre conjuntos de funções que tem a capacidade de transformar equações diferenciais em equações algébricas. O que faremos é o seguinte: começamos com uma EDO: y′′(t) + . . . = g(t, y, y′), que não precisa ser de segunda ordem. Aplicamos a transformada na equação anterior: L{y′′(t) + . . .} = L{g(t, y, y′)}. De alguma forma, faremos L{y′′(t)} se transformar15 numa expressão que envolve L{y(t)} e outros termos, mas não envolve L{y′′(t)} ou L{y′(t)}. Agora isolamos L{y(t)} na equação: L{y(t)} = G(t, y, y′) e aplicamos a transformada inversa L−1: L−1{L{y(t)}} = L−1{G(. . .)}. Com isso, teremos que y(t) = L−1{G(t, y, y′)}, ou seja, encontraremos a solução da EDO sem fazer nenhuma integração (explicitamente). Usaremos a Transformada de Laplace, mas a teoria de transformadas é bem mais geral. Seja K(s, t) uma função (que chamaremos de núcleo) e α, β ∈ R ∪ {−∞, ∞}. Se f (t) é uma função “boa” definida em [α, β], definimos a transformada de f (t) com núcleo16 K por TK{ f (t)} = F(s) = ∫ β α K(s, t) f (t) dt. (47) Ou seja, a TK transforma f (t) em F(s), que é dada pela integral anterior. Esta pode ser uma integral imprópria e que de fato, como a variável de integração é t, resta uma função de s. 15Perdão pelo trocadilho. 16Sobre o uso da palavra núcleo neste contexto, recomendo o artigo David C. Sutherland, “The kernel of the Laplace transform”, Pi Mu Epsilon Journal Vol. 7, no. 4, pág. 252–256, 1981. 66 Seja f (t) uma função “boa” definida para t ≥ 0. Definimos a transformada de Laplace de f (t) por F(s) = L{ f (t)}, onde F(s) = L{ f (t)} = ∫ ∞ 0 e−st f (t) dt. (48) Comparando com nossa definição anterior, o núcleo é K(s, t) = e−st. Ainda temos que investigar se a transformada (48) existe para qualquer função f (t), já que a integral que define F(s) na equação (48) é imprópria. Portanto, vamos a uma revisão sobre integrais impróprias. 6.2 Integrais impróprias Relembrando a definição da integral imprópria: seja a ∈ R e f (t) uma função contínua em [a, ∞). Definimos ∫ ∞ a f (t) dt = lim A→∞ ∫ A a g(t) dt. Denotando I(A) = ∫ A a g(t) dt, temos: • se lim A→∞ I(A) existe, então a integral é dita convergente. • se lim A→∞ I(A) não existe, então a integral é dita divergente. Vamos fazer alguns exemplos de integrais impróprias. Exemplo 6.1. Se f (t) = eαt e α ̸= 0 então ∫ ∞ 0 eαt dt = lim A→∞ ∫ A 0 eαt dt = lim A→∞ eαt α ∣∣∣∣ A 0 (49) = lim A→∞ 1 α ( eαA − 1 ) (50) Portanto: • Se α > 0 o limite acima não existe, logo a integral diverge. • Se α 1. No caso da transformada de Laplace, precisamos obter hipóteses sobre f (t) para que a inte- gral imprópria L{ f (t)} = ∫ ∞ 0 e−st f (t) dt exista. 6.3 Existência da Transformada de Laplace Finalmente vamos estabelecer condições para que a transformada de Laplace exista. Seja f : [0, A] → R uma função. Dizemos que f é contínua por partes se existe uma partição de [0, A] em 0 = t0 tj f (t) existe (ou seja, é um número) para todo j = 0, . . . , n. Teorema 6.4. Suponha que • f é contínua por partes em [0, ∞) e • | f (t)| ≤ Keat se t ≥ M para certos K, a, M ∈ R, com K, M > 0. Então F(s) = L{ f (t)} existe para todo s > a. Prova. Feito em aula. Estará digitado aqui em algum momento. ■ Perceba que este teorema é MUITO geral: a transformada existe desde que a função seja limitada por algum tipo de exponencial. Vamos calcular algumas transformadas. Exemplo 6.5. L{1} =? ◁ Solução. Temos que: L{1} = ∫ ∞ 0 e−st · 1 dt = lim A→∞ ∫ A 0 e−st · 1 dt = lim A→∞ ( e−st −s )∣∣∣∣ A 0 = lim A→∞ ( e−sA −s − 1 −s ) = 1 s , s > 0. □ Exemplo 6.6. L{eat} =? ◁ 68 Solução. Temos que: L{eat} = ∫ ∞ 0 e−st · eat dt = lim A→∞ ∫ A 0 et(a−s) dt = lim A→∞ ( et(a−s) a − s )∣∣∣∣∣ A 0 = lim A→∞ ( eA(s−a) a − s − 1 a − s ) = 1 s − a , s > a. □ Exercício 6.7. Mostre que L{sen (at)} = a s2 + a2 , s > 0. Exercício 6.8. Mostre que L{cos(at)} = s s2 + a2 , s > 0. Uma propriedade importante da transformada de Laplace é que ela é linear: se as transfor- madas de Laplace de f (t) e g(t) existem, então L{a f (t) + bg(t)} = aL{ f (t)}+ bL{g(t)}, para todos a, b ∈ R (prove!). E o produto? O que acontece com L{ f (t) · g(t)}? Veremos mais pra frente. 6.4 Transformadas de Laplace e PVIs Nossa proposta inicial era usar a transformada de Laplace para resolver PVIs, e para isto é essencial que a transformada se comporte bem com as derivadas. É exatamente isto que acontece: Teorema 6.9. Suponha que f é contínua e f ′ é contínua por partes em [0, ∞). Além disto, suponha que existem K, a, M ∈ R, com | f (t)| ≤ Keat, para todo t ≥ M. Então L{ f ′(t)} existe para todo s > a e L{ f ′(t)} = sL{ f (t)} − f (0). Prova. Feito em aula. Estará digitado aqui em breve. ■ Corolário 6.10. Se f ′ e f ′′ satisfazem as hipóteses do teorema anterior para f e f ′, então L{ f ′′(t)} existe para s > a e L{ f ′′(t)} = s2L{ f (t)} − s f (0)− f ′(0). Exercício 6.11. Que tal tentar enunciar um corolário como o acima para o cálculo de L{ f ′′′(t)} e L{ f (n)(t)}? Exemplo 6.12. Resolva y′′− y′− 2y = 0, y(0) = 1, y′(0) = 0 usando transformadas de Laplace.◁ 69 Solução. Aplicando L em ambos os lados da EDO teremos L{y′′ − y′ − 2y} = L{0} = 0. Como • L{y′(t)} = sL{y(t)} − y(0), • L{y′′(t)} = s2L{y(t)} − sy(0)− y′(0). Substituindo na equação teremos: ( s2L{y(t)} − sy(0)− y′(0) ) − ( sL{y(t)} − y(0) ) − 2L{y(t)} = 0. Como y(0) = 1 e y′(0) = 0, a equação fica s2L{y(t)} − s − sL{y(t)}+ 1 − 2L{y(t)} = 0. Denotando Y(s) = L{y(t)} e isolando Y(s) fica Y(s) = s − 1 s2 − s − 2 . Encontramos L{y(t)}. Como encontraremos y(t)? □ A transformada de Laplace L é um operador linear. Portanto, se Y(s) = L{y(t)} então podemos calcular y(t) tomando L−1 em ambos os lados: L−1{Y(s)} = L−1{L{y(t)}} = y(t). Observação 6.13. Aqui temos um problema: a transformada de Laplace é invertível? Esta questão é delicada. A injetividade da transformada de Laplace pode ser demonstrada de forma simples, e é uma consequência de um resultado geral, chamado de Teorema de Lerch: se duas funções f1(t), f2(t) tem mesma transformada integral, digamos L{ f1(t)} = L{ f2(t)}, deno- tando δ0(t) = f1(t)− f2(t) então temos que ∫ a 0 δ0(t) dt = 0 para todo a > 0, ou seja, f1 = f2 a menos de possivelmente em alguns pontos, e portanto a transformada de Laplace é injetora (neste sentido). Uma prova elementar dessa proprie- dade pode ser feita diretamente, usando o Teorema da Aproximação de Weierstrass. Note que a transformada envolvida não precisa ser necessariamente a de Laplace, vale para qual- quer transformada integral como (47). Em termos da sobrejetividade, não é fácil descrever o conjunto imagem da transformada de Laplace - portanto, dada uma função qualquer G(s), não é simples decidir se existe L−1{G(s)}. Para o que faremos com a transformada de Laplace, que é resolver equações diferenciais, em geral a transformada inversa estará bem definida (a não ser que você esteja resolvendo equações muito, mas muito estranhas). Em contextos um pouco mais gerais, existem teoremas de garantem a sobrejetividade restringindo o domínio e o contra-domínio da transformada: um deles é o Teorema de Schwartz-Paley-Wiener. 70 Exemplo 6.14. Vamos continuar o exemplo anterior. Seja Y(s) = s − 1 s2 − s − 2 . Queremos encontrar y(t) tal que L{y(t)} = Y(s). Temos que y(t) = L−1{Y(s)}, ou seja: y(t) = L−1{Y(s)} = L−1 { s − 1 s2 − s − 2 } . Usando frações parciais, temos que s − 1 s2 − s − 2 = 1/3 s − 2 + 2/3 s + 1 , portanto y(t) = L−1 { 1/3 s − 2 } + L−1 { 2/3 s + 1 } . Já vimos que L { e2t 3 } = 1 3 1 s − 2 , L { 2e−t 3 } = 2 3 1 s + 1 , portanto como y(t) = L−1 { 1/3 s − 2 } + L−1 { 2/3 s + 1 } segue que y(t) = e2t 3 + 2e−t 3 . Note que a resposta é exatamente a mesma se utilizarmos a equação característica para encon- trar a solução (teste!). ◁ Observação 6.15. A história do desenvolvimento da transformada de Laplace começa por volta de 1740, e não tinha nenhuma relação com equações diferenciais. A utilização da forma como estamos fazendo nesta seção só começou por volta de 1890, com Oliver Heaviside, que usava uma série de procedimentos com funções para poder resolver equações, até que no começo do século XX a ideia foi recuperada/formalizada como a transformada de Laplace, que já existia. Esta história está contada rapidamente em [1], ou de forma bem mais detalhada nos dois artigos [10, 11]. 6.5 Método geral Se tivermos um PVI da forma ay′′(t) + by′(t) + cy(t) = f (t), y(0) = α, y′(0) = β, denotando L{y(t)} = Y(s) teremos, após a aplicação da transformada de Laplace: Y(s) = (as + b)y(0) + ay′(0) as2 + bs + c + L{ f (t)} as2 + bs + c 71 e portanto y(t) = L−1 { (as + b)y(0) + ay′(0) as2 + bs + c + L{ f (t)} as2 + bs + c } . O problema estará em calcular a transformada inversa. O uso de frações parciais e uma tabela de transformadas ajudará bastante. Uma tabela bem completa está no site https://tutorial.math.lamar.edu/classes/de/laplace_table.aspx e também pode ser vista na Figura 15 (página 85). Observação 6.16. O uso de Transformada de Laplace para resolver PVIs é particularmente in- teressante quando as condições iniciais são fornecidas na origem. Se as condições iniciais forem num ponto x0, a mudança de variáveis x̃ = x − x0 resolverá esse problema. Exercício 6.17. Resolva y′′ + y = sen (2t), y(0) = 2, y′(0) = 1 usando transformada de Laplace. Exercício 6.18. Resolva y′′ − 5y′ + 6y = e−t, y(0) = 1, y′(0) = 1 usando transformada de Laplace. 6.6 Função degrau Vimos que a solução da equação ay′′ + by′ + cy = f (t) com y = y(t) e L{y(t)} = Y(s) é dada por y(t) = L−1 { (as + b)y(0) + ay′(0) as2 + bs + c + L{ f (t)} as2 + bs + c } . A parte difícil será calcular os termos L−1 { L{ f (t)} as2 + bs + c } e L−1 { (as + b)y(0) + ay′(0) as2 + bs + c } , pois a transformada inversa de não costuma ser uma função do mesmo “tipo". Precisamos aumentar nosso zoológico de transformadas para incluir mais alguns tipos de funções. Para c ∈ R, defina a função uc : R → R por uc(t) = { 0, t+ 2/3) + 1/4 s − 2 Portanto L−1 { s (3s + 2)(s − 2) } = L−1 { 1/4 3(s + 2/3) + 1/4 s − 2 } . Finalmente, f (t) = L−1 { s (3s + 2)(s − 2) } = 1 12 e−2t/3 + 1 4 e2t e com isto h(t) = L−1 {H(s)} = u4(t) f (t − 4), ou h(t) = u4(t) ( 1 12 e−2(t−4)/3 + 1 4 e2(t−4) ) . □ Muita calma. As coisas vão começar a ficar misturadas. Já já vamos fazer um exemplo. No que segue, vamos denotar: L f (t)︸︷︷︸ letra minúscula e dependendo de t = F(s)︸︷︷︸ maiúscula e dependendo de s Por exemplo, L {y(t)} = Y(s). No caso de transformadas inversas, a notação é a mesma: se a função tiver sido obtida como transforma de Laplace de alguma outra, letra maiúscula. Por exemplo, L−1 {F(s)} = f (t). Exemplo 6.29. Resolva o PVI abaixo usando transformada de Laplace: y′′ − y′ + 5y = 4 + u2(t)e4−2t, y(0) = 2, y′(0) = −1. ◁ 76 Figura 14: Gráfico de y(t). Solução. No nosso catálogo de transformadas, temos algumas informações sobre funções do tipo uc(t)g(t− c). A parte não-homogênea é quase deste tipo; vamos deixá-la exatamente deste tipo? Ou seja, vamos escrever e4−2t = f (t − c) para alguma função f . Note que neste caso c = 2, pois o c também aparece em uc e no nosso caso temos u2. Assim, e4−2t = f (t − 2) ⇒ f (t) = e−2t ⇒ f (t − 2) = e−2(t−2) Portanto, o lado direito é u2(t)e−2(t−2) e a EDO fica y′′ − y′ + 5y = 4 + u2(t)e−2(t−2). Calculando transformada de Laplace dos dois lados e isolando Y(s) = L {y(t)} obtemos Y(s) = 2s2 − 2s + 4 s(s2 − s + 5) + e−2s (s + 2)(s2 − s + 5) Usando a transformada inversa obtemos y(t) = L−1 { 2s2 − 2s + 4 s(s2 − s + 5) } + L−1 { e−2s (s + 2)(s2 − s + 5) } . Temos que: • L−1 { 2s2 − 2s + 4 s(s2 − s + 5) } = 6et/2 ( √ 19 cos (√ 19t 2 ) − sen (√ 19t 2 )) 5 √ 19 + 4 5 • L−1 { e−2s (s + 2)(s2 − s + 5) } = enorme, veja no Wolfram. Mesmo com estas expressões enormes, encontramos y(t)! Como será o gráfico de y(t)? □ Para finalizar, mais alguns exercícios. Exercício 6.30. Resolva o PVI y′′ + 4y = uπ(t)− u3π(t), y(0) = y′(0) = 0. Exercício 6.31. Resolva o PVI y′′ + y′ + 5y/4 = g(t), y(0) = 0, y′(0) = 0 e g(t) = { sen (t), 0 ≤ t 0 e defina L {δ(t − t0)} = lim τ→0 L {dτ(t − t0)}. Vamos calcular L {dτ(t − t0)} e depois vamos fazer o limite lim τ→0 L {dτ(t − t0)}. Temos L {dτ(t − t0)} = ∫ ∞ 0 e−stdτ(t − t0) dt = ∫ t0+τ t0−τ e−stdτ(t − t0) dt = 1 2τ ∫ t0+τ t0−τ e−st dt = 1 2sτ e−st0 ( esτ − e−sτ ) = sinh(sτ) sτ e−st0 79 Como L {dτ(t − t0)} = sinh(sτ) sτ e−st0 temos L {δ(t − t0)} = lim τ→0 sinh(sτ) sτ e−st0 (l’Hôpital) = lim τ→0 s cosh(sτ) s e−st0 = e−st0 Logo L {δ(t − t0)} = e−st0 . Fazendo t0 → 0 obtemos L {δ(t)} = 1. Observação 6.33. Se definirmos ∫ ∞ −∞ δ(t) f (t) dt = lim τ→0 ∫ ∞ −∞ dτ(t − t0) f (t) dt, teremos que ∫ ∞ −∞ dτ(t − t0) f (t) dt = 1 2π ∫ t0+τ t0−τ f (t) dt = 1 2τ · 2τ · f (t∗) = f (t∗), onde t∗ ∈ (t0 − τ, t0 + τ). Na última igualdade, usamos o TVM para integrais. Fazendo τ → 0 teremos t∗ → t0, logo ∫ ∞ −∞ δ(t − t0) f (t) dt = f (t0). Exemplo 6.34. Vamos encontrar as soluções do PVI 2y′′ + y′ + 2y = δ(t − 5), y(0) = 0, y′(0) = 0. Tomando a transformada de Laplace e isolando Y(s) = L {y(t)}, obtemos Y(s) = e−5s 2s2 + s + 2 . Calculando transformada inversa temos y(t) = 2√ 15 u5(t)e−(t−5)/4sen (√ 15(t − 5) 4 ) . ◁ Observação 6.35. Note que se a equação do exemplo anterior fosse homogênea 2y′′ + y′ + 2y = 0, y(0) = 0, y′(0) = 0, a solução seria a função nula. O pulso enorme que acontece em t = 5 pela presença da função δ faz com que a solução não seja nula: ela inicia um pico logo após t = 5 e depois decai para zero: 80 Exercício 6.36. Resolva o PVI y′′ − 5y′ + 6y = sen (t) + δ(t − π) e compare a solução com a do PVI y′′ − 5y′ + 6y = sen (t), ambos com condições iniciais y(0) = y′(0) = 0. 6.9 O produto de convolução Muitas vezes precisamos calcular a transformada inversa de um produto de funções L−1 {F(s) · G(s)}, onde F(s) = L { f (t)} e G(s) = L {g(t)}. Isto às vezes pode ser feito com frações parciais ou outras decomposições bem escolhidas, mas quase sempre é bem difícil. Não seria ótimo se L−1 {F(s)G(s)} = f (t)g(t)? O mundo não é tão bom assim, mas ainda tem salvação: Teorema 6.37 (Produto de convolução). Se F(s) = L { f (t)} e G(s) = L {g(t)} existem para s > a ≥ 0, então o produto F(s) · G(s) pode ser descrito como a transformada de Laplace de h(t) = ∫ t 0 f (t − τ)g(τ) dτ = ∫ t 0 f (τ)g(t − τ) dτ, ou seja, F(s) · G(s) = L {h(t)} = H(s), s > a. A função h é chamada de convolução de f e g e a integral no enunciado do Teorema 6.37 é chamada de integral de convolução. Ou seja: L−1 {F(s)G(s)} = ∫ t 0 f (t − τ)g(τ) dτ. Prova. Sejam F(s) = ∫ ∞ 0 e−sw f (w) dw, G(s) = ∫ ∞ 0 e−sτg(τ) dτ. Então F(s)G(s) = ∫ ∞ 0 e−sw f (w) dw ∫ ∞ 0 e−sτg(τ) dτ = ∫ ∞ 0 e−sτg(τ) ( ∫ ∞ 0 e−sw f (w) dw ) dτ = ∫ ∞ 0 g(τ) ( ∫ ∞ 0 e−s(w+τ) f (w) dw ) dτ (t = w + τ) = ∫ ∞ 0 g(τ) ( ∫ ∞ τ e−st f (t − τ) dt ) dτ 81 Agora vamos inverter a ordem de integração na integral ∫ ∞ 0 g(τ) ( ∫ ∞ τ e−st f (t − τ) dt ) dτ, Agora vamos inverter a ordem de integração na integral ∫ ∞ 0 g(τ) ( ∫ ∞ τ e−st f (t − τ) dt ) dτ : Obtendo: ∫ ∞ 0 e−st (∫ t 0 f (t − τ)g(τ) dτ ) dt = ∫ ∞ 0 e−sth(t) dt = L {h(t)}. ■ Exemplo 6.38. Calcule L−1 { 8 s2(s2 + 4) } usando o teorema anterior. ◁ Solução. Se escrevermos 8 s2(s2 + 4) = 4 s2 · 2 s2 + 4 teremos L−1 { 8 s2(s2 + 4) } = L−1 { 4 s2 · 2 s2 + 4 } = L−1 {F(s)G(s)}. Como F(s) = L {4t} e G(s) = L {sen (2t)}, segue que L−1 { 8 s2(s2 + 4) } = ∫ t 0 4(t − τ)sen (2τ) dτ = 2t − sen (2t). □ 82 Vamos fixar por alguns momentos a notação: se H(s) = F(s)G(s), então L−1 {H(s)} = L−1{F(s)G(s)} = ∫ t 0 f (t − τ)g(τ) dτ = h(t). Iremos denotar a convolução de f e g por h(t) = ( f ∗ g)(t) = ∫ t 0 f (t − τ)g(τ) dτ. A operação de convolução f ∗ g tem algumas propriedades parecidas com a multiplicação. Exercício 6.39. Prove que: • f ∗ g = g ∗ h • f ∗ (g1 + g2) = f ∗ g1 + f ∗ g2 • ( f ∗ g) ∗ h = f ∗ (g ∗ h) • f ∗ 0 = 0 ∗ f = 0 (0 = função nula) Exercício 6.40. Se 1 denota a função R → R que é constante igual a 1, então mostre que em geral é falso que f ∗ 1 = f , e que é também falso que f ∗ f é uma função sempre positiva (ou seja, f ∗ f não é f (t)2). Exercício 6.41. Resolva o PVI x′′ − 5x′ + 6x = g(t), onde g(t) é a função que você preferir (cuidado!), x(0) = 2, x′(0) = 1. Solução. Calculando transformada de Laplace da EDO, isolando X(s) = L {y(t)} e denotando G(s) = L {g(t)} obtemos X(s) = L {y(t)} = 2s − 9 s2 − 5s + 6 + G(s) s2 − 5s + 6 Para encontrarmos a solução do PVI deveremos obter L−1 {X(s)}. Como a transformada de Laplace é linear, podemos quebrar o problema em dois: L−1 {X(s)} = L−1 { 2s − 9 s2 − 5s + 6 } + L−1 { G(s) s2 − 5s + 6 } = a(t) + b(t). Vamos determinar a(t) e b(t): • a(t) pode ser calculada com frações parciais e não depende de g(t), só da parte homogênea da EDO e das condições iniciais. • calcular b(t) é mais complicado, pois G(s) s2 − 5s + 6 pode ser uma função de qualquer tipo. 83 Note que G(s) s2 − 5s + 6 = G(s) · 1 s2 − 5s + 6 e a convolução nos ajuda a resolver a transformada inversa de um produto de transformadas de Laplace: b(t) = L−1 { G(s) · 1 s2 − 5s + 6 } = ∫ t 0 g(τ)h(t − τ) dτ, onde G(s) = L {g(t)} e L {h(t)} = 1 s2 − 5s + 6 . Colocando tudo junto teremos x(t) = L−1 { 2s − 9 s2 − 5s + 6 } + ∫ t 0 g(τ)h(t − τ) dτ, onde g é a função dada no PVI e h(t) = L−1 { 1 s2 − 5s + 6 } . A resposta fica na dependência da integral f ∗ g, sendo que todas as funções envolvidas são conhecidas ou podem “facilmente” ser calculadas. A integral que aparece acima, no entanto, pode não ser simples de calcular. □ Observação 6.42. Ao resolvermos a equação diferencial ax′′(t) + bx′(t) + cx(t) = g(t), usando transformadas de Laplace, a função H(s) = 1 as2 + bs + c aparece com frequência. Ela se chama função de transferência. Exemplo 6.43. No exemplo anterior, fazendo g(t) = cos(t) temos que x(t) = L−1 { 2s − 9 s2 − 5s + 6 } + ∫ t 0 cos(τ)h(t − τ) dτ, onde h(t) = e2t(et − 1), ou seja, x(t) = −e2t (3et − 5 ) + ∫ t 0 cos(τ)e2(t−τ) ( et−τ − 1 ) dτ = −e2t (3et − 5 ) + 1 10 ( e2t (3et − 4 ) − sin(t) + cos(t) ) ◁ 84 Tabela de Transformadas de Laplace f(t) F (s) 1 1 s eat 1 s− a tn n! sn+1 ta Γ(a+ 1) sa+1 sen at a s2 + a2 cos at s s2 + a2 senh at a s2 − a2 cosh at s s2 − a2 eatsen bt b (s− a)2 + b2 eat cos bt (s− a) (s− a)2 + b2 tneat n! (s− a)n+1 f(t) F (s) uc(t) = u(t− c) e−cs s uc(t)f(t− c) e−csF (s) ectf(t) F (s− c) f(ct) 1 c F (s c ) ∫ t 0 f(t− τ)g(τ)dτ F (s)G(s) δc(t) = δ(t− c) e−cs f (n)(t) snF (s)− sn−1f(0)− . . .− f (n−1)(0) ∫ t 0 f(τ)dτ F (s) s f(t) t ∫ ∞ s F (σ)dσ (−t)nf(t) F (n)(s) f(t), peŕıodo p 1 1− e−ps ∫ p 0 e−stf(t)dt 1 Figura 15: Tabela de transformadas de Laplace 85 7 Sequências e séries numéricas Vimos que não há método muito eficiente para resolver PVIs do tipo y′′(t) + p(t)y′(t) + q(t)y(t) = f (t), y(t0) = y0, y′(t0) = y1, com p, q e f funções não-constantes. Vamos então procurar uma solução em série, ou seja, a solução será uma função dada por y(t) = ∞ ∑ n=0 an(t − t0) n, t ∈ I, onde I é um certo intervalo contendo t0. Vamos definir precisamente o que queremos dizer com este somatório infinito, e para isto precisamos entender o conceito de sequência. 7.1 Relações de equivalência Seja A um conjunto não-vazio. Uma relação de equivalência em A, é uma relação entre elemen- tos de A, em geral denotada por ∼, que é reflexiva, simétrica e transitiva: dados a, b, c ∈ A, temos que • a ∼ a (reflexividade), • se a ∼ b então b ∼ a (simetria), • se a ∼ b e b ∼ c então a ∼ c (transitividade). Relações de equivalência são usadas para classificar os elementos de A em “caixinhas”: tudo que é parecido (elementos que se relacionam) vão pra mesma caixinha. Exemplo 7.1. No conjunto dos números inteiros, defina a relação de equivalência por x ∼ y ⇔ x e y tem mesma paridade. Então ∼ é uma relação de equivalência. De fato: • então n ∼ n, pois n tem a mesma paridade que n, • se x ∼ y (x tem a mesma paridade que y), então y ∼ x (y tem a mesma paridade que x), • se x ∼ y (x tem a mesma paridade que y) e y ∼ z (y tem a mesma paridade que z), então x ∼ z (x tem a mesma paridade que z). ◁ Exemplo 7.2. A relação “ser igual”, em números inteiros, é uma relação de equivalência. De fato, para todos k, m, n ∈ N temos que • n = n, • se n = m então m = n, 86 • sek = m e m = n então k = n. ◁ Exemplo 7.3. Sejam x, y dois objetos quaisquer no universo que tenham alguma cor bem de- finida e considere a relação de equivalência: x ∼ y se x e y tem a mesma cor. Assim, um caminhão amarelo e uma banana estão relacionados, bem como um navio laranja e uma la- ranja. Um avião branco e uma uva rosa, no entanto, não estão relacionados. (É claro que esta relação de equivalência não está bem definida, mas é só um exemplo didático.) ◁ Exercício 7.4. Mostre que, em R, a relação x ∼ y se x2 = y2 é uma relação de equivalência. O próximo exemplo provavelmente é o exemplo mais famoso de relação de equivalência. Exemplo 7.5. Seja A = Z, m um inteiro positivo e defina a relação de congruência módulo m por: x ∼ y ⇔ m|x − y. Esta relação é em geral denotada por x ≡ y mod m. Uma forma análoga de se definir esta relação é dizer que x ∼ y se x e y deixam o mesmo resto quando divididos por m. Por exemplo, se m = 5, então diremos que x ∼ y quando 5|x− y, ou quando x e y deixam o mesmo resto quando divididos por 5. Note que: • 7 ∼ 12 (ou melhor, 7 ≡ 12 mod 5) pois ambos deixam resto 2 quando divididos por 5; • 6 ∼ 31, pois ambos deixam resto 1 quando divididos por 5. A relação x ≡ y mod m é uma relação de equivalência (prove!) e particiona Z em m caixi- nhas: • a caixinha dos números que deixam resto 0 quando divididos por m, • a caixinha dos números que deixam resto 1 quando divididos por m, • ... • a caixinha dos números que deixam resto m − 1 quando divididos por m. ◁ Dada uma relação de equivalência ∼ num conjunto A, definimos a classe de equivalência de x ∈ A como sendo x = {y ∈ A, x ∼ y}, ou seja, a classe de equivalência do x é o conjunto de todos os elementos de A que se relacionam com x. Outra notação para classe de equivalência é [x], ou mesmo [x]∼ se a relação precisar ser explicitada. O elemento particular x que usamos para escrever [x] é chamado de representante da classe. Note que qualquer elemento de [x] pode ser representante de [x], pois se y ∈ [x] então [x] = [y]. O conjunto das classes de equivalência, chamado de quociente de A pela relação ∼, é deno- tado por A/ ∼: (A/ ∼) = {x, x ∈ A}. Note que A/ ∼ é um conjunto de conjuntos. Informalmente, ele é o conjunto das “caixinhas”. 87 Exemplo 7.6. Quando consideramos a relação “igualdade” em Z, cada classe de equivalência só contém um elemento: [x] = {x}, pois somente x é igual a x. Portanto, podemos dizer que o quociente Z/ ∼ é o próprio Z (tecnicamente, existe uma bijeção entre Z e Z/ ∼, dada por f : Z → Z/ ∼, com f (x) = [x]. ◁ Exemplo 7.7. Considerando a relação x ∼ y como sendo a paridade, existem duas classes de equivalência: a dos pares e a dos ímpares. Podemos escolher 0 e 1 como representantes destas classes: [0] = {n ∈ Z, n tem a mesma paridade que 0} = {. . . ,−4,−2, 0, 2, 4, . . .}, [1] = {n ∈ Z, n tem a mesma paridade que 1} = {. . . ,−3,−1, 1, 3, . . .}. Portanto, o quociente Z/ ∼ é igual a Z/ ∼= {[0], [1]}, um conjunto com dois elementos. Note ainda que se n ∈ Z, então ou n ∈ [0] ou n ∈ [1], logo Z = [0] ∪ [1] e a união é disjunta. ◁ Exemplo 7.8. Considere em Z a relação de equivalência x ∼ y se x ≡ y mod 2. Vamos en- tender quais são as classes de equivalênciadesta relação. Quem está na classe do 0? Todos os inteiros n que satisfazem n ≡ 0 mod 2, ou seja, que 2|n − 0. Portanto, são os inteiros n que são divisíveis por 2 (os pares!). Assim, [0] = {. . . ,−2, 0, 2, . . .} = números pares. Como 1 /∈ [0] (já que 1 não é par), em que classe de equivalência o 1 está? Ora, se n ∼ 1 então n ≡ 1 mod 2, ou seja, 2|n − 1 (n − 1 é par). Logo, n é ímpar. Assim: [1] = {. . . ,−3,−1, 0, 1, 3, . . .} = números ímpares. Novamente temos que Z = [0] ∪ [1] e a união é disjunta. ◁ Exemplo 7.9. Na relação de equivalência x ∼ y quando x, y tem as mesmas cores, o quociente Universo/ ∼ é o conjunto das cores. ◁ Exercício 7.10. Mostre que se a relação de equivalência for x ∼ y se x ≡ y mod m então as classes de equivalência serão [0], [1], . . . , [m − 1] e portanto Z/ ∼= {0, 1, . . . , m − 1, }. Este conjunto é normalmente denotado por Zm. Mostre explicitamente que Zm = [0] ∪ [1] ∪ . . . ∪ [m − 1] e que esta união é disjunta. As classes de equivalência de uma relação de equivalência possuem algumas propriedades interessantes. Proposição 7.11. Para uma relação de equivalência ∼ definida num conjunto A, temos que: 1. Para todo x ∈ A temos que x ∈ [x]. 2. Se y ∈ [x] então x ∈ [y] e, portanto, [x] = [y]. 88 3. Se x, y ∈ A, então ou [x] = [y] ou [x] ∩ [y] = ∅. Podemos definir relações de equivalência por meio de partições. Uma partição de um con- junto A é uma família F não-vazia de subconjuntos de A com as seguintes propriedades: 1. se U, V ∈ F então ou U = V ou U ∩ V = ∅ e 2. ⋃ U∈F U = A. A Proposição 7.11 nos diz que uma relação de equivalência em A induz uma partição em A, dada pelas classes de equivalência. A recíproca deste fato também é verdadeira: Proposição 7.12. Seja F uma partição não-vazia de A. Defina uma relação de equivalência em A por x ∼ y ⇔ existe U ∈ F que contém x e y. Então ∼ é uma relação de equivalência e F é exatamente o conjunto das classes de equivalência de ∼. Assim, partições definem relações de equivalência. O quociente A/ ∼ deve ser pensado da seguinte forma: vamos fazer de conta que elementos de A que se relacionam são iguais, então A/ ∼ conterá somente os “tipos” de elementos distintos que estão em A. Exemplo 7.13. Um número racional em geral é denotado como uma fração a b com b ̸= 0, de modo que, aparentemente, Q = { a b , a, b ∈ Z, b ̸= 0 } ⊆ Z × Z∗. (51) Note que, com esta definição, estamos associando a fração a b ao par ordenado (a, b). A adição de números racionais é definida por a b + c d = ad + bc bd e o produto por a b · c d = ac bd . O problema é que, com a definição (51), as operações acima não ficam bem definidas. Por exemplo, temos que 1 2 + 1 3 = 5 6 e 2 4 + 1 3 = 10 12 , porém 5 6 e 10 12 são elementos diferentes do conjunto Q como definido em (51), pois não existe nenhum tipo de “simplificação” de fração definido - nada na definição indica que 5 6 e 10 12 são o mesmo elemento de Q, como sabemos que acontece. Vamos corrigir este problema fazendo a construção de Q de uma maneira um pouco diferente, usando uma relação de equivalência. 89 No conjunto Z × Z∗, defina a relação de equivalência (a, b) ∼ (c, d) se ad − bc = 0. Fica como exercício provar que ∼ é de fato uma relação de equivalência. Note que com esta relação, temos que (5, 6) ∼ (10, 12), pois 5 · 12− 6 · 10 = 0 - com nossa notação de par ordenado representando uma fração, isto nos diz que as frações 5 6 e 10 12 são equivalentes. O quociente (Z × Z∗)/ ∼ é o que chamamos de conjunto dos números racionais e deno- tamos por Q, em geral escrevendo um elemento (a, b) como a/b. Note que, em Q, uma fração pode ser “simplificada” até ficar da forma p/q com p, q coprimos, graças à relação de equiva- lência. Note que esta relação de equivalência é inclusive compatível com as operações usuais de soma e produto de números racionais. Em termos de pares ordenados, pensando que “(a, b) = a/b”, as operações são definidas como (a, b) + (c, d) = (ad + bc, bd) e (a, b) · (c, d) = (ac, bd). Para ver a compatibilidade das operações com a relação de equivalência, precisamos provar que podemos operar com qualquer representante de uma classe. Sejam (a0, b0), (a1, b1) ∈ [(a, b)] e (c0, d0), (c1, d1) ∈ [(c, d)]. Devemos provar que (a0, b0) + (c0, d0) está na mesma classe de equivalência que a soma (a1, b1) + (c1, d1), e o mesmo para os produtos. Note que (a0, b0) + (c0, d0) = (a0d0 + b0c0, b0d0) (a1, b1) + (c1, d1) = (a1d1 + b1c1, b1d1) Será que [(a0d0 + b0c0, b0d0)] = [a1d1 + b1c1, b1d1]? Para isto, precisamos que (a0d0 + b0c0)b1d1 − (a1d1 + b1c1)b0d0 = 0. Note que c0d1 − d0c1 = 0 e a0b1 − b0a1 = 0. Fica como exercício você concluir as contas (é só abrir a expressão anterior e tentar identificar estes termos por lá). Com estas operações, e da forma como definimos, usando um quociente de Z×Z∗ por uma relação de equivalência, Q é um corpo. ◁ Observação 7.14. A construção anterior de Q a partir de Z pode ser feita mais geralmente com um anel A qualquer, e o corpo obtido será chamado de corpo de frações de A. 90 Exemplo 7.15. Seja V um espaço vetorial e W um subespaço de V. Quocientes da forma V/W devem ser interpretados como quocientes da relação de equivalência u ∼ v ⇔ u − v ∈ W. Pode-se provar que V/W também é um espaço vetorial, e se dim Vlineares de ordem superior. Princípio da superposição. Wronskiano. Equações homogêneas com coeficientes constantes. Métodos: Coeficientes indeterminados, variação dos parâmetros. Redução de ordem. Algumas equações com coeficientes não-constantes. 3. Transformadas de Laplace. Solução de problemas de valor inicial. Funções degrau. Fun- ções impulso. A integral de convolução. 3 4. Sequências. Séries numéricas. Testes da integral, da comparação, do limite, da razão, da raiz, etc. Séries de potências. Séries de Taylor. 5. Soluções de equações diferenciais ordinárias por séries de potências (caso regular) e por séries de Frobenius (caso singular). 6. Problemas de valores de fronteira. Séries de Fourier. Equações diferenciais parciais. Equa- ções da onda e do calor. Método de separação de variáveis. Equação de Laplace. 7. Exponencial matricial. Sistemas lineares. Essas notas tem pouco conteúdo de modelagem e “real world applications". Isso é um pro- blema, e talvez eu consiga melhorar isso em versões futuras. Para este conteúdo e muitos exemplos aplicados, recomendo os excelentes livro [1] e [7]. Sobre o ensino de equações diferenciais Existe um texto bem legal do matemático ítalo-americano Gian-Carlo Rota que eu gosto muito: Ten lessons I wish I had learned before I started teaching differential equations. No texto, aparen- temente escrito em 2015, prof. Rota dá 10 “conselhos” para um bom curso introdutório de equações diferenciais. Eles são1: 1. A maioria do material ensinado atualmente é obsoleto. 2. Ensine o mínimo sobre equações de primeira ordem. 3. Equações diferenciais lineares com coeficientes constantes são muito importantes. 4. Ensine mudança de variáveis. 5. Ignore teoremas de existência e unicidade. 6. Sistemas lineares com coeficientes constantes são o filé com batatas do curso. 7. Fique longe de formas diferenciais. 8. Evite problemas que envolvem modelagem. 9. Dê uma motivação clara para a Transformada de Laplace. 10. Ensine conceitos ao invés de truques. Cada item é devidamente justificado no texto do prof. Rota. Com exceção do item 5 e talvez do item 7, eu concordo com todos os outros. Sobre o ensino de teoremas de existência e unicidade, acho que eles são importantes mesmo num curso introdutório. A ideia de que estamos procurando solução para uma equação que não sabemos se tem solução me parece estranha. Por outro lado, é bom ter em mente que 1Tradução livre. 4 em termos de equações diferenciais, “existir solução” é diferente de “vou exibir uma solução explícita”, mais ou menos como já acontece no Teorema Fundamental do Cálculo: a função F(x) = ∫ x 0 et2 dt, primitiva de f (t) = et2 , existe, só não sabemos exibí-la em termos de funções elementares. Em todo caso, pode ser uma boa ideia introduzir o Teorema de Picard e falar sobre o Teorema do Ponto Fixo, ainda que o assunto fique com pouco formalismo. Sobre as formas diferenciais, elas ajudam a “justificar” o motivo de aparentemente operar- mos com dy/dx como se isso fosse uma fração. É o assunto que dá suporte à notação de Leibniz. É preciso ter boa base de álgebra linear para poder acompanhar. No texto, vamos usar isso de modo intuitivo. Outro assunto é a introdução de coisas “computacionais”. Mesmo se você for aquele mate- mático puro que inverte matrizes 11 × 11 na mão, é importante ter um pouco de conhecimento sobre ferramentas computacionais para matemática - pois as matrizes podem ser 111 × 111 (bom, em teoria é só pegar mais papel, mas..). É bom saber fazer algumas simulações e usar alguns métodos computacionais. No mínimo, isso ajuda a fazer alguns exemplos e a ganhar intuição sobre certos problemas. Agradecimentos Este texto foi diagramado usando uma versão modificada do template LaTeX-lecture-notes- class, por V. H. Belvadi: https://vhbelvadi.com/latex-lecture-notes-class/ Contribuíram com alguns exercícios e exemplos: Mayara Caldas (PED em 2020), Pablo Lo- pes (PAD em 2020), Anna Carolina Ferrari (PAD em 2022). Ajudaram com correção de erros e/ou comentários durante a aula que viraram sugestões e foram incorporados ao texto: Marcos Emanuel do Nascimento, Maycon Bruno da Silva Santos, Gabriel Dyniewicz Lemos, Pedro Bernardinelli, Bruna Helena Rotta Santiago e muitos outros (me lembre de te agradecer!). Copyright Estas notas de aula estão regidas pela Licença Pública Creative Commons Atribuição 4.0 Inter- nacional: https://creativecommons.org/licenses/by/4.0/legalcode.pt Veja um resumo clicando aqui: https://creativecommons.org/licenses/by/4.0/deed.pt_BR Colabore! Achou algum erro neste material? Tem um exemplo/exercício legal que acha que deveria estar aqui? Me mande um e-mail: RMiranda@unicamp.br. 5 https://vhbelvadi.com/latex-lecture-notes-class/ https://creativecommons.org/licenses/by/4.0/legalcode.pt https://creativecommons.org/licenses/by/4.0/deed.pt_BR RMiranda@unicamp.br Comentários sobre as referências bibliográficas Existem excelentes livros de equações diferenciais. Para um curso básico, a referência [1] tem sido usada com muito sucesso em vários locais do mundo, principalmente por ilustrar os resul- tados por várias aplicações em física, engenharia, etc. O livro [2] é usado na Unicamp faz muito tempo. O livro [3] é um clássico no Brasil, e educou muitas gerações de matemáticos. Outros livros famosos e muito bons são [4], [5] e [6]. Referências bibliográficas [1] Dennis G. Zill. A First Course in Differential Equations with Modeling Applications. Cen- gage Learning, 11 edition, 2018. [2] William E. Boyce and Richard C. DiPrima. Elementary differential equations and boundary value problems. John Wiley & Sons, 2005. [3] Djairo Guedes de Figueiredo. Equações diferenciais aplicadas. 12o Coloquio Brasileiro de Matematica. IMPA, 1979. [4] William F. Trench. Elementary Differential Equations. Faculty Authored and Edited Books & CDs., 2013. [5] Gilbert Strang. Differential equations and linear algebra. Wellesley-Cambridge Press, 2014. [6] George F. Simmons. Differential equations with applications and historical notes. CRC/- Taylor & Francis, 2017. [7] Dennis G. Zill and Warren S. Wright. Advanced Engineering Mathematics. 5a edition, 2014. [8] Djairo Guedes Figueiredo and Aloisio Freiria Neves. Equações diferenciais aplicadas. IMPA, 2008. [9] Adam E. Parker. Wronskians and linear independence: A theorem misunderstood by many. MAA Convergence, January 2021. [10] Michael A. B. Deakin. The development of the laplace transform, 1737-1937: I. euler to spitzer, 1737-1880. Archive for History of Exact Sciences, 25(4):343–390, 1981. [11] Michael A. B. Deakin. The development of the laplace transform, 1737–1937 ii. poincaré to doetsch, 1880–1937. Arch. Hist. Exact Sci., 25:351–381, 1982. [12] José Ruidival dos Santos Filho. A função delta de Dirac. Notas de Minicurso, 2o Colóquio de Matemática do Sudeste. SBM, 2013. [13] J. Stewart. Cálculo, volume 1. Cengage Learning, 9 edition, 2022. [14] Elon Lages Lima. Curso de Análise. IMPA, 15 edition, 2019. [15] Matt Hudelson. Proof without words: The alternating harmonic series sums to ln 2. Math. Mag., page 294, 2010. [16] Aloisio Freiria Neves. Forma de jordan e equações diferenciais lineares. Notas de aula. 6 1 Exemplos e definições iniciais Este capítulo apresenta as definições iniciais sobre equações diferenciais ordinárias, incluindo representações gráficas, questões computacionais e o principal: os teoremas que nos dão con- dições sobre a existência e unicidade de soluções para tais equações. 1.1 Equações.. diferenciais? Desde a tenra idade, aprendemos a resolver equações. Dizem que até alguns animais conse- guem resolver equações simples2. As equações da nossa infância envolvem encontrar “nú- meros” que, quando colocados no lugar as incógnitas, tornam iguais as expressões que estão em ambos os lados de um símbolo “=”. Por exemplo, conseguimos facilmente encontrar um número x ∈ R que resolve a equação 2x + 1 = 7: o único valor possível é x = 3. Continuaremos a resolver equações neste curso, mas agora asé ilimitado superiormente. 2. dado a ∈ K, a > 0, existe n ∈ N tal que 0 0, existe n ∈ N tal que na > b. Dizemos que um corpo K é arquimediano quando uma das condições do lema anterior são verdadeiras para ele. Proposição 7.21. Q é corpo arquimediano. Exercício 7.22. Demonstre que inf(X) = 0 e sup(X) = 1, onde X é o conjunto definido no Exercício 7.19. Exercício 7.23. Considere os conjuntos de racionais X = {x ∈ Q, x ≥ 0, x2 2}. Mostre que X é limitado superiormente, não tem supremo e Y é limitado inferiormente, mas não tem ínfimo. Dizemos que um corpo ordenado K é completo quando todo subconjunto não-vazio X ⊂ K que é limitado superiormente possui supremo. Exemplo 7.24. Vimos no Exemplo 7.23 que existem conjuntos limitados em Q que não tem supremo e/ou ínfimo. Logo Q não é completo. ◁ Axioma: Existe um corpo ordenado completo, denotado R e chamado de corpo dos números reais. Como N ⊂ R é ilimitado, segue que R é arquimediano. O conjunto R \ Q é chamado de conjunto dos números irracionais. Vamos parar os spoilers de Análise I por aqui. Em particular, R pode ser construído utilizando completamento de espaços métricos ou usando cortes de Dedekind (conjuntos parecidos com os que criamos no Exercício 7.23), mas não faremos isto aqui. 92 7.3 Sequências Vamos começar esta seção com uma pergunta: na sequência 2, 10, 12, 16, 17, 18, 19, x, qual é o valor de x? Se sua resposta foi algo do tipo “x é o que eu quiser”, você está certo18. Uma sequência de números reais é uma função x : N → R, onde usaremos N sem o zero. O valor x(n) será denotado por xn, o n-ésimo termo da sequência. A sequência será denotada por (xn)n∈N ou simplesmente (xn) e sempre representada por uma lista entre parênteses, como (xn)n∈N = (x1, x2, x3, . . .). Em geral a sequência é definida por meio de uma fórmula para seu termo geral, xn, e não necessariamente precisa começar de n = 1. Exemplo 7.25. Se a ∈ R, podemos definir a sequência (xn)n∈N por xn = a, para todo n ∈ N. Esta sequência é constante, (xn)n = (a, a, a, . . .). ◁ Exemplo 7.26. A sequência de termo geral xn = n n − 1 , com n ≥ 2 é (xn)n≥2 = ( 2 1 , 3 2 , 4 3 , . . . ) . ◁ Exemplo 7.27. Sejam a, r ∈ R. A sequência de termo geral xn = a + (n − 1)r é chamada de progressão aritmética com termo inicial a e razão r: (xn)n = (a, a + r, a + 2r, a + 3r, . . .). ◁ Exemplo 7.28. Sejam a, q ∈ R. A sequência de termo geral xn = aqn−1 é chamada de progressão geométrica com termo inicial a e razão q: (xn)n = (a, aq, aq2, aq3, . . .). ◁ Exemplo 7.29. A sequência de termo geral xn = 1/n é (xn)n = (1/n)n = (1, 1/2, 1/3, . . .). ◁ Exemplo 7.30 (Sequência de Fibonacci). Além de darmos o termo geral, podemos fornecer al- guma fórmula de recorrência para a sequência. Defina x1 = 1, x2 = 1 e daí xn = xn−1 + xn−2, para n ≥ 3. Esta é a famosa sequência de Fibonacci. Seus primeiros termos são 1, 1, 2, 3, 5, 8, 13, 21, 34, . . . e esta sequência aparece com frequência na natureza. ◁ Exemplo 7.31. Considere (xn)n a sequência definida por: xj é o j-ésimo número natural cujo “nome” começa com “d”. Então (xn)n = (2, 10, 12, 16, 17, 18, 19, 200, . . .). Esta sequência coin- cide com a sequência do começo do capítulo - com a diferença de que esta aqui está bem defi- nida. Você consegue dizer quem é x2000? ◁ Observação 7.32. Ainda sobre o exemplo anterior, dar alguns termos da sequência e pedir o próximo, sem fornecer a regra geral, é um problema indefinido que costuma ter infinitas solu- ções. Por exemplo: dado que a1 = 4 3 , a2 = 9 4 , a3 = 16 5 , a4 = 25 6 , a sequência (an)n parece ter como termo geral an = (n + 1)2 n + 2 . Neste caso, teríamos a5 = 36 7 . Porém, o termo geral também poderia ser an = −17n5 360 + 89n4 180 − 169n3 90 + 571n2 180 − 169n 120 + 1 e neste caso teríamos a5 = 0. 18Para os curiosos sobre esta sequência, veja o Exemplo 7.31. 93 Observação 7.33. O material sobre sequências e séries aqui é bem básico e muitos lemas, pro- posições e teoremas serão apresentados sem suas demonstrações. Uma boa referência para acompanhar o assunto em nível básico é [13] (livro de Cálculo do Stewart, vol. 2 se for na ver- são em português). Para o mesmo assunto, tratado num nível mais avançado, veja [14] (livro de Análise do Elon, vol. 1). Se (xn)n é uma sequência, o conjunto dos termos da sequência {xn} é um conjunto que contém todos os termos da sequência sem nenhuma ordem em particular. Note que o conjunto dos termos da sequência é diferente da sequência. Exemplo 7.34. Se (xn)n = (a, a, a, . . .), o conjunto dos termos é unitário: {xn}n = {a}. ◁ Diremos que a sequência (xn) é limitada superiormente se existe b ∈ R tal que xn ≤ b para todo n ∈ N. Analogamente, dizemos que (xn) é limitada inferiormente se existe a ∈ R tal que a ≤ xn para todo n ∈ N. A sequência é limitada se for limitada superiormente e inferiormente. Dada uma sequência x = (xn), uma subsequência de x é a restrição da função x a algum subconjunto infinito N ⊂ N, N = {n1, n2, . . .}, e será denotada (xnj)j∈N. Proposição 7.35. Subsequências de sequências limitadas também são limitadas. Uma sequência (xn) é crescente, decrescente, não-crescente ou não-decrescente conforme a função x : N → R seja. Chamaremos a todas elas de sequências monótonas. Dizemos que uma sequência x = (xn) converge para a ∈ R, ou que a é o limite da sequência x = (xn), se para todo ε > 0, existir n0 ∈ N tal que |xn − a| 0, tome qualquer n0 ∈ N. Então |xn − a| = |a − a| = 0 0. Como R é arquimediano, o conjunto dos naturais é ilimitado, portanto existe n0 ∈ N tal que n0 > 1/ε. Logo, 1/n0 n0, teremos |xn − 0| = |xn| = 1/ne para o limite de (1/xn) (caso xn ̸= 0). Exercício 7.48. Se lim xn = 0 e (yn) é limitada, então lim xnyn = 0. Exercício 7.49. Se xn ≤ yn para todo n e (xn), (yn) são sequências convergentes, então lim xn ≤ lim yn Exercício 7.50 (Teorema de Bolzano-Weierstrass, 1817). Toda sequência limitada possui uma sub- sequência convergente. Existem várias possibilidades para que uma sequência não seja convergente. Destacaremos uma delas em especial. Diremos que limn→∞ = ∞ quando dado M > 0, existe n0 ∈ N tal que se n ≥ n0 temos an > M. Exercício 7.51. Mostre que lim n→∞ 2n = ∞. Por fim, o resultado abaixo mostra que sequências se comportam bem junto com funções contínuas. A prova deste resultado fica como exercício, e é um boa hora de treinar seu conheci- mento sobre epsilons, deltas e convergência de sequências. Proposição 7.52. Se lim n→∞ xn = a e f é uma função contínua em a, então lim n→∞ f (xn) = f (a). Exercício 7.53. Calcule alguns termos e o limite da sequência (xn)n, onde xn = exp ( 1 n ) . Seja x = (xn) uma sequência num corpo K. Quando temos xn → a, os termos de (xn) se aproximam de a quando os valores de n são grandes. Portanto, naturalmente os termos de (xn) se aproximam um dos outros (pois todos se aproximam de a). Não é verdade, no entanto, que se os termos de (xn) estão cada vez mais próximos uns dos outros, eles deverão convergir para algum lugar. 95 Exercício 7.54. Tente construir uma justificativa para o parágrafo anterior: encontre uma sequência cujos termos vão se aproximando uns dos outros mas a sequência não converge. Dizemos que uma sequência (xn)n é de Cauchy se dado ε > 0, existe n0 ∈ N tal que |xn − xm| 0. Da convergência, segue que existe n0 ∈ N tal que para todo n ≥ n0, temos |xn − a| n0. Então temos que |xm − xn| = |(xm − a)− (xn − a)| ≤ |xm − a| − |xn − a| 0. Como λ ∈ [0, 1), segue que a sequência (λn−1) converge para zero. Portanto, λn−1 1 − λ |x2 − x1| → 0. Seja n0 tal que λn−1 1 − λ |x2 − x1| n0 teremos |xn+p − xn| ≤ λn−1 1 − λ |x2 − x1| ≤ ε |x2 − x1| |x2 − x1| = ε Ou seja: (xn) é de Cauchy! ◁ 96 Exemplo 7.57. Seja a ∈ R e encontre o limite da sequência (xn) dada por xn+1 = 1 2 ( xn + a xn ) , n ≥ 1, supondo que ela converge. Suponha que (xn) converge para um certo número α. Então podemos calcular limite na expressão acima, obtendo α = lim xn = lim 1 2 ( xn + a xn ) = 1 2 ( lim xn + a lim xn ) = 1 2 ( α + a α ) . Resolvendo a equação em α, obtemos α = √ a, logo se (xn) convergir, teremos xn → √ a. ◁ Observação 7.58. Você pode usar a sequência do Exemplo 7.57 para resolver o Exercício 7.23. Exercício 7.59. Mostre que a sequência dada por x1 = a e xn+1 = 1 2 ( xn + a xn ) , n ≥ 1, satisfaz |xn+2 − xn+1| ≤ λ|xn+1 − xn|, portanto ela é de Cauchy. Lema 7.60. Toda sequência de Cauchy é limitada. Prova. A prova pode ser feita de forma análoga à do Lema 7.45, quando provamos que sequências con- vergentes são limitadas: tome ε = 1 para resolver o problema da limitação dos termos com m, n ≥ n0 e “recolha” os termos de fora usando máximos/mínimos de conjuntos finitos. ■ Teorema 7.61 (Critério de Cauchy). Em R, toda sequência de Cauchy é convergente. Exercício 7.62. Em Q, existem sequências de Cauchy que não são convergentes (ou: Q não é completo). Consegue um exemplo? 7.4 Séries Seja (an) uma sequência em R e considere a sequência (sn), chamada de sequência das somas parciais, e dada por s1 = a1 s2 = a1 + a2 = s1 + a2 s3 = a1 + a2 + a3 = s2 + a3 sn = n ∑ k=1 ak = a1 + . . . + an = sn−1 + an A sequência (sn) pode ou não ser convergente. Se for, denotaremos seu limite por s = lim sn = ∞ ∑ n=1 an. A soma anterior é chamada de série de termo geral an. O número s é chamado de soma da série. 97 Exemplo 7.63. Seja a ∈ (0, 1) e considere a sequência (xn) dada por xn = 1 + a + . . . + an. Esta sequência converge? Para onde? Vocês já devem conhecer o truque: xn = 1 + a + . . . + an axn = a + a2 + . . . + an+1 Logo xn − axn = 1 − an+1 e daí xn = 1 − an+1 1 − a . Como a ∈ (0, 1), segue que an+1 → 0, portanto xn → 1 1 − a . ◁ O próximo resultado é o primeiro de vários que estudam a convergência/divergência de uma série. Teorema 7.64 (TCM adaptado). Se an ≥ 0, a série ∑∞ n=1 an converge se, e só se, a sequência (sn) é limitada. Prova. A prova não é difícil: como os termos são positivos, (sn) é monótona crescente. Se for limitada, irá convergir! ■ Apesar da demonstração anterior, na prática, em casos concretos, não será tão fácil mostrar diretamente que (sn) é uma sequência limitada. Exemplo 7.65. A série ∞ ∑ n=1 1 n é chamada de série harmônica, e ela diverge. De fato, seja sn = 1 + 1/2 + . . . + 1/n. Note que s2 = 1 + 1 2 s4 = 1 + 1 2 + 1 3 + 1 4 ≥ 1 + 1 2 + 1 4 + 1 4 = 1 + 1 2 + 2 4 s8 = 1 + 1 2 + 1 3 + 1 4 + 1 5 + 1 6 + 1 7 + 1 8 ≥ 1 + 1 2 + 2 4 + 4 8 s2n ≥ 1 + 1 2 + 2 4 + 4 8 + . . . + 2n−1 2n =1 + n · 1 2 Portanto, a subsequência s2n → ∞, e daí sn → ∞! ◁ Exercício 7.66. A série ∑∞ n=1(−1)n diverge. Como é a sequência das somas parciais? 98 7.5 Critérios de convergência de séries numéricas Nesta seção veremos alguns critérios para determinar se uma série converge. Teorema 7.67. Se ∑∞ n=0 an converge, então an → 0. Prova. De fato, seja (sn)n≥1 dada por sn = a1 + . . . + an. Então s = ∞ ∑ n=1 an = lim n→∞ sn, ou seja, temos a convergência a1, a1 + a2, a1 + a2 + a3, . . . → s. Agora um truque: se a sequência a1, a1 + a2, a1 + a2 + a3, . . . → s então é óbvio que podemos eliminar alguns termos iniciais da sequência e ela continuará convergindo, ou seja: a1 + a2, a1 + a2 + a3, . . . → s Portanto, (sn+1)n também satisfaz sn+1 → s. Note que nós não eliminamos termos da sequência (an), isto faria com que a soma fosse alterada. Só alteramos a sequência das somas parciais! Sendo assim, a sequência (sn+1 − sn)n converge para 0. Como sn+1 − sn = an, segue que an → 0. ■ Exercício 7.68. A recíproca do teorema anterior é falsa. Consegue um exemplo? Exercício 7.69. A série ∑∞ n=1 n + 1 n diverge. Exercício 7.70. A série ∑∞ n=0 1 n(n + 1) é convergente, e soma 1. Para provar, utilize frações parciais e calcule as somas parciais. Este tipo se série é chamada de série telescópica (descubra o motivo deste nome!). Exercício 7.71. Podemos generalizar um pouco o Exemplo 7.63 da seguinte forma: seja a ∈ R. Se |a|− 1 2 + 1 3 − 1 4 + 1 5 − 1 6 + . . . converge (para ln(2)). De fato, seja sN = ∑N n=1 (−1)n+1 n . Temos que • s1 = 1 • s3 = 1 − ( 1 2 − 1 3 ) • s5 = 1 − ( 1 2 − 1 3 ) − ( 1 4 − 1 5 ) Ou seja, quando pegamos os termos ímpares de (sn)n, começamos em 1 e vamos decres- cendo. Esta sequência só contém números positivos, portanto é limitada inferiormente por 1 (prove por indução!). Por outro lado: • s2 = 1 − 1 2 • s4 = ( 1 − 1 2 ) + ( 1 3 − 1 4 ) • s6 = ( 1 − 1 2 ) + ( 1 3 − 1 4 ) + ( 1 5 − 1 6 ) Ou seja, quando pegamos os termos pares de (sn)n, começamos em 1/2 e vamos aumen- tando. Todos os termos desta sequência são menores do que 1 (prove por indução!). Como s2n+1 − s2n = 1 2n + 1 > 0 segue que lim s2n+1 − lim s2n = 0 e daí lim s2n+1 = lim s2n. Se denotarmos este limite por s, teremos que (sn) converge para s. Quem é s? Podemos mostrar que s = ln(2) utilizando a soma de Riemann da função f (x) = 1/x no intervalo [1, 2], pegando intervalos de mesmo comprimento e considerando o erro por excesso. Isto está provado em [15]. Escrever uma série como uma soma de Riemann é uma forma muito boa de obter sua soma! ◁ Exemplo 7.77 (Cuidado com séries condicionalmente convergentes!). Seja s = ∞ ∑ n=0 (−1)n+1 n = 1 − 1 2 + 1 3 − 1 4 + 1 5 − 1 6 + . . . . 100 Acabamos de provar que s = ln(2). Porém: 1 − 1 2 + 1 3 − 1 4 + 1 5 − 1 6 + 1 7 − 1 8 + 1 9 − 1 10 + . . . = ( 1 − 1 2 ) − 1 4 + ( 1 3 − 1 6 ) − 1 8 + ( 1 5 − 1 10 ) + . . . = 1 2 − 1 4 + 1 6 − 1 8 + 1 10 + . . . = 1 2 ( 1 − 1 2 + 1 3 − 1 4 + . . . ) = ln(2)/2 Série condicionalmente convergentes podem ser re-arranjadas para obtermos qualquer nú- mero! Que coisa, não? ◁ Não é nosso objetivo neste curso discutir com detalhes testes de convergência. Utilizaremos essencialmente quatro critérios para decidir sobre a convergência de uma série. • teste da comparação • teste da razão • teste da raiz • teste da integral Estes testes em geral são aplicados nos termos gerais das séries, mas todos tem em comum algum tipo de resultado inconclusivo. Ou seja, existem séries que nenhum deles consiga provar a convergência/divergência da série. Existem testes mais eficientes que estes, mas também existem séries bastante resistentes a testes. Exemplo 7.78. Seja (pn)n a sequência dos números primos, ou seja, pn é o n-ésimo número primo, (pn)n = (2, 3, 5, 7, 11, . . .). Seja an = 1 se pn e pn + 2 são primos e an = 0 caso contrá- rio. Provar que ∑∞ n=1 an diverge é equivalente a provar que existem infinitos números primos gêmeos. Este ainda é um problema em aberto. ◁ Enfim, vamos aos testes. Teorema 7.79 (Teste da comparação). Sejam ∑∞ n=0 an e ∑∞ n=0 bn duas séries de termos não-negativos, com 0 ≤ an ≤ bn para todo n ≥ 1. • se ∑∞ n=0 an diverge então ∑∞ n=0 bn também diverge. • se ∑∞ n=0 bn converge então ∑∞ n=0 an também converge. A vantagem do teste da comparação é que ele é fácil de aplicar. A desvantagem é que você precisa usar outra série com comportamento bem conhecido. Na medida que você conhecer a convergência de mais séries, conseguirá usar melhor este teste. 101 Exemplo 7.80. Estude a convergência da série ∞ ∑ n=1 ln n n . Seja an = ln n n . Note que ln(e) = 1 e ln(x) é uma função crescente, portanto ln(n) > 1 para todo n ≥ 3. Assim, temos que ln n n > 1 n para todo n ≥ 3 e como a série ∑∞ n=3 1 n é divergente, segue que ∑∞ n=3 ln(n) n também diverge - e daí, incluindo uma quantidade finita de termos, provamos também que ∑∞ n=1 ln(n) n diverge. ◁ Exercício 7.81. Estude a convergência da série ∞ ∑ n=1 1 2n + n2 . Exercício 7.82. Estude a convergência da série ∞ ∑ n=1 1 12 + 22 + . . . + n2 . Teorema 7.83 (Teste da razão). Seja (an)n uma sequência com an ̸= 0 para todo n e suponha que lim n→∞ |an+1| |an| = L. Então, • se L 1, a série é divergente (considere ∞ > 1). • se L = 1, o teste é inconclusivo. Novamente a vantagem é que é um teste simples de aplicar. A desvantagem neste caso é que ele é inconclusivo em muitos casos. É especialmente útil quando a série envolve fatoriais ou potências dependendo de n. Exemplo 7.84. Estude a convergência da série ∞ ∑ n=1 n3 3n . Seja an = n3 3n . Temos que an+1 an = (n + 1)3 3n+1 3n n3 = (n + 1)3 n3 1 3 Portanto, lim n→ an+1 an = 1 3 1, a série é divergente (considere ∞ > 1). • se L = 1, o teste é inconclusivo. Este é um teste muito poderoso, porém o limite pode ser complicado de calcular. Útil quando a série envolve potências dependendo de n. Exemplo 7.88. Estude a convergência da série ∞ ∑ n=1 ( 2n + 4 3n + 1 )n . Seja an = ( 2n + 4 3n + 1 )n . Então n √ an = n √( 2n + 4 3n + 1 )n = 2n + 4 3n + 1 e com isso lim n→∞ n √ an = 2 3 0, de modo que • f (x) ≥ 0, • f (x) é decrescente e • an = f (n), então a série ∑ an converge se, e só se, ∫ ∞ M f (x) dx converge. O teste da integral funciona muito bem. O único problema é conseguir calcular a integral. 103 Observação 7.92. Cuidado: Não é verdade que ∞ ∑ n=1 an = ∫ ∞ M f (x) dx. Exemplo 7.93. Estude a convergência da série ∞ ∑ n=1 n n2 + 1 . Para aplicar o teste da integral, devemos estudar a convergência da integral ∫ ∞ 1 x x2 + 1 dx, e não é difícil provar que esta integral diverge! Logo, a série também diverge. ◁ Exercício 7.94. Estude a convergência da série ∞ ∑ n=1 n tan ( 1 n ) . Exercício 7.95. Estude a convergência da série ∞ ∑ n=1 1 (3 + 2n)2 . 104 8 Soluções em séries para equações diferenciais Neste capítulo mostraremos como usar uma função definida por uma série para resolver equa- ções diferenciais. Vamos começar relembrando o polinômio de Taylor de uma função, que pode ser usado para aproximar uma função f (x) por um polinômio. 8.1 Polinômios de Taylor Vimos no primeiro curso de cálculo que se f (x) é uma função com derivadas de ordem n no ponto x = x0, seu polinômio de Taylor de grau n é dado por Tn( f , x0)(x) = f (x0) + f ′(x0)(x − x0) + f ′′(x0) 2! (x − x0) 2 + . . . + f (n)(x0) n! (x − x0) n. O gráfico do polinômio de Taylor de grau 1 é exatamente a reta tangente ao gráfico de f no ponto (x0, f (x0)): T1( f , x0)(x) = f (x0) + f ′(x0)(x − x0). Um dos principais ensinamentos do curso de Cálculo I é que a função y = f (x0)+ f ′(x0)(x− x0) aproxima muito bem y = f (x) para valores de x próximos de x0. De forma mais geral, o po- linômio de Taylor de grau n é a melhor maneira que temos para aproximar f por um polinômio de grau n. Exemplo 8.1. Considere f (x) = ex. Então temos que f (n)(0) = 1 para todo n. Com isso, alguns polinômios de Taylor de f (x) na origem são: p1(x) = T1( f , 0)(x) = 1 + x, p2(x) = T2( f , 0)(x) = 1 + x + x2 2 , p5(x) = T5( f , 0)(x) = 1 + x + x2 2 + x3 3! + x4 4! + x5 5! e p10(x) = T10( f , 0)(x) = 1 + x + x2 2! + x3 3! + . . . + x10 10! . Calculando p1(1), p2(1), p5(1) e p10(1), teremos aproximações cada vez melhores para p(1). ◁ É importante ter em mente que o polinômio de Taylor de grau n aproxima a função, mas não é igual à função, exceto no caso da função já ser um polinômio de grau n. Se x está próximo de a mas é diferente de a, a diferença | f (x) − p(x)| é positiva e será denotada por En( f , x) ou somente En(x). Podemos quantificar este erro de várias formas, e vamos relembrar uma delas. Teorema8.2 (Fórmula de Taylor com erro integral). Seja f uma função com as n + 1 primeiras derivadas contínuas num intervalo contendo o ponto x = a. Então, para todo x neste intervalo temos f (x) = Tn( f , a) + En(x), onde Tn( f , a) = n ∑ k=0 f (k)(a) k! (x − a)k 105 é o polinômio de Taylor de grau n e o erro é dado por En(x) = 1 n! ∫ x a (x − t)n f (n+1)(t) dt. O polinômio de Taylor é, como todo polinômio, uma soma finita de termos. O que iremos fazer agora é representar funções por somas infinitas, f (x) = ∞ ∑ n=0 anxn = a0 + a1x + a2x2 + . . . + anxn + . . . . (52) Mais que isto, iremos definir funções por meio de uma série como esta. Na igualdade ante- rior, se truncarmos a série da direita para obter um polinômio de grau n, não teremos mais igualdade, mas o que sobrará na direita será exatamente o polinômio de Taylor de f de grau n. 8.2 Séries de Potências Uma série de potências é uma série da forma ∞ ∑ n=0 an(x − x0) n = a0 + a1(x − x0) + b2(x − x0) 2 + . . . + bk(x − x0) k + . . . (53) onde x é uma variável e os ak são os coeficientes da série. Note que para cada valor fixado de x, a série (53) se torna uma série numérica, como as que estudamos no capítulo anterior, portanto ela pode ser convergente ou divergente. Uma série de potências, portanto, é uma função de x, cujo domínio é o conjunto dos pontos x para os quais ela converge. Note que o domínio sempre inclui x0, pois para x = x0 a série sempre converge. Diremos que ∑∞ n=0 an(x − x0) n é absolutamente convergente em x = b se a série ∞ ∑ n=0 |an| · |b − x0|n converge. Como esperado, convergência absoluta ⇒ convergência, mas a recíproca é falsa. Não é esperado que uma série seja convergente para todo valor de x. Se a série ∞ ∑ n=0 an(x − x0) n converge para todo x no intervalo (x0 − R, x0 + R) e diverge para |x − x0| > R, diremos que o raio de convergência da série é R. Os testes de convergência que aplicamos anteriormente para séries numéricas em geral revelam o raio de convergência. Proposição 8.3. Dada uma série de potências ∑∞ n=0 an(x − x0) n, existem três possibilidades para seu raio de convergência: 1. R = 0, ou seja, a série só converge em x = x0, 2. R = ∞, ou seja, a série converge para todo x ∈ R ou 3. 0 R. 106 Exemplo 8.4. Determine o raio de convergência de ∑∞ n=1 (2x + 1)n n2 . Vamos aplicar o teste da razão. ∣∣∣∣ (2x + 1)n+1 (n + 1)2 · n2 (2x + 1)n ∣∣∣∣ = |2x + 1| · n2 (n + 1)2 Portanto, |an+1/an| → |2x+ 1| e o teste da razão diz que a série de potências converge desde que |2x + 1| |x1 − x0|. Exemplo 8.7. Estude a convergência da série ∑∞ n=1(−1)n+1n(x − 1)n. O termo geral desta série é an = (−1)n+1n(x − 1)n. Usando o teste da razão temos ∣∣∣∣ an+1 an ∣∣∣∣ = ∣∣∣∣ (−1)n+2(n + 1)(x − 1)n+1 (−1)n+1n(x − 1)n ∣∣∣∣ = (n + 1)|x − 1| n → |x − 1|. Portanto, se |x − 1| 2 ela diverge. O que acontece se x = 0 ou x = 2? Vamos testar: Se x = 0 teremos ∞ ∑ n=1 (−1)n+1n(−1)n = ∞ ∑ n=1 n → diverge Se x = 2 teremos ∞ ∑ n=1 (−1)n+1n = ∞ ∑ n=1 (−1)n+1n → diverge Portanto a série converge se, e só se, 0 0 (ou seja, o raio de convergência é R). Então: 1. f (x)± g(x) = ∞ ∑ n=0 (an ± bn)(x − x0) n para |x − x0| 0 Então: 1. a função f é contínua, tem derivadas de todas as ordens e a derivada pode ser calculada derivando os termos da série, ou seja, f ′(x) = a1 + 2a2(x − x0) + 3a3(x − x0) 2 + . . . ; 2. para todo n ∈ N, an = f (n)(x0) n! ; 3. ∫ f (x) dx = c + a0(x − x0) + a1 (x − x0) 2 2 ++a2 (x − x0) 3 3 + . . . = c + ∞ ∑ n=0 an (x − x0) n+1 n + 1 Além disso, o raio de convergência das séries em (1) e (3) também é R. A proposição anterior nos mostra que podemos derivar e integrar uma série convergente termo a termo, e isto é fantástico! Dada uma função f (x), a série ∞ ∑ n=0 f (n)(x0) n! (x − x0) n é chamada de série de Taylor de f (x) em x = x0. Se f tem expansão em série de Taylor em torno de x = x0 com raio de convergência R > 0, ela é dita ser analítica em x0 e daí podemos escrever f (x) = ∞ ∑ n=0 f (n)(x0) n! (x − x0) n. (54) Quando “R = ∞”, a função é dita ser inteira em x0. Note que a expressão (54) é como se fizéssemos n → ∞ na expressão (52). Exemplo 8.10. Seja f (x) = ex. Como f (n)(x) = ex para todo n ∈ N, temos que f (n)(0) = 1, para todo n ∈ N. A série de Taylor de f é ∑∞ n=0 1 n! xn, que tem raio de convergência infinito, logo ex = ∑∞ n=0 1 n! xn. ◁ 108 Exercício 8.11. Calcule as séries de Taylor das funções abaixo, e determine os raios de convergência. • p(x) = 1 1 + x , ponto x = 0. • q(x) = sen (x), ponto x = 0. • f (x) = cos(x), ponto x = 0. • g(x) = ln(x), ponto x = 1. • h(x) = { e−1/x, x > 0 0 x ≤ 0 , ponto x = 0. Quando temos séries convergentes, às vezes podemos manipulá-las termo a termo. Além disso, se tivermos uma boa “enciclopédia” de séries, podemos reconhecer algumas delas como funções já bem conhecidas. 8.2.1 Determinando a soma de séries A série 1 12 + 1 22 + 1 32 + 1 42 + . . . 1 n2 + . . . é convergente. Qual é sua soma? O problema de se obter a soma desta série é conhecido como problema de Basel. Ele foi proposto por Pietro Mengoli em 1650 e foi resolvido por Euler em 1734. Vários matemáticos da família Bernoulli tentaram sem sucesso resolver este problema. O nome “problema de Basel” é uma homenagem à cidade natal tanto de Euler como dos Bernoulli, que fica na Suiça. Curioso sobre a soma? 1 12 + 1 22 + 1 32 + 1 42 + . . . 1 n2 + . . . = π2 6 . Na prova original, Euler “fatorou” a série de Taylor de a série de Taylor de sen (x)/x como se fosse um polinômio infinito. Se f é uma função analítica em x = a, ou seja, que é representada por sua série de Taylor em torno de x = a, então é possível escrever f (x) = f (a) + f ′(a)x + f ′′(a) 2! x2 + f ′′′(a) 3! x3 + . . . + f (n)(a) n! xn + . . . Exemplo 8.12. Determine se a série abaixo é convergente. Se for, determine sua soma: 1 − 1 3 + 1 5 − 1 7 + 1 9 + . . . ◁ Para resolver este problema, seja f (x) = arctan(x). Assim f ′(x) = 1 1 + x2 = 1 1 − (−x2) . 109 Figura 16: Recorte do artigo original de Euler, disponível integralmente aqui: http:// eulerarchive.maa.org//pages/E041.html. Esta é a expressão da soma de uma PG, desde que |x|5 + . . . f (x) = arctan(x) = ∞ ∑ n=0 (−1)nx2n+1 2n + 1 = x − x3 3 + x5 5 + . . . Note que a série anterior converge se x = 1 também (justifique!). Fazendo x = 1 obtemos π 4 = ∞ ∑ n=1 (−1)n 2n + 1 = 1 − 1 3 + 1 5 − 1 7 + 1 9 + . . . ou ainda π = ∞ ∑ n=1 (−1)n4 2n + 1 = 4 − 4 3 + 4 5 − 4 7 + 4 9 + . . . Dificuldade: achar a função que tenha a série de Taylor que queremos. Seja s ∈ C e considere a série ∞ ∑ n=1 1 ns . Lembre que se s = a + bi então ns = na+bi = na( cos(b) + isen (b) ) , e com isto |ns| = na. Portanto, a soma acima converge quando a > 1. Denote ζ(s) = ∞ ∑ n=1 1 ns . 110 http://eulerarchive.maa.org//pages/E041.html http://eulerarchive.maa.org//pages/E041.html Esta função, com domínio {z ∈ C, Re(z) > 1} é conhecida como função zeta de Riemann. No caso s = 1, a série não converge (é a série harmônica). É possível estender analiticamente o domínio da função ζ(s) para todos os valores z ∈ C com z ̸= 1. O problema de Basel então é determinar explicitamente ζ(2). Além de sabermos que ζ(2) = π2/6, sabemos também que ζ(3) é irracional, apesar de ainda não ter sido “calculada” em termos de outras constantes já conhecidas. Mais para a frente, utilizaremos séries de Fourier para provar que ζ(2) = π2/6. Vamos terminar esta seção com mais fatos sobre a função ζ(s) de Riemann. No caso em que Re(s) > 1, podemos escrever ζ(s) = 1 Γ(s) ∫ ∞ 0 xs+1 ex − 1 dx, onde a função Γ(s) é dada por Γ(s) = ∫ ∞ 0 xs−1e−x dx. A função Γ(s), quando restrita aos naturais, satisfaz Γ(n) = (n − 1)!. É possível encontrar z ∈ C tal que ζ(z) = 0? Usando séries, não é muito difícil provar que ζ(−2n) = 0, para todo n ≥ 1. Em 1914, Hardy provou que existem infinitos valores de t ∈ R tais que ζ ( 1 2 + it ) = 0. É um problema em aberto, conhecido como hipótese de Riemann, provar que todos os zeros de ζ(s) são desta forma, ou seja, números pares negativos ou números complexos com parte real 1/2. Em particular, a solução deste problema vale 1 milhão de dólares, pagos pelo Clay Institute. Euler provou que se Re(s) > 1 então ζ(s) = ∞ ∑ n=1 1 ns = ∏ p primo 1 1 − p−s = 1 1 − 2−s · 1 1 − 3−s · 1 1 − 5−s · . . . Uma relação muito importante existe entre a função ζ(s) e a distribuição dos números pri- mos. Seja π(x) a função que dá o número de primos menores ou iguais a x. Por exemplo, π(2) = 1, π(3) = 2, π(4) = 2, π(5) = 3, π(100) = 25, e por aí vai. O Teorema dos Números Primos diz que lim x→∞ π(x)( x ln(x) ) = 1, ou seja, que a função x ln(x) é uma boa aproximação para π(x), para valores grandes de x. Todas as demonstrações conhecidas do Teorema dos Números Primos fazem uso da Hipó- tese de Riemann, ou seja, que ζ(s) = 0 somente quando s = −2n ou s = 1 2 + ti para algum t ∈ R. Que tal usar seu tempo livre para tentar resolver o problema? Se conseguir, e ganhar o prêmio do Clay, lembre-se deste seu pobre professor :) 111 9 Soluções em séries para EDOs: pontos regulares Sejam P, Q, R funções boas (neste caso, polinômios) e considere a EDO P(x)y′′(x) + Q(x)y′(x) + R(x)y(x) = 0. (55) Se x0 é tal que P(x0) ̸= 0, diremos que x0 é um ponto regular; caso contrário, será chamado ponto singular. Vamos considerar problemas de valor inicial com y(x0) = y0. Neste caso, se x0 não for regular, como P(x0) = 0, a equação vai ser degenerada, o que não desejamos. Sendo x0 um ponto regular, pela continuidade de P, existirá um intervalo ao redor de x0 onde P(x) ̸= 0. Dividindo a equação (55) por P(x), obteremos y′′(x) + p(x)y′(x) + q(x)y(x) = 0, (56) onde p = Q/P e q = R/P. Pelo Teorema de Existência e Unicidade, a equação (56) tem solução (única). Vamos procurar tal solução em termos de uma série de potências. Exemplo 9.1. Encontre uma solução em séries para y′′ + y = 0. Note que nesta equação todo ponto é um ponto regular, já que P(x) = 1 é constante. Seja y(x) = ∞ ∑ n=0 anxn = a0 + a1x + a2x2 + . . . uma solução da equação no enunciado, e vamos assumir que esta série converge em algum intervalo |x|Vamos aperfeiçoar esta definição para casos mais gerais. Dada uma EDO P(x)y′′ + Q(x)y′ + R(x)y = 0, diremos que x0 é um ponto regular se as funções p = Q/P e q = R/P forem analíticas em x0. Se existir um termo não-homogêneo S(x), suporemos também que f = S/P é analítica em x0. Caso contrário, diremos que x0 é um ponto singular. Teorema 9.3 (Fuchs, 1866). Seja x0 é um ponto regular de P(x)y′′ + Q(x)y′ + R(x)y = 0, ou seja, p(x) = Q(x)/P(x) e q(x) = R(x)/P(x) são analíticas em x0. Então existe uma solução em série da forma y(x) = ∞ ∑ n=0 an(x − x0) n = a0y1(x) + a1y2(x), onde a0, a1 são constantes e y1, y2 são séries de potências analíticas em x0. As soluções y1, y2 formam um conjunto fundamental, e o raio de convergência de y é pelo menos igual ao menor dos raios de con- vergência das séries de p e q. 115 Agora sim, temos um teorema que garante a existência de soluções em séries, ao menos no caso analítico. Exemplo 9.4. Do teorema anterior, concluímos que o raio de convergência da série (57) do Exemplo 9.2 é infinito. ◁ Exercício 9.5. Determine o raio de convergência da solução em série de cos(x)y′′ + y′ + R(x)y = 0 em torno de x = 0, onde R(x) é um polinômio. Exercício 9.6. Mostre que a equação de Chebyshev (1 − x2)y′′ − xy′ + α2y = 0, α ∈ R, tem soluções polinomiais nos casos em que α = 0, 1, 2, 3. 9.1 Soluções em séries para EDOs: pontos singulares Agora vamos considerar x0 um ponto singular da EDO P(x)y′′(x) + Q(x)y′(x) + R(x)y(x) = 0 e tentar obter uma solução em série perto de x0 - lembre-se que isto significa que Q(x)/P(x) não é analítica em x = x0. Será que o mesmo método anterior ainda funciona? Exemplo 9.7. Considere a equação xy′′ + y′ = 0. Se supomos uma solução da forma y = ∞ ∑ n=0 anxn teremos que x ∞ ∑ n=0 n(n − 1)anxn−2 + ∞ ∑ n=0 nanxn−1 = 0. Expandindo, teremos x ( 2a2 + 6a3x + 12a4x2 + . . . ) + (a1 + 2a2x + 3a3x2 + . . .) = 0, e agrupando a1 + 4a2x + 9a3x2 + 16a4x3 + . . . = 0 Como é uma igualdade de funções, obtemos que a1 = 0, a2 = 0 e ak = 0 para todo k, ou seja, a única solução que obteremos é a solução nula. ◁ O exemplo anterior mostra que precisamos de um novo método, e é o que vamos começar a procurar agora! Vamos começar com um exemplo bastante representativo do que poderá acontecer na situação geral: a equação de Euler x2y′′ + αxy′ + βy = 0, 116 com α, β ∈ R e x0 = 0. Note que x0 = 0 é o único ponto singular da equação, pois P(x) = x2. Iremos procurar soluções válidas para x > 0. Vamos supor que a equação de Euler tem uma solução do tipo y(x) = xr. Sentimento de déjà vu? Pois é. Substituindo y′(x) = rxr−1 e y′′(x) = r(r − 1)xr−2 na equação temos x2r(r − 1)xr−2 + αxrxr−1 + βxr = 0, ou xr(r(r − 1) + αr + β ) = 0. Se r for solução de r(r − 1) + αr + β = 0 então y(x) = xr será solução de x2y′′ + αxy′ + βy = 0. As soluções de r(r − 1) + αr + β = 0 (58) são r1,2 = −(α − 1)± √ (α − 1)2 − 4β 2 . Estas soluções podem ser reais e iguais, reais e distintas ou complexas, e para cada tipo temos uma estratégia. É importante notar que as soluções não necessariamente são inteiras, logo podem aparecer soluções do tipo y(x) = x1/5. Não iremos demonstrar a maioria dos resultados a seguir, mas é muito importante, ao perce- ber que o ponto é singular, utilizar estes métodos. Simplesmente propor uma série de potências “tradicional"não vai funcionar. O primeiro caso é quando as raízes r1, r2 de (58) são reais e distintas. Se r1, r2 são soluções de r(r − 1) + αr + β = 0, com r1 ̸= r2 então y1(x) = xr1 e y2(x) = xr2 são soluções da EDO x2y′′ + αxy′ + βy = 0, e a solução geral é y(x) = cxr1 + c̃xr2 . Note que r1 (ou r2) pode ser irracional, e neste caso definimos a potência como xr = er ln x. Exercício 9.8. Resolva a EDO 2x2y′′ + 3xy′ − y = 0, x > 0. No caso das soluções de (58) serem iguais, r2 = r2, obtemos uma única solução y1(x) = xr1 . É possível mostrar que a segunda solução pode ser escolhida tomando y2(x) = xr1 ln x, com x > 0. A solução geral terá a forma y(x) = cxr1 + c̃ ln(x)xr1 , x > 0. Se as raízes de (58) forem complexas, usaremos um truque parecido com o que fizemos antes para obter separamente a parte real e a parte imaginária da solução. Sejam r1 = λ + iµ e r2 = λ − iµ. As soluções serão • ỹ1 = xr1 = xλ+iµ = xλxiµ e • ỹ2 = xr2 = xλ−iµ = xλx−iµ. 117 Como xr = er ln(x), segue que xiµ = eiµ ln(x), logo • ỹ1 = xr1 = xλxiµ = xλ ( cos(µ ln(x)) + isen (µ ln(x)) ) e • ỹ2 = xr2 = xλx−iµ = xλ ( cos(µ ln(x))− isen (µ ln(x)) ) . Usando o mesmo truque de antes, consideramos y1 = ỹ1 + ỹ2 2 = xλ cos(µ ln x), y2 = ỹ1 − ỹ2 2i = xλsen (µ ln x) Estas soluções são linearmente independentes (calcule o Wronskiano!), e a solução geral tem a forma y(x) = cxλ cos(µ ln x) + c̃xλsen (µ ln x). Exemplo 9.9. Resolva a EDO x2y′′ + xy′ + y = 0, x > 0. ◁ O que mostramos até agora é como obter as soluções para x > 0. Para estender a solução ao intervalo x 0. Multiplicando (59) por x2 a equação fica x2y′′ + x2p(x)y′ + x2q(x)y = 0. Como xp(x) = ∞ ∑ n=0 pnxn e x2q(x) = ∞ ∑ n=0 qnxn, ficamos com x2y′′ + x ∞ ∑ n=0 pnxny′ + ∞ ∑ n=0 qnxny = 0, 119 ou x2y′′ + x(p0 + p1x + p2x2 + . . .)y′ + (q0 + q1x + q2x2 + . . .)y = 0. Note que p0 = limx→0 x Q(x) P(x) e q0 = limx→0 x2 R(x) P(x) . Se p0 ̸= 0, q0 ̸= 0 e todos os outros termos pj, qj são nulos, então esta equação é exatamente a equação de Euler. Caso contrário, vamos assumir que uma solução é dada por y = xr(a0 + a1x + . . . + anxn + . . . ) = ∞ ∑ n=0 anxn+r, com a0 ̸= 0, e procurar os coeficientes. Este método se chama método de Frobenius. Neste curso vamos assumir a convergência desta série e somente determinar o raio R > 0. Exercício 9.12. Resolva a equação x2y′′ + x ( xp(x) ) y′ + ( x2q(x) ) y = 0, onde xp(x) = ∞ ∑ n=0 pnxn e x2q(x) = ∞ ∑ n=0 qnxn são séries convergentes em (−R, R). O ponto x = 0 é ponto singular regular. Vamos procurar uma solução da forma y(x) = ∞ ∑ n=0 anxr+n, com a0 ̸= 0. Substituindo tudo na equação: a0r(r − 1)xr + a1(r + 1)rxr+1 + . . . + an(r + n)(r + n − 1)xr+n + . . . + (p0 + p1x + . . . + pnxn + . . .)× × ( a0rxr + a1(r +1)xr+1 + . . . + an ( r + n ) xr+n + . . . ) + (q0 + q1x + . . . + qnxn + . . .)× × (a0xr + a1xr+1 + . . . + anxn+r + . . .) = 0 Reorganizando, ficamos com a0F(r)xr + [a1F(r + 1) + a0(p1r + q1)]xr+1 + [a2F(r + 2) + a0(p2r + q2) + a1(p1(r + 1) + q1)]xr+2 + . . . + [anF(r + n) + a0(pnr + qn) + a1(pn−1(r + 1) + qn−1)] + . . . + an−1[p1(r + n − 1) + q1]xr+n + . . . = 0 que pode ser reescrito como a0F(r)xr + ∞ ∑ n=1 [ F(r + n)an + n−1 ∑ k=0 ak ( (r + k)pn−k + qn−k )] xr+n = 0, onde F(r) = r(r − 1) + p0r + q0 120 e F(r) = 0 é chamada de equação indicial. Da equação indicial r(r − 1) + p0r + q0 = 0 descobriremos quem é r; daí é só utilizar a relação de recorrência F(r + n)an + n−1 ∑ k=0 ak ( (r + k)pn−k + qn−k ) = 0 e descobrir o coeficiente de xr+n (este coeficiente dependerá de todos os anteriores e também de r). Sejam r1, r2 ∈ R, r1 ≥ r2, as soluções da equação indicial. Olhe de novo para a relação de recorrência: vF(r + n)an + n−1 ∑ k=0 ak ( (r + k)pn−k + qn−k ) = 0. Se, em algum momento, tivermos F(r + n) = 0, não poremos calcular an. Como as únicas soluções de F(m) = 0 são F(r1) = 0 e F(r2) = 0, não existe solução do tipo F(r1 + n) (pois a outra solução é r2 ≤ r1), logo uma solução da EDO é dada por y1 = xr1 ( 1 + ∞ ∑ n=1 an(r1)xn ) . No caso em que r1 ̸= r2 e r1 − r2 não é um inteiro positivo, então podemos encontrar a outra solução da mesma forma, obtendo y2 = xr2 ( 1 + ∞ ∑ n=1 an(r2)xn ) , pois neste caso, F(r2 + n) ̸= 0 sempre. Teremos problemas se r1 − r2 ∈ Z+, ou se r1, r2 ∈ C. Não iremos tratar este caso. Exercício 9.13. Resolva a EDO 2x(1 + x)y′′ + (3 + x)y′ − xy = 0 usando séries perto dos pontos singulares. 121 10 Séries de Fourier e problemas de valor de contorno 10.1 Problemas de valor de contorno Considere a equação diferencial y′′ + p(x)y′ + q(x)y = g(x) (60) e vamos procurar uma solução desta equação definida no intervalo [α, β] e que satisfaça y(α) = y1 e y(β) = y2, para certos valores y1, y2. Este tipo de condição sobre a solução é conhecido como “valor de contorno”. Vamos fazer um exemplo. Exemplo 10.1. Seja L > 0 uma constante fixada. Quais as soluções da equação y′′ + λy = 0, com condições de contorno y(0) = 0 e y(L) = 0? Vamos separar em alguns casos, conforme o sinal de λ. • Se λ 0, digamos λ = µ2, com µ > 0. Então a equação fica y′′ + µ2y = 0. O polinômio característico é r2 + µ2 = 0, com raízes r = ±iµ, o que nos dá a solução geral y = c1 cos(µx) + c2sen (µx). Da primeira condição, y(0) = 0, teremos que c1 = 0. Aplicando a segunda condição, y(L) = 0, teremos c2sen (µL) = 0. É razoável supor que não estamos interessados na solução nula, então vamos supor que c2 ̸= 0. Logo sen (µL) = 0, e daí µL precisará ser um múltiplo inteiro de π, ou seja, µL = nπ com n ∈ Z, e daí µ = nπ/L, ou λ = n2π2/L2. Com isso, os valores possíveis para λ são: π2/L2, 4π2/L2, 9π2/L2, etc. A solução portanto é y(x) = c2sen (nπx/L), com c2 ∈ R - mas lembramos que esta solução é para o caso em que λ = n2π2/L2. Se λ for positivo mas não for um destes valores, o problema de valor de contorno não terá solução. ◁ Observação 10.2. O Teorema de Existência e Unicidade era para PVIs e não vale aqui. Com isso, podemos não ter solução para o PVC (60) com as condições de contorno y(α) = y1 e y(β) = y2. 122 10.2 Séries de Fourier Lembre-se que dizemos que uma função f é periódica de período T > 0 (ou T-periódica) se o domínio de f contém x + T sempre que contém x, e além disto f (x + T) = f (x). O período de f será o menor T > 0 que satisfaz esta propriedade. Exemplo 10.3. Nossos primeiros exemplos de funções periódicas são as funções trigonomé- tricas sen (x) e cos(x), que são 2π-periódicas. Generalizando um pouco, se k > 0, a função cos(kx) é 2π/k-periódica. ◁ Uma série da forma a0 2 + ∞ ∑ m=1 ( am cos ( mπx L ) + bmsen ( mπx L )) é chamada de série de Fourier. Já já vamos mostrar sob que condições uma série assim converge. O motivo do argumento das funções trigonométricas envolvidas na série anterior ser mπx L será compreendido em breve, e tem relação direta com o Exemplo 10.1. falar do argumento da base, ortogonal, gerador, etc. motivador para a Se u, v são funções definidas no intervalo [α, β], vamos definir o produto interno de u e v no intervalo [α, β] por ⟨u, v⟩ = ∫ β α u(x)v(x) dx. As funções u, v são ditas ortogonais em [α, β] se ⟨u, v⟩ = 0. Um conjunto de funções é dito ser ortogonal se todas as funções do conjunto são, duas a duas, ortogonais. Teorema 10.4. As funções sen (mπx/L) e cos(mπx/L), m ∈ Z+, são mutualmente ortogonais no intervalo [−L, L]. Mais que isto, ⟨cos ( mπx L ) , cos ( nπx L ) ⟩ = ∫ L −L cos ( mπx L ) cos ( nπx L ) dx = δmnL, ⟨cos ( mπx L ) , sen ( nπx L ) ⟩ = ∫ L −L cos ( mπx L ) sen ( nπx L ) dx = 0, ⟨sen ( mπx L ) = sen ( nπx L ) ⟩ = ∫ L −L sen ( mπx L ) sen ( nπx L ) dx = δmnL. Suponha que a série a0 2 + ∞ ∑ m=1 ( am cos ( mπx L ) + bmsen ( mπx L )) converge, e denote-a por f (x). Quem são os coeficientes am, bm? Quando tínhamos séries de Taylor, os coeficientes tinha relação com as derivadas de f , e agora? Observação 10.5. Dada a presença de várias funções trigonométricas na expressão da série de Fourier, é esperado que esta série faça bastante sentido no caso de funções periódicas. 123 Teorema 10.6 (Fórmula de Euler-Fourier). Se f (x) = a0 2 + ∞ ∑ m=1 ( am cos ( mπx L ) + bmsen ( mπx L )) , onde estamos supondo que a série converge, então a0 = 1 L ∫ L −L f (x) dx, an = 1 L ∫ L −L f (x) cos ( nπx L ) dx, bn = 1 L ∫ L −L f (x)sen ( nπx L ) dx, n ≥ 1. Exemplo 10.7. Seja f (x) = −x, −l ≤ xonde f é contínua, e converge para a média ( f (x+) + f (x−) ) /2 nos pontos de descontinuidade. Observação 10.11. Note que: • As condições para que uma função tenha uma série de Fourier são muito mais simples do que exigimos antes para convergência da série de Taylor. 125 • A notação f (c+) significa lim x→c+ f (x), análogo para f (c−). Exercício 10.12. Calcule a série de Fourier de f (x) = { x + 2, −2 ≤ x 0 após o início da variação de temperatura. Neste caso, a função u(x, t) satisfaz à equação diferencial α2uxx = ut, 0 0, onde α > 0 é uma constante que depende de propriedades físicas da barra. Vamos supor que inicialmente a temperatura na barra seja dada por uma função f (x), x ∈ [0, L], ou seja, u(x, 0) = f (x). Assumiremos que nos extremos a temperatura é constante e igual a zero: u(0, t) = u(L, t) = 0, t > 0, ou seja, temos a equação diferencial parcial α2uxx = ut, u(x, 0) = f (x), u(0, t) = 0, u(L, t) = 0. 11.2 Como resolver a equação do calor? O ano era 1822 e o jovem Joseph Fourier (nem tão jovem, ele tinha 54 anos na época) tentava resolver uma EDP que descrevia o fluxo de calor numa barra. Após várias tentativas, Fourier decide que iria procurar soluções de uma maneira especial: supôs que a solução seria da forma u(x, t) = X(x)T(t), ou seja, que as variáveis estivessem, de certa forma, separadas. Este método é conhecido como método de separação de variáveis. O que acontece quando colocamos isto na equação? Se u(x, t) = X(x)T(t), então uxx = X′′(x)T(t) e ut = X(x)T′(t). Substituindo em α2uxx = ut obtemos α2X′′(x)T(t) = X(x)T′(t), ou X′′(x) X(x) = 1 α2 T′(t) T(t) . (63) O lado esquerdo de (63) só depende de x, e o lado direito de (63) só depende de t. A única forma disto ser possível é se cada lado for constante! Seja −λ esta constante. Assim X′′(x) X(x) = 1 α2 T′(t) T(t) = −λ, ou seja, temos duas equações diferenciais ordinárias: X′′ + λX = 0, T′ + α2λT = 0. 127 Quais as condições iniciais? Começando pela 1a equação: u(0, t) = X(0)T(t) = 0 ⇒ X(0) = 0, u(L, t) = X(L)T(t) = 0 ⇒ X(L) = 0. Ou seja, teremos o problema de valor de contorno X′′ + λX = 0, X(0) = 0, X(L) = 0. (64) Reconhece esta equação? As soluções de (64) podem ser obtidas como fizemos no Exemplo 10.1, usando o método da equação característica. Se X(x) = eat é uma solução, então a2 + λ = 0 e daí a = ± √ −λ. Já vimos que se λ ≤ 0 então a única solução é a nula, portanto suporemos λ > 0 e daí a solução geral será da forma X(x) = c1 cos( √ λx) + c2sen ( √ λx). Usando as condições de contorno, obtemos primeiro que c1 = 0 e depois que sen ( √ λL) = 0, ou seja, √ λL = nπ para n ∈ N, de onde teremos que √ λ = nπ/L. Assim, a solução é X(x) = c2sen (nπx/L), com n ∈ Z, n > 0. Para cada n, considere as funções Xn(x) = sen (nπx/L), n = 1, 2, 3, . . . , associadas aos valores λn = n2π2/L2, n = 1, 2, . . . . Observe que as funções Xn são autofunções (autovetores) do operador associado à equação diferencial, e os autovalores correspondentes são justamente os valores de λn. Estes são os únicos valores possíveis de λ. Substituindo estes valores de λ na equação que envolve T, teremos T′ + (n2π2α2/L2)T = 0. As soluções desta equação são fáceis de obter: T(t) = ke−n2π2α2t/L2 . Juntando isto com as soluções da outra equação, e ignorando a constante multiplicativa, tere- mos un(x, t) = e−n2π2α2t/L2 sen (nπx/L), n = 1, 2, . . . Note que TODAS as funções un(x, t) satisfazem à EDP, bem como combinações lineares delas. Portanto, a solução geral da EDP tem a forma u(x, t) = ∞ ∑ n=1 cnun(x, t) = ∞ ∑ n=1 cne−n2π2α2t/L2 sen (nπx/L). Ainda temos que verificar a condição inicial, u(x, 0) = f (x), isto é, precisamos que u(x, 0) = ∞ ∑ n=1 cnsen (nπx/L) = f (x). Ou seja: a série ∑∞ n=1 cnsen (nπx/L) é a série de Fourier de f (x), o que nos permite calcular os coeficientes cn: cn = 2 L ∫ L 0 f (x)sen (nπx/L) dx. 128 Proposição 11.1 (Solução da equação do calor). Portanto, a solução de α2uxx = ut, u(x, 0) = f (x), u(0, t) = 0, u(L, t) = 0 é u(x, t) = ∞ ∑ n=1 cne−n2π2α2t/L2 sen (nπx/L) com cn = 2 L ∫ L 0 f (x)sen (nπx/L) dx. Observação 11.2. • A hipótese de que os extremos estão fixados com temperatura 0 é des- necessária, podemos colocar temperatura T1 em um extremo e T2 em outro que obteremos um desenvolvimento parecido. • Os extremos da barra podem estar isolados, sem fluxo de calor, por exemplo com uma condição ux(L, t) = 0. Neste caso também é possível obter a solução. • A versão n-dimensional deste problema tem solução bem parecida. Por exemplo, no caso bidimensional, teremos uma “placa” sendo aquecida. Exemplo 11.3. Encontre a solução do problema de condição de calor uxx = 4ut, 0 0, com u(0, t) = u(2, t) = 0 para t > 0 e u(x, 0) = 2sen (πx/2)− sen (πx) + 4sen (2πx) para 0 ≤ x ≤ 2. A solução de 1 4 uxx = ut é dada por u(x, t) = ∞ ∑ n=1 cne −n2π2 1 4 t/(22) sen (nπx/2). Eu recomendo você a reduzir novamente esta equação, como fizemos anteriormente, para fixar o procedimento, ao invés de usar a “fórmula”. A distribuição inicial de calor na barra é dada por u(x, 0) = ∞ ∑ n=1 cnsen (nπx 2 ) = 2sen (πx/2)− sen (πx) + 4sen (2πx), ou seja, c1 = 2, c2 = −1, c3 = 0, c4 = 4 e cn = 0 para todo n > 4. Portanto, u(x, t) = 2e−π2t/16sen (πx/2)− e−π2t/4sen (πx) + 4e−π2tsen (2πx) é a solução. Vamos tentar entender o que isso significa nos gráficos a seguir. ◁ 129 0.5 1.0 1.5 2.0 -2 0 2 4 6 (a) Distribuição inicial de tem- peratura (t = 0). 0.5 1.0 1.5 2.0 -2 0 2 4 6 (b) Temperatura em t = 0, 1. 0.5 1.0 1.5 2.0 -2 0 2 4 6 (c) Temperatura em t = 1. Figura 19: Evolução da temperatura num ponto x da barra. 11.3 A equação da onda “Onda, onda, olha a onda” – Tchakabum Considere uma corda elástica de comprimento L, fixada em suportes localizados em x = 0 e x = L. Se esta corda for colocada em movimento, como ela evolui? Seja u(x, t) a posição do ponto x ∈ [0, L] após t unidades de tempo do início do movimento. Então u satisfaz uma equação do tipo a2uxx = utt, onde a depende de propriedades do material da corda. Como a corda está fixada nos extremos, temos que u(0, t) = u(L, t) = 0, para todo t > 0. Vamos supor que a posição inicial é dada por uma função f (x), ou seja, u(x, 0) = f (x), x ∈ [0, L]. Além disto, considere que existe uma velocidade inicial (acorda por ser "jogada") ut(x, 0) = g(x), x ∈ [0, L]. Vamos precisar que f (0) = f (L) = 0 e g(0) = g(L) = 0. A função u(x, t) que descreve o movimento da corda satisfaz a2uxx = utt, u(0, t) = u(L, t) = 0, u(x, 0) = f (x), ut(x, 0) = g(x). Como procurar soluções? Faremos primeiro o caso em que g ≡ 0. Vamos repetir o processo de antes, supor u(x, t) = X(x)T(t). No entanto, agora será muito mais difícil. Substituindo u(x, t) = X(x)T(t) na equação a2uxx = utt nos leva, quase como antes, em X′′(x) X(x) = 1 α2 T′′(t) T(t) . O lado esquerdo só depende de x, o direito só de t, então precisam ser constantes, X′′(x) X(x) = 1 α2 T′′(t) T(t) = −λ. Isto nos dá duas equações diferenciais ordinárias de segunda ordem. { X′′ + λX = 0 T′′ + a2λT = 0 , com as condições X(0) = 0, X(L) = 0 e T′(0) = 0. A equação para x tem exatamente as mesmas soluções que antes, as autofunções Xn(x) = sen (nπx/L), n = 1, 2, 3, . . . associadas 130 aos autovalores λn = n2π2/L2, n = 1, 2, . . . . Substituindo estes valores de λ na equação que envolve T, teremos T′′ + (n2π2a2/L2)T = 0. Esta é uma EDO de 2a ordem razoavelmente simples de resolver, e daí obtemos T(t) = k1 cos(nπat/L) + k2sen (nπat/L). Da condição inicial T′(0) = 0 teremos que k2 = 0, portanto T(t) = k1 cos(nπat/L). Logo un(x, t) = sen (nπx/L) cos(nπat/L), n = 1, 2, . . . satisfaz a EDP, e daí a solução geral é u(x, t) = ∞ ∑ n=1 cnsen (nπx/L) cos(nπat/L). Da condição u(x, 0) = f (x) temos f (x) = u(x, 0) = ∑∞ n=1 cnsen (nπx/L), portanto esta série é a série de Fourier de f (x), ou seja, cn = 2 L ∫ L 0 f (x)sen (nπx/L) dx, n = 1, 2, 3, . . . . O que acontece se g(x) não for nula? Até obtermos a solução geral u(x, t) = ∞ ∑ n=1 knsen (nπx/L) cos(nπat/L) tudo continua igual. Vamos supor que f (x) ≡ 0. Assim ut(x, 0) = ∞ ∑ n=1 nπa L knsen (nπx/L) = g(x) e daí kn = L nπa 2 L ∫ L 0 g(x)sen (nπx/L) dx, n = 1, 2, . . . Proposição 11.4 (Solução da equação da onda). A solução de { a2uxx = utt, u(0, t) = u(L, t) = 0, u(x, 0) = f (x), ut(x, 0) = g(x) é dada por u(x, t) = ∞ ∑ n=1 ( kn + cn ) sen (nπx/L) cos(nπat/L) com cn = 2 L ∫ L 0 f (x)sen (nπx/L) dx, n = 1, 2, 3, . . . , kn = L nπa 2 L ∫ L 0 g(x)sen (nπx/L) dx, n = 1, 2, . . . . Observação 11.5. Refletindo um pouco sobre as soluções da equação da onda e da equação do calor, note que na equação do calor temos uma exponencial, o que faz sentido já que é esperado que com t → ∞, a temperatura tenda a zero (temperatura do ambiente). Já aqui, na equação da onda, não temos termo exponencial, somente senos e cossenos, o que faz sentido, pois a corda tem comprimento fixo e só vai ficar oscilando. Exercício 11.6. Encontre a solução do problema de vibração de uma corda elástica uxx = utt, com 0 0, e condições de contorno u(0, t) = u(1, t) = 0, t > 0, ut(x, 0) = 0, 0 0, existir n0 ∈ N tal que |xn − a| 0, o conjunto B(x, r) = {y ∈ X, d(x, y) 0, existir n0 ∈ N tal que ||xn − a|| 0, existir n0 ∈ N tal que para todos m, n ≥ n0 temos ||xn − xm||lineares de Rn em Rn. Note que L(Rn) é isomorfo a Mn×n(R) (este isomorfismo depende de uma escolha de base). Vamos agora introduzir algumas normas no espaço L(Rn). Como L(Rn) é isomorfo a Mn×n(R), e o o conjunto Mn×n(R) é basicamente um RN com N grande (no caso, N = n2), poderíamos pensar em usar em L(Rn) uma norma construída assim: dado T ∈ L(Rn), escolha uma base B de Rn e calcule a matriz A = [T]B. Esta matriz pode ser pensada como um vetor em Rn2 , e neste espaço temos a norma usual. Poderíamos definir ||T|| = ||A||. O problema disso é que a norma ficaria dependendo da escolha particular da base B. Para contornar isto, poderíamos supor que sempre usaríamos a base canônica. Aí entra um problema mais sutil: existe uma certa desigualdade envolvendo a norma matricial que queremos que seja verdadeira, e ela não é verdadeira usando esta norma “herdada” de Rn2 . Faremos a definição de ||T|| de uma forma um pouco mais complicada, mas que provará bem o seu valor em breve. Primeiro denote por ⟨·, ·⟩ o produto interno usual de Rn e por || · || a norma usual, ou seja, se x = (x1, . . . , xn) e y = (y1, . . . , yn) então ⟨x, y⟩ = x1y1 + . . . + xnyn e ||x|| = √ ⟨x, x⟩ = √ x2 1 + . . . + x2 n. Se A ∈ L(Rn), vamos definir a norma de A por ||A|| = sup { ||Ax|| ||x|| , x ̸= 0 } = sup {||Ax||, ||x|| = 1} . A primeira pergunta: este supremo está bem definido? Sim! Prova (Versão difícil). O conjunto dos x ∈ Rn tais que ||x|| = 1 é compacto; como a função x 7→ Ax é contínua, o conjunto dos Ax é também compacto, daí o conjunto dos ||Ax|| é limitado e portanto tem supremo. ■ Prova (Versão também difícil, mas como é álgebra linear, vamos fazer o caso bidimensional e deixar o caso geral como exercício, que é o que matemáticos fazem). Sejam x = (x, y) e A = ( a b c d ) . 135 Então Ax = ( ax + by cx + dy ) . Seja x ̸= 0 e vamos calcular ||Ax||/||x||. ||Ax|| ||x|| = √ (ax + by)2 + (cx + dy)2 √ x2 + y2 = √ a2x2 + b2y2 + c2x2 + d2y2 + 2axby + 2cxdy√ x2 + y2 = √ x2 x2 + y2 (a2 + c2) + y2 x2 + y2 (b 2 + d2) + xy x2 + y2 (2ab + 2cd) ≤ √ a2 + c2 + b2 + d2 + 2ab + 2cd Portanto, o conjunto dos valores ||Ax||/||x|| é limitado (por uma constante que não depende de x). Logo, o supremo existe e a norma está bem definida! ■ Agora temos uma norma em L(Rn) (e também em Mn×n(Rn)). O problema é que com a definição ||A|| = sup {||Ax||, ||x|| = 1} não fica tão simples calcular de fato as normas. Vamos fazer um exemplo bidimensional para entender como podemos proceder. Exemplo 12.8. Considere a matriz A = ( 1 0 0 3 ) e vamos calcular ||A||. Seja x = (a, b) ∈ R2 satisfazendo ||x|| = 1, ou seja, a2 + b2 = 1. Note que Ax = ( 1 0 0 3 )( a b ) = (a, 3b) e portanto ||Ax|| = ||(a, 3b)|| = √ a2 + 9b2. Assim, ||A|| = sup{ √ a2 + 9b2, a2 + b2 = 1}. Para calcular o supremo acima, precisamos determinar qual é o “maior” valor que a expressão√ a2 + 9b2 assume, dado que temos a restrição a2 + b2 = 1. Vamos chamar este maior valor de K. Assim, √ a2 + 9b2 = K e a2 + b2 = 1. Geometricamente, isto significa que o ponto (a, b) está ao mesmo tempo sobre o círculo unitário x2 + y2 = 1 e sobre a elipse x2 + 9y2 = K2. Se você fizer algumas figuras, vai se convencer de que isto só é possível se K ∈ [1, 3]. Como queremos o “maior” valor de K (as aspas são por conta de não ser o maior, mas sim o supremo), deveremos ter K = 3. Logo, ||A|| = 3. ◁ 136 Observação 12.9. Sobre o exemplo anterior, perceba que 3 é exatamente o módulo do maior autovalor de A. Será que é coincidência? Lembra que definimos a norma de ||A|| de uma forma complicada por conta de uma desi- gualdade? Aqui está ela: Proposição 12.10 (Justificativa da escolha da norma). Se A ∈ L(Rn) e x ∈ Rn então ||Ax|| ≤ ||A|| · ||x||. Por consequência, temos ||AB|| ≤ ||A|| · ||B|| e também ||An|| ≤ ||A||n. Observação 12.11. Podemos definir qualquer norma em L(Rn), já que como o espaço tem di- mensão finita, elas são todas equivalentes. Só estamos usando a norma definida anteriormente para ganharmos a desigualdade da Proposição 12.10. Observação 12.12. Cuidado, na Proposição 12.10 estamos usando o símbolo || · || para muitas coisas diferentes! Decida qual é a norma pelo contexto. Teorema 12.13. L(Rn) é um espaço de Banach. É fácil provar isto com o lema Lema 12.14. Rk é um espaço de Banach para todo k ≥ 1. juntamente com a observação de que as normas são equivalentes, ou seja, se denotarmos por ||A||2 a norma de Mn×n(Rn) quando considerado Rn2 , então temos que existem constantes c, c̃ com c||A||2 ≤ ||A|| ≤ c̃||A||2. 12.4 Exponencial matricial Seja A uma matriz n × n. Voltemos à série que usamos para definir a exponencial de matriz, exp(A) = Id + A + 1 2! A2 + 1 3! A3 + . . . + 1 n! An + . . . Como provar que exp(A) é uma matriz (ou um operador)? Simples, vamos provar que a sequência das somas parciais da série acima é de Cauchy, logo ela será convergente (pois L(Rn) é um espaço de Banach). Seja ε > 0. Denote Sn = n ∑ k=0 1 k! Ak. Devemos achar n0 tal que se m, n ≥ n0 então ||Sn − Sm|| m e seja n = m + p. Vamos usar uma série auxiliar para concluir a prova: seja exp(t) = ∞ ∑ n=0 1 n! tn a série de Taylor da função exponencial (de números reais). Podemos calcular exp(t) em t = ||A||, pois a norma de A é um número real. Então a série exp(||A||) = ∞ ∑ n=0 1 n! (||A||)n 137 converge. Portanto, a sequência das somas parciais desta série é de Cauchy. Vamos denotar (Wn)n a sequência de somas parciais da série exp(||A||) = ∞ ∑ n=0 1 n! (||A||)n, ou seja, Wn = n ∑ k=0 1 k! (||A||)k. Como (Wn)n é de Cauchy, existe n0 ∈ N tal que para todo m, n ≥ n0 temos |Wn − Wm|incógnitas, a parte desconhe- cida da equação, será uma função e não mais um número. São as chamadas equações funci- onais. Mas não vamos tratar de quaisquer equações funcionais. Estaremos interessados es- pecialmente nas equações que envolvem as funções e suas derivadas. No começo as funções dependerão somente de uma variável, e as derivadas serão com respeito a esta variável e por isto serão chamadas de equações diferenciais ordinárias (EDOs). Exemplo 1.1. Considere a equação y′ = 2x. Uma solução desta equação é uma função y = f (x) tal que para todo x ∈ R temos f ′(x) = 2x. Não é difícil pensar em uma função com esta propriedade: y = f (x) = x2 funciona. Mas também funciona y = x2 + c, c constante. Portanto, a equação tem infinitas soluções. ◁ É comum que uma equação diferencial tenha mais que uma solução, e este conjunto de so- luções pode ser chamado de família de soluções – a família é indexada pela “constante de inte- gração”. Com uma condição auxiliar, ou seja, escolhendo a constante, podemos tentar “forçar” a solução a ser única. Um problema de valor inicial (PVI) é uma equação diferencial com uma condição “extra” sobre a solução. A condição inicial é uma forma de “escolhermos”, dentre todas as soluções, a que satisfaça alguma condição. Observação 1.2. Neste texto, faremos uma diferenciação entre “solução geral” e “solução par- ticular”. A “solução particular” é a solução de um PVI; já a “solução geral”, é solução da equação sem ter condições iniciais pré-estabelecidas. A solução geral da equação costuma ter parâmetros que, se ajustados, permite resolver qualquer PVI que envolva aquela equação. Observação 1.3. Vamos fazer uma pausa para falar sobre notações. Estamos sempre usando “y = f (x)”, mas não há necessidade. A função pode ser denota por y = y(x). É um abuso de notação, mas facilita em muitos aspectos. Por exemplo, no caso anterior, poderíamos ter escrito a equação como y′ = 2x e a condição inicial y(0) = 2, sem ter que introduzir uma nova letra. Assim, em equações do tipo y′ = g(x), devemos entender que y = y(x), ou seja, y é uma função de x. Em muitos casos, o contexto deixará claro qual é a variável dependente e quando é a variável independente. Exemplo 1.4. Considere o PVI y′ = 2x, y(0) = 5. A solução da equação é y = x2 + c. Se queremos que y(0) = 5, então y(0) = 0 + c, ou seja, c = 5. Portanto, y = x2 + 5 é a solução do PVI. ◁ 2Veja aqui: https://www.bbc.co.uk/newsround/47154810. 7 https://www.bbc.co.uk/newsround/47154810 Encontrar soluções para equações diferenciais da forma y′ = g(x) não é diferente de calcular integrais. De fato, considerando a equação diferencial y′ = g(x) e uma condição inicial y(a) = b, o Teorema Fundamental do Cálculo nos garante que uma solução do PVI é y(x) = ∫ x a g(t) dt + b. Dependendo da regularidade da função g(x), esta é a única solução do PVI. A coisa começa a ficar divertida quando a equação diferencial é da forma y′ = g(y, x), ou seja, o lado direito da equação depende também de y. Exemplo 1.5. Considere a equação y′ = y, em que o lado direito depende somente de y. Procu- ramos uma função y(x) tal que y′(x) = y(x) para todo x num certo conjunto I (em geral, um intervalo). Qual função é igual à sua derivada? Ora, a função y(x) = ex e, mais geralmente, qualquer função do tipo y(x) = aex. Se estivermos interessados na solução de um PVI como y′ = y, y(0) = 4, então devemos escolher y(x) = 4ex (faça as contas!). ◁ O caso em que o lado direito depende de y e de x, como por exemplo a equação y′ = y + x, é um pouco mais complicado do que estamos dispostos a ir neste capítulo. Você pode gastar algum tempo tentando descobrir uma solução para essa equação. Em resumo: uma equação diferencial é uma equação que envolve uma função desconhecida y(x), suas derivadas y′(x), y′′(x), . . . e a variável independente x; um PVI é quando temos uma conjunto composto por uma equação diferencial e um conjunto de condições iniciais, que são simplesmente valores que a função y(x) assume em certos valores de x, y(x0) = y0, y(x1) = y1, etc, podendo também levar em conta valores das derivadas de y em alguns pontos. Vamos aprender a resolver equações diferenciais, mas antes disto precisamos saber bem como verificar que uma função é de fato solução de uma EDO ou de um PVI. Precisaremos tam- bém desenvolver a habilidade de saber encontrar soluções “por inspeção” (o famoso “chute”). Exercício 1.6. Verifique que y(x) = 1 − ex2/2 é solução da equação y′ − xy = −x. Exercício 1.7. Verifique que y(x) = 1 + x + x2/2 é solução da equação y′′ − y′ = −x. Exercício 1.8. Verifique que a função y = { −x4, x 0, o que nos dá o intervalo de validade da solução: x ∈ (−5, 5). ◁ Exercício 1.12. Encontre soluções y(x) para a equação diferencial y′′′ + y = 0. Exercício 1.13. Encontre soluções y(x) para a equação diferencial y′ = y + x. 1.2 Classificação Divide et impera. – Julius Caesar Antes de introduzir mais exemplos, vamos definir bem nosso objeto de estudo e apresentar uma classificação das equações diferenciais. Uma equação diferencial é chamada de ordinária, se a equação só envolve derivadas com respeito a uma variável: • y′′(x) + 3y(x)2 = cos(x), • zx(x, y) + zx(x, y)3 = 1. Já uma equação diferencial é chamada de parcial se a equação envolve derivadas com res- peito a mais que uma variável: • α2uxx(x, t) = ut(x, t), • α2uxx(x, t) = utt(x, t). Iremos utilizar bastante a notação de “operador” para representar uma equação diferen- cial. Um operador é uma função que pega funções e variáveis num conjunto que é o produto cartesiano de espaços de funções com R e os leva numa combinação desses elementos. Por exemplo, a equação diferencial y′′(t)− 3y′(t)+ 2y(t)+ cos(t) = 0 está associada à equa- ção L(t, y, y′, y′′) = 0, onde L(t, y, y′, y′′) = y′′ − 3y′ + 2y + cos(t) e o domínio de definição de L pode ser algo como L : U × C3 × C2 × C1 → C3, sendo U ⊂ R um aberto e Cr = Cr(U, R) o conjunto das funções g : U ⊂→ R que são de classe Cr. Note que a função L é linear nas variáveis y, y′, y′′ e que se y resolve a equação diferencial associada, então y ∈ ker(L). Considere então a equação diferencial L ( t, y, y′, . . . , y(n) ) = 0, definida pelo operador L. Essa equação é dita linear se o operador L é linear nas variáveis y, y′, . . . , y(n), como em • y′′(t) + 3ety(t)− cos(t) = 0, 9 • 7y′′(t) + 3y′(t)− y(t)− t = 0, • y′(t) + t5y(t) = cos(t), e é não linear, se o operador L é não linear: • (y′(t))2 + y(t)− t = 0, • y(t)y′(t) + cos(t)− 1 = 0. É preciso entender que não-linear não significa que as funções envolvidas serão lineares, mas sim que os termos envolvendo y e suas derivadas são lineares. Em termos do operador L ( t, y, y′,do capítulo anterior na solução de sistemas de equa- ções diferenciais. 13.1 Equações homogêneas Se A é uma matriz n × n e t ∈ R, a exponencial de At é definida por eAt = exp(At) = ∞ ∑ n=0 1 n! Antn. Seja x0 ∈ Rn. Sendo eAt uma matriz, o produto eAtx0 está bem-definido e é um elemento de Rn. Vamos denotar x(t) = eAtx0. Note que x(0) = x0 e19 d dt x(t) = d dt ( eAtx0 ) = d dt (( ∞ ∑ n=0 1 n! Antn ) x0 ) = AeAtx0 = Ax(t) Portanto x(t) = eAtx0 é uma solução do problema de valor inicial d dt x(t) = Ax(t), x(0) = x0. Proposição 13.1. Seja A uma matriz n × n, a ∈ Rn e x(t) = (x1(t), . . . , xn(t) uma função R → Rn cujas coordenadas são diferenciáveis. Então a solução do problema de valor inicial x′(t) = Ax(t), x(0) = a é x(t) = eAta. Exemplo 13.2. Considere A = ( 1 0 0 −2 ) . O problema de valor inicial ẋ = Ax, x(0) = (1, 3) é equivalente ao sistema de equações { ẋ1 = x1 ẋ2 = −2x2 com condições iniciais x1(0) = 1, x2(0) = 3. A solução deste PVI pode ser obtida de forma simples: x(t) = exp(At)(1, 3). Como exp(At) = exp ( t 0 0 −2t ) = ( et 0 0 e−2t ) , segue que x(t) = ( et 0 0 e−2t )( 1 3 ) = ( et 3e−2t ) , ou seja, x1(t) = et e x2(t) = 3e−2t. ◁ 19Não provamos que esta série pode ser derivada termo a termo, mas assim como no caso de séries de potências, isto pode ser feito. 140 13.2 Equações não-homogêneas Um caso um pouco mais complicado, mas que pode ser resolvido usando a Proposição 13.3, é o dos sistemas da forma ẋ = Ax + b(t). Para resolver este sistema, vamos achar um fator integrante. Como? Multiplicando por uma exponencial matricial, claro! Multiplicando ẋ − Ax = b(t) por e−At obtemos e−Atẋ − e−At Ax = e−Atb(t), que pode ser reescrita como d dt ( e−Atx(t) ) = e−Atb(t) e integrada como e−Atx(t) = ∫ e−Atb(t) dt. A integral do lado direito de e−Atx(t) = ∫ e−Atb(t) dt pode ser resolvida para obtermos ∫ e−Atb(t) dt = g(t) + c e daí x(t) = eAtg(t) + eAtc, onde c = (c1, . . . , xn). Portanto, todo o problema está em calcular uma primitiva para a função vetorial g′(t) = e−Atb(t). Proposição 13.3. Seja A uma matriz n × n, b(t) uma função contínua. Então a solução do problema de valor inicial x′(t) = Ax(t) + b(t) é x(t) = eAtg(t) + eAtc, com g′(t) = e−Atb(t) e c uma constante (que dependerá das condições iniciais). Exercício 13.4. Mostre que a solução de { ẋ = x + t, ẏ = 5y + 2. é da forma x(t) = aet − 1 − t, y(t) = be5t − 2/5, onde a, b são constantes. 141 13.3 Retrato de fase Um sistema de n equações diferenciais lineares de primeira ordem exige n condições iniciais, uma para cada função envolvida. No caso de sistemas bidimensionais, as condições iniciais são da forma x(t0) = α e y(t0) = β. No caso de sistemas autônomos, o valor de t0 não importará; iremos sempre considerar t0 = 0. Uma consequência do teoria de existência e unicidade no caso de sistemas autônomos é que as soluções decompõe o espaço. Veja o exemplo anterior: dados dois pontos P, Q ∈ R2, ou eles pertencem à mesma curva-solução ou eles pertencem a soluções diferentes. Em outras palavras, o conjunto das soluções é uma partição do espaço, e portanto podemos definir a relação de equivalência: x ∼ y quando x, y estão na mesma curva-solução. Chamaremos de trajetória a cada uma das curvas-solução do sistema. Chamaremos de re- trato de fase à união de todas as trajetórias (ou à sua representação geométrica, como na figura acima). Muitas vezes incluiremos o campo vetorial no retrato de fase. Quando a figura só incluir o campo vetorial, chamaremos de campo de direções. Exercício 13.5. Construa o retrato de fase do sistema { x′ = x, y′ = 3y. Exercício 13.6. Construa o retrato de fase do sistema { x′ = x, y′ = −3y. Exemplo 13.7 (Caso geral). Seja A uma matriz diagonal, A = diag(λ, µ), com λ, µ ∈ R. Vamos determinar o retrato de fase de ẋ = Ax. ẋ = Ax ⇔ { x′ = λx, y′ = µy. Neste caso é fácil calcular a exponencial de A: exp(At) = ( eλt 0 0 eµt ) . Assim, se x(0) = (ff, fi) é a condição inicial, a solução é dada por x(t) = eAtx(0) = ( ffe˘t, fie¯t) Caso 1: λ > 0 e µ > 0 (repulsor) x(t) = eAtx(0) = ( ffe˘t, fie¯t) Caso 2: λ 0 (µ = −ρ, ρ > 0) (ou vice-versa) (sela) x(t) = eAtx(0) = ( ffe˘t, fie−æt) ◁ 142 13.4 Calculando explicitamente as exponenciais matriciais Até agora, calculamos exponenciais de matrizes diagonais. Veremos agora como calcular algu- mas exponenciais matriciais um pouco mais gerais. O funcionamento do método é garantido pelo seguinte resultado: Teorema 13.8. Sejam A, B matrizes n × n e suponha que exista uma matriz invertível M tal que A = MBM−1. Então exp(At) = exp((MBM−1)t) = M exp(Bt)M−1. Prova. Fica como exercício, e a dica é perceber que (MBM−1)n = (MBM−1)(MBM−1) · · · (MBM−1) = MBnM−1. ■ Como vamos usar este teorema neste curso? Se quisermos resolver um sistema ẋ = Ax onde exp(At) é “difícil” de calcular, iremos pro- curar matrizes B, M tais que exp(Bt) seja mais fácil de calcular e satisfazendo A = MBM−1; daí conseguiremos obter exp(At) pela fórmula exp(At) = exp((MBM−1)t) = M exp(Bt)M−1. Como encontrar B e M? Pelos autovalores e autovetores! Vamos fazer em detalhes o caso 2× 2. Considere A uma matriz real n × n. Seja pA(λ) = det(A − λI) o polinômio característico de A. Os autovalores de A são as raízes λ1, . . . , λn deste polinômio. No caso de matrizes 2 × 2 o polinômio característico tem a forma pA(λ) = λ2 − tr(A)λ + det(A). Note que os autovalores podem ser reais ou complexos. Seja λ um autovalor de A. Então det(A − λI) = 0 e isto significa que o sistema linear homogêneo (A − λI)x = 0 tem uma solução não-nula, digamos x = u. Esta solução não nula é chamada de autovetor associado a λ. Note que se (A − λI)u = 0 então Au = λu. Quando λ ∈ C \ R, pode acontecer do autovetor u também ter coordenadas complexas. Iremos contornar isto mais para frente. No caso em que λ ∈ R, então o autovetor u também só terá coordenadas reais. No caso em que os autovalores são iguais, λ = µ, pode acontecer de não existirem dois autovetores linearmente independentes. Seja então A uma matriz 2 × 2, λ, µ seus autovalores. Vamos encontrar as matrizes B e M. Suponha primeiro que λ ̸= µ. Assim teremos dois autovetores u, v, com Au = λu e Av = µv. Acabamos de descobrir a matriz B: B = ( λ 0 0 µ ) . 143 Para construir M, se u = (u1, u2) e v = (v1, v2), defina M = ( u1 v1 u2 v2 ) . Assim, A = MBM−1 e exp(At) = M exp(Bt)M−1. O que é a matriz M? A matriz M é uma matriz de mudança de base. Estamos trocando a base, da base canônica de R2 para a base {u, v}. Ou seja, estamos trocando a base na qual a matriz da transformação linear TA : R2 → R2, TA(x) = Ax está escrita. Se C denota a base canônica e B = {u, v}, então A = MBM−1 ⇔ [A]CC = [I]BC [B] B B[I] C B, onde M = [I]BC é a matriz mudança de base, da base B para a base canônica. O que acontece se λ, µ forem complexos? Neste caso vamos usar a Forma de Jordan Real, ou Forma de Jordan-Schur da matriz. Vamos escrever todos os objetos em termos de suas partes reais e imaginárias: sejam λ = a + bi e µ = λ = a − bi os autovalores de A. Analogamente, quebramos os autovetores associados em suas partes reais e imaginárias: u = z + wi, v = u = z − wi. Agora vem uma conta muito boa. Como Au = λu, temos que A(z + wi) = (a + bi)(z + wi) = (a + bi)z + (−b + ai)w = az − bw + i(bz + aw) Comparando partes reais e partes imaginárias, obtemos que Az = az − bw, Aw = bz + aw. Seja C ′ = {z, w}. Então C ′ é base de R2 (exercício!) e iremos usar esta base, ao invés de base C. Fazendo isto, a matriz B ficará B = ( a −b b a ) e a matriz M será B = ( z1 w1 z2 w2 ) , onde z = (z1, z2) e w = (w1, w2). O que acontece se só existir 1 autovalor? Suponha que os autovalores sejam iguais, λ = µ e que só exista um autovalor, denotado por u. Não terá como obtermos a matriz na forma diagonal (pois para isto precisaríamos de uma base com dois autovetores). O que acontece neste caso é que (A − λI)x = 0 só tem umasolução (só um autovetor). Noutras palavras, a imagem da transformação linear A − λI : R2 → R2 tem dimensão 1. Uma vez escolhido o autovetor u, seja v tal que Av − λv = u (u existe!). Considere agora a base B′′ = {u, v}, temos: Au = λu, Av = u + λv. 144 Para quem já estudou álgebra linear, isto significa que [A]CB′′ = ( λ 1 0 λ ) . Portanto, se considerarmos agora M como sendo a matriz mudança de base, de B′′ para C, teremos a igualdade A = MBM−1. Teorema 13.9. Seja A uma matriz 2 × 2. Então existe uma matriz invertível M com A = MBM−1, onde B é de uma das formas abaixo: ( λ 0 0 µ ) , ( λ 0 0 λ ) , ( λ 1 0 λ ) , ( a −b b a ) . Observação 13.10. Os comentários nos parágrafos anteriores nos mostram como calcular M para cada um dos casos do teorema anterior. Iremos reduzir o problema do cálculo de exp(At) ao cálculo de exp(Ajt), onde A1 = ( λ 0 0 µ ) , A2 = ( λ 0 0 λ ) , A3 = ( λ 1 0 λ ) , A4 = ( a −b b a ) . Fica como exercício20 mostrar que: • exp(A1t) = ( eλt 0 0 eµt ) , exp(A2t) = ( eλt 0 0 eλt ) • exp(A3t) = ( eλt teλt 0 eλt ) • exp(A4t) = ( eat cos(bt) −eatsen (bt) eatsen (bt) eat cos(bt) ) Exemplo 13.11. Encontre a solução geral do sistema { ẋ = 2x − y, ẏ = x + 2y e esboce o retrato de fase. Seja A = ( 2 −1 1 2 ) . Desta vez é fácil: a matriz é do tipo A4, portanto exp(At) = ( e2t cos(t) e2tsen (t) −e2tsen (t) e2t cos(t) ) 20Eu fiz as contas durante a aula. Em algum momento elas estarão aqui. 145 Se x(0) = (a, b) é a condição inicial, então a solução é dada por x(t) = ( e2t cos(t) e2tsen (t) −e2tsen (t) e2t cos(t) )( a b ) O retrato de fase está na figura a seguir. 6 4 2 0 2 4 6 x 6 4 2 0 2 4 6 y ◁ Exemplo 13.12. Encontre a solução geral do sistema { ẋ = x − 2y, ẏ = −3x + 2y e esboce o retrato de fase. Seja A = ( 1 −2 −3 2 ) . Neste caso precisaremos de nossa amiga álgebra linear, pois exp(At) não é tão simples de cal- cular diretamente. Então vamos calcular autovalores, autovetores, matriz B e matriz M. Seja A a matriz do sistema. Os autovalores de A são: λ = −1 e µ = 4, associados aos autovetores u = (1, 1), v = (−2, 3). Defina B = (−1 0 0 4 ) , M = ( 1 −2 1 3 ) . Temos que (confira!) MBM−1 = A e que exp(Bt) = ( e−t 0 0 e4t ) . Como exp(At) = M exp(Bt)M−1, segue que exp(At) = M exp(Bt)M−1 = ( 1 −2 1 3 )( e−t 0 0 e4t )( 3 5 2 5 −1 5 1 5 ) = 3e−t 5 + 2e4t 5 2e−t 5 − 2e4t 5 3e−t 5 − 3e4t 5 2e−t 5 + 3e4t 5 146 Portanto, se a condição inicial for x(0) = (a, b), a solução será dada por x(t) = ( 3e−t 5 + 2e4t 5 2e−t 5 − 2e4t 5 3e−t 5 − 3e4t 5 2e−t 5 + 3e4t 5 )( a b ) . Por exemplo, se a condição inicial for x(0) = (1/2, 3/4), a solução será dada por x(t) = ( − 1 10 e−t (e5t − 6 ) , 3 20 e−t (e5t + 4 )) No próximo gráfico, fazemos várias condições iniciais em azul e esta em particular em ver- melho. 6 4 2 0 2 4 6 x 6 4 2 0 2 4 6 y ◁ Exercício 13.13. Encontre o retrato de fase dos sistemas abaixo: 1. ẋ = x − 2y, ẏ = x − y 2. ẋ = 3x − 2y, ẏ = x − y 3. ẋ = 4x − 2y, ẏ = 3x − y Exemplo 13.14. Vamos resolver o sistema { ẋ = x + 3y + t, ẏ = −3x + y + 2. Seja A = ( 1 3 −3 1 ) , b(t) = ( t 2 ) . Temos que eAt = ( et cos(3t) et sin(3t) −et sin(3t) et cos(3t) ) e daí e−Atb(t) = ( 2et sin(3t) + ett cos(3t) 2et cos(3t)− ett sin(3t) ) Integrando cada função coordenada em e−Atb(t), obtemos a função g(t) dada por 147 g(t) = 1 50 et((15t + 7) sin(3t) + (5t − 26) cos(3t)) 1 50 et((26 − 5t) sin(3t) + (15t + 7) cos(3t)) A solução geral da equação é z(t) = eAtg(t) + etA(c1, c2) t. Note que z(0) = g(0) + (c1, c2) t, então não é tão imediato achar uma solução particular. ◁ Exemplo 13.15. Vamos resolver o sistema { ẋ1 = −2x1 + x2 + 2et, ẋ2 = x1 − 2x2 + 3t. Considere A = ( −2 1 1 −2 ) , b(t) = ( 2e−t 3t ) . Desta forma, eAt = 1 2 e−3 t + 1 2 e−t 1 2 e−t − 1 2 e−3 t 1 2 e−t − 1 2 e−3 t 1 2 e−3 t + 1 2 e−t e daí e−Atb(t) = 1 + e2 t − 3 2 te3 t + 3 2 tet −e2 t + 1 + 3 2 tet + 3 2 te3 t Agora integramos cada função coordenada de e−Atb(t), obtendo g(t) = t + 1 2 e2 t − 1 2 te3 t + 1 6 e3 t + 3 2 tet − 3 2 et −1 2 e2 t + t + 3 2 tet − 3 2 et + 1 2 te3 t − 1 6 e3 t Desta forma, a solução geral da EDO é x(t) = etAg(t) + etA(c1, c2) T. ◁ 13.5 Sistemas não-homogêneos sem coeficientes constantes (e a matriz fun- damental) Nesta aula veremos como resolver sistema da forma ẋ = A(t)x + b(t), 148 onde A(t) = (ai,j(t))i,j é uma matriz n × n e as funções ai,j(t) são contínuas no intervalo (α, β). Vamos começar com caso b(t) ≡ 0: ẋ = A(t)x. (66) Neste caso, temos n equações diferenciais lineares. Note que se x(t) e y(t) são soluções da equação (66), então pela linearidade, c1x(t) + c2y(t) também será solução. Será que existe um conjunto mínimo de soluções? Sim, existe! Teorema 13.16. O conjunto das soluções de (66) é um espaço vetorial de dimensão n. Como encontrar uma base deste espaço vetorial? Usando o teorema abaixo: Teorema 13.17. Se x1(t), . . . , xn(t) são soluções de (66) no intervalo (α, β) então o Wronskiano W(x1(t), . . . , xn(t)) ou é a função nula ou nunca vale zero. Se nunca se anular, as funções são l.i. Outra forma de encontrar uma base para o espaço-solução de (66) é a seguinte. Sejam e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . e en = (0, . . . , 0, 1). Teorema 13.18. Sejam x1(t), . . . , xn(t) soluções de (66) com condições iniciais xj(0) = ej, no intervalo (α, β). Então {x1(t), . . . , xn(t)} é uma base para o conjunto-solução de (66), chamada de conjunto fundamental de solucões. A prova do teorema acima é fácil: o Wronskiano destas soluções sempre vale 1 em t = 0. Considere novamente a equação ẋ = A(t)x e seja {x1(t), . . . , xn(t)} um conjunto fundamental de soluções. A matriz obtida colocando a função xj(t) na coluna j, Ψ(t) = x1 1(t) x1 2(t) · · · x1 n(t) x2 1(t) x2 2(t) · · · x2 n(t) ... ... . . . ... xn 1 (t) xn 2 (t) · · · xn n(t) , é chamada de matriz fundamental do sistema, onde xj(t) = (x1 1(t), . . . , xn 1 (t)). Como {x1(t), . . . , xn(t)} um conjunto fundamental de soluções, as colunas de Ψ(t) são l.i., logo Ψ(t) é uma matriz invertível, para todo valor de t ∈ (α, β). A solução geral da equação (66) é dada por x(t) = c1x1(t) + . . . + cnxn(t), ou em termos da matriz fundamental, x(t) = Ψ(t)c, 149 onde c = (c1, . . . , cn). Se o sistema (66) estiver acompanhado de uma condição inicial x(t0) = x0 = (x0 1, . . . , x0 n) então a solução do sistema poderá ser obtida fazendo x(t) = Ψ(t)Ψ−1(t0)x0, onde Ψ(t) é a matriz fundamental. Quando a matriz fundamental for construída usando as soluções como no Teorema 13.18 (xj(0) = ej), ela será denotada por Φ(t). Neste caso, a solução do sistema (66) com condição inicial x(0) = x0 é x(t) = Φ(t)x0. A matriz fundamental não se parece muito com a exponencial da matriz dos coeficientes? Sim! Porém, a técnica vale mesmo quando os coeficientes não são constantes, enquanto a expo- nencial matricial só vale quando temos coeficientes constantes. No caso em que os coeficientes não forem constantes, como eu vou achar a matriz funda- mental? Sei lá. Quer dizer, já tínhamos este problema antes. Use algum método: coeficien- tes a determinar, variação de parâmetros, etc. Use qualquer método que produza as soluções x1(t), . . . , xn(t). Considere a equação ẋ = A(t)x + b(t) e suponha que você tenha uma matriz fundamental Ψ(t) para o problema homogêneo associ- ado. A solução da equação não-homogênea vai ser obtida conseguindo uma solução particular para ela, usando o método de variação dos parâmetros. Assuma que existe uma solução na forma x(t) = Ψ(t)u(t). Derivando em t, obtemos Ψ′(t)u(t) + Ψ(t)u′(t) = P(t)Ψ(t)u(t) + b(t) Como Ψ(t) é a matriz fundamental, temos que Ψ′(t) = A(t)Ψ(t). Logo a equação anterior se reduz a Ψ(t)u′(t) = b(t). Como Ψ(t) é invertível, segue que u′(t) = Ψ−1(t)b(t). Esta equaçãopode ser facilmente resolvida: u(t) = ∫ Ψ−1(t)b(t) dt + c, onde c é um vetor constante. Resolvendo agora para x(t) temos x(t) = Ψ(t)c + Ψ(t) ∫ t t1 Ψ−1(s)b(s) ds, com t1 ∈ (α, β). Se nossa condição inicial for x(t0) = x0 e a matriz fundamental escolhida for a Φ(t) então a solução será x(t) = Φ(t)x0 + Φ(t) ∫ t t0 Φ−1(s)b(s) ds. 150 Observação 13.19 (Resumo sobre soluções de sistemas de equações diferenciais de primeira ordem lineares). Considere o sistema ẋ = A(t)x + b(t). 1. Se A(t) ≡ A e b(t) ≡ 0, então a solução é dada por x(t) = exp(At)x0, onde x0 é o vetor com as condições iniciais. • Para calcular exp(At) pode ser necessário escrever A = MBM−1 (forma de Jordan), onde B é a matriz com os autovalores e M é a matriz mudança de base. • Atenção ao caso complexo e também ao caso de autovalores repetidos. 2. Se A(t) ≡ A e b(t) ̸= 0 então x(t) = eAtg(t) + eAtc, onde g(t) + c = ∫ e−Atb(t) dt, • Note que c não necessariamente é o vetor das condições iniciais, mas pode ser des- coberto a partir dele. • Podemos calcular exp(At) da mesma forma que antes, passando pela forma de Jor- dan. 3. No caso geral A = A(t) e b = b(t), a solução é dada por x(t) = Φ(t)x0 + Φ(t) ∫ t t0 Φ−1(s)b(s) ds, onde x(t0) = x0 é o vetor com condições iniciais. • A matriz fundamental Φ(t) é construída colocando em suas colunas as soluções dos PVIs com condições iniciais xj(0) = ej. • Atenção: se A = A(t), não podemos calcular exp(At)! Por isto recorremos à matriz fundamental. • Como achar as soluções xj(t)? Usando coeficientes a determinar, ou variação dos parâmetros, ou qualquer outro método, incluindo sonhar com as soluções. • O método geral é bastante complicado, e é difícil achar soluções explícitas escritas em termos de funções elementares. Exercício 13.20. Resolva o PVI { ẋ = −2y, ẏ = x + aet, com condições iniciais x(0) = y(0) = 1, e onde a ∈ R é uma constante. • Mostre que a solução depende continuamente de a. • Esboce a solução deste PVI com a = 0 e com a = 1 e veja como as soluções são diferentes. 151 • Tente fazer com valores menores de a e veja que as trajetórias nunca são curvas fechadas se a ̸= 0. Exercício 13.21 (agora em 3D). Resolva o PVI ẋ = −2y, ẏ = x, ż = z + x, com condições iniciais x(0) = y(0) = z(0) = 1. Você consegue fazer um esboço desta trajetória? 152 Referências bibliográficas [1] Dennis G. Zill. A First Course in Differential Equations with Modeling Applications. Cen- gage Learning, 11 edition, 2018. [2] William E. Boyce and Richard C. DiPrima. Elementary differential equations and boundary value problems. John Wiley & Sons, 2005. [3] Djairo Guedes de Figueiredo. Equações diferenciais aplicadas. 12o Coloquio Brasileiro de Matematica. IMPA, 1979. [4] William F. Trench. Elementary Differential Equations. Faculty Authored and Edited Books & CDs., 2013. [5] Gilbert Strang. Differential equations and linear algebra. Wellesley-Cambridge Press, 2014. [6] George F. Simmons. Differential equations with applications and historical notes. CRC/- Taylor & Francis, 2017. [7] Dennis G. Zill and Warren S. Wright. Advanced Engineering Mathematics. 5a edition, 2014. [8] Djairo Guedes Figueiredo and Aloisio Freiria Neves. Equações diferenciais aplicadas. IMPA, 2008. [9] Adam E. Parker. Wronskians and linear independence: A theorem misunderstood by many. MAA Convergence, January 2021. [10] Michael A. B. Deakin. The development of the laplace transform, 1737-1937: I. euler to spitzer, 1737-1880. Archive for History of Exact Sciences, 25(4):343–390, 1981. [11] Michael A. B. Deakin. The development of the laplace transform, 1737–1937 ii. poincaré to doetsch, 1880–1937. Arch. Hist. Exact Sci., 25:351–381, 1982. [12] José Ruidival dos Santos Filho. A função delta de Dirac. Notas de Minicurso, 2o Colóquio de Matemática do Sudeste. SBM, 2013. [13] J. Stewart. Cálculo, volume 1. Cengage Learning, 9 edition, 2022. [14] Elon Lages Lima. Curso de Análise. IMPA, 15 edition, 2019. [15] Matt Hudelson. Proof without words: The alternating harmonic series sums to ln 2. Math. Mag., page 294, 2010. [16] Aloisio Freiria Neves. Forma de jordan e equações diferenciais lineares. Notas de aula. 153 Exemplos e definições iniciais Equações.. diferenciais? Classificação Interpretação geométrica da EDO Ferramentas computacionais Existência e unicidade de soluções para EDOs Sistemas de equações diferenciais O fluxo de uma EDO autônoma Modelagem matemática e aplicações Equações diferenciais lineares de primeira ordem Equações com coeficientes constantes EDOs lineares de primeira ordem com coeficientes variáveis Equações de Bernoulli Equações separáveis: modo ingênuo Formas diferenciais Campos vetoriais e formas diferenciais Formas lineares Formas diferenciais em R2 Equações envolvendo formas diferenciais Equações separáveis e equações exatas Equações separáveis Equações exatas Transformando equações não-exatas em equações exatas Redução de ordem Equações diferenciais lineares de segunda ordem Existência de soluções Equações homogêneas de segunda ordem O Wronskiano O espaço-solução das equações diferenciais de segunda ordem Equações homogêneas: método das equações características Equações não-homogêneas: método dos coeficientes a determinar Equações não-homogêneas: método da variação dos parâmetros Equações diferenciais de segunda ordem com coeficientes não-constantes: redução de ordem Em termos de operadores diferenciais Equações de ordens superiores Transformada de Laplace Motivação e definição da transformada de Laplace Integrais impróprias Existência da Transformada de Laplace Transformadas de Laplace e PVIs Método geral Função degrau Transformadas inversas e funções degrau Função impulso e Delta de Dirac O produto de convolução Sequências e séries numéricas Relações de equivalência O conjunto dos números reais Sequências Séries Critérios de convergência de séries numéricas Soluções em séries para equações diferenciais Polinômios de Taylor Séries de Potências Soluções em séries para EDOs: pontos regulares Soluções em séries para EDOs: pontos singulares Soluções em séries para EDOs: caso singular-regular Séries de Fourier e problemas de valor de contorno Problemas de valor de contorno Séries de Fourier Funções pares e funções ímpares Equações do calor, da onda e de Laplace Equação do calor Como resolver a equação do calor? A equação da onda A equação de Laplace Exponencial matricial Exponencial de.. matrizes? Espaços métricos Espaços normados Exponencial matricial Sistemas de equações diferenciais Equações homogêneas Equações não-homogêneas Retrato de fase Calculando explicitamente as exponenciais matriciais Sistemas não-homogêneos sem coeficientes constantes (e a matriz fundamental). . . , y(n) ) = 0, a restrição às últimas n + 1 entradas é que deve ser linear. A ordem de uma equação diferencial é a maior ordem de derivação que aparece na equação diferencial. • (y′(t))4 + y′′′(t) = 2 é uma equação de ordem 3, • y(t)y′(t) + cos(t) = y′′(t) é uma equação de ordem 2. Exercício 1.14. Em cada um dos exemplos acima, qual é o operador? No restante desse texto, vamos supor que o termo com maior ordem de derivação sempre pode ser “isolado”, ou seja, que as equações são da forma y(n) = F ( t, y, y′, . . . , y(n−1)) para algum operador F, de modo que apareça de fato algum termo dependendo de y ou de suas derivadas no lado direito da equação. Na maioria dos casos, vamos também supor que o operador F é linear, ou seja, a equação diferencial pode ser escrita como a0(x)y(n) + a1(x)y(n−1) + . . . + an−1(x)y′ + an(x)y = g(x), onde a0, . . . , an, g são funções “boas”. Observação 1.15. Quando temos uma equação de ordem n, para construir um PVI devemos fornecer n condições. Assim, se a EDO é y(n) = f ( t, y, y′, . . . , y(n−1)), o PVI associado terá a forma y(n) = f ( t, y, y′, . . . , y(n−1)), y(t0) = y0, y′(t0) = y1, . . . , y(n−1)(t0) = yn−1 para certas constantes y0, y1, . . . , yn−1. Note que todas as condições iniciais iniciais precisam ser dadas no mesmo valor t = t0. Exercício 1.16. Agora é hora de você produzir um exemplo de EDO de cada tipo que classificamos acima. Esse exercício parece bobo, mas não é. 10 Exemplo 1.17. Uma famosa equação diferencial parcial não-linear de segunda ordem cuja so- lução vale 1 milhão de dólares é a equação de Navier-Stokes3: ∂ ∂t ui + n ∑ j=1 uj ∂ui ∂xj = ν∆ui − ∂p ∂xi + fi(x, t), x ∈ Rn, t ≥ 0, div u = n ∑ i=1 ∂ui ∂xi = 0, x ∈ Rn, t ≥ 0, u(x, 0) = u◦(x), x ∈ Rn, onde ∆ é o Laplaciano. ◁ 1.3 Interpretação geométrica da EDO Dada uma equação diferencial y(n) = f ( t, y, y′, . . . , y(n−1)), cada solução y(t) é uma função e, portanto, pode ser representada por um gráfico. Em geral chamaremos tais gráficos de curva- solução. Um outro conceito muito importante em termos de representação gráfica de soluções de EDOs é o de curva integral. Uma curva γ é chamada de curva integral da equação diferencial se cada segmento de γ que for gráfico de função é parte de uma solução da equação diferencial. Uma curva integral pode ser a concatenação de várias curvas-solução. Note que toda curva solução é uma curva integral, mas a recíproca não é verdadeira. Exemplo 1.18. A Figura 1 mostra curvas-soluções da equação y′ = y que, como já vimos, são as curvas y = aex, com a ∈ R. ◁ −4 −2 2 2 4 x y Figura 1: Algumas curvas-soluções de y′ = y. Exemplo 1.19. Considere a equação diferencial y′ = −x/y. As funções y(x) = ± √ a2 − x2 são soluções desta equação. Assim, seus gráficos são curvas-solução. Como todo círculo de raio a centrado na origem pode ser obtido como concatenação de duas destas curvas, todo círculo centrado na origem é uma curva integral da equação diferencial (mas não são curvas-soluções). ◁ 3Dê um Google por “Clay Problems” para ver a lista dos outros problemas cujas soluções valem um milhão de dólares. 11 Em muitos casos, não conseguiremos explicitar a curva solução (por não poder isolar y na solução), então curvas integrais são muito importantes. Em particular, para algumas EDOs, vamos descrever as curvas integrais como sendo curvas de nível de alguma função h(x, y), e isso facilitará muito o nosso trabalho. Vamos aprender agora uma estratégia para fazer esboços das soluções de PVIs, sem que tenhamos que resolver a equação. Considere uma equação de primeira ordem da forma y′ = f (x, y). (1) Seja g(x) uma solução para (1) com g(x0) = y0, ou seja, temos g′(x) = f (x, g(x)) para todo x num certo intervalo, e o gráfico de y = g(x) passa pelo ponto (x0, y0). Encontrar explicitamente g(x) pode ser difícil, mas sabemos qual é a inclinação da reta tan- gente a essa curva: essa inclinação é f (x0, y0). Ou seja: você pode até não saber como é o gráfico de y = g(x), mas sabe bem como é a reta tangente a esse gráfico perto do ponto (x0, y0): é y = y0 + f (x0, y0)(x − x0). Em cada ponto (x0, y0), vamos considerar um vetor com inclinação f (x0, y0) e com base nesse ponto. Se fizermos isso para muitos pontos, teremos uma boa ideia de como é o com- portamento qualitativo das soluções. Grosso modo, se “unirmos"esses vetores poderemos ter uma boa ideia de como será o gráfico da solução y = g(x). Esta figura com vários “vetores” representando inclinações de retas tangentes a soluções da equação é chamada de campo de direções. Exemplo 1.20. Vamos construir o campo de direções de y′ = 1 − xy. Para isto, vamos marcar vetores X(x, y) = (1, 1 − xy) em alguns pontos do quadrado [−1, 1] × [−1, 1]. A escolha da primeira coordenada como sendo 1 é arbitrária: só precisamos de um vetor diretor para uma reta que tenha inclinação 1 − xy no ponto (x, y). A Figura 2 mostra o campo de direções de y′ = 1 − xy. −1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1 Figura 2: Campo de direções de dy dx = 1 − xy. ◁ Exercício 1.21. Construa o campo de direções das equações diferenciais abaixo: 12 (a) y′ = xy (b) y′ = x2 1 − x2 − y2 (c) y′ = y − x3 1.3.1 Método das isóclinas Seja y′ = f (x, y) uma equação diferencial. Um método que pode ajudar a esboçar o campo de direções é o método das isóclinas. As curvas isóclinas associadas a esta equação são as curvas dadas por f (x, y) = c, com c uma constante real. No caso c = 0, teremos f (x, y) = 0, ou seja, y′ = 0: são os pontos onde vetores do campo de direções são horizontais, assim como a curva f (x, y) = 1 contém os pontos onde o vetor tangente aponta na direção do vetor (1, 1). Como usar a informação das isóclinas para desenhar o campo de direções? Exercício 1.22. Construa o campo de direções e algumas isóclinas de y′ = y(x − y). 1.4 Ferramentas computacionais Já que indiretamente começamos a falar sobre uso de ferramentas computacionais na seção anterior, plotando campos de direções, é hora de termos uma conversa franca sobre equações diferenciais e computadores. Em alguns dias, aprenderemos a resolver o PVI y′′′ − 3y′ + 2y = ex cos(x), y(0) = 1, y′(0) = 2, y′′(0) = 3 e encontraremos a solução y(x) = 1 30 e−2x ( 30e3xx + 40e3x − 3e3x sin(x)− 9e3x cos(x)− 1 ) . Apesar do método ser simples (equações lineares com coeficientes constantes, mesmo no caso não-homogêneo, admitem soluções fechadas), não é algo tão trivial. Se estivesse numa prova, você poderia facilmente errar. No Mathematica, o comando DSolve[{y’’’[x] - 3 y’[x] + 2 y[x] == Exp[x]*Cos[x], y[0] == 1, y’[0] == 2, y’’[0] == 3}, y, x] nos dá a solução do PVI em menos que um segundo. Podemos ainda plotar o gráfico desta função com o comando Plot[Evaluate[ y[x] /. DSolve[{y’’’[x] - 3 y’[x] + 2 y[x] == Exp[x]*Cos[x], y[0] == 1, y’[0] == 2, y’’[0] == 3}, y, x]], {x, -3, 3}] O comando DSolve resolve de forma algébrica/analítica tanto EDOs quanto PVIs nos casos em que uma solução fechada pode ser obtida. Para equações que não admitem soluções explí- citas, o comando NDSolve utiliza métodos numéricos para obter aproximações das soluções. Se o objetivo é fazer o gráfico da solução, o NDSolve é mais rápido e mais eficiente do que o DSolve: 13 -3 -2 -1 1 2 3 -10 10 20 30 40 50 Figura 3: Gráfico da solução do PVI. Plot[Evaluate[ y[x] /. NDSolve[{y’’’[x] - 3 y’[x] + 2 y[x] == Exp[x]*Cos[x], y[0] == 1, y’[0] == 2, y’’[0] == 3}, y, {x, -5, 5}]], {x, -3, 3}] As sintaxes básicas são: • DSolve[equacao, condicoes iniciais, y, x]: retorna a solução da equação, onde y = y(x). • NDSolve[equacao, condicoes iniciais, y, x,a,b]: retorna a aproximação numérica da solução da equação, onde y = y(x) e [a, b] é o domínio desejado. No caso do uso do NDSolve para calcular uma solução numérica para y(x), para obter o valor de y(c) deve-se usar y[c] /. NDSolve[{equacao, condicoes iniciais}, y, {x,a,b}] O campo de direções de uma equação y = f (x, y) pode ser plotado com o StreamPlot. Por exemplo, o campo de direções de y′ =x − y2 pode ser obtido com o comando VectorPlot[{1, x - y^2}, {x, -1, 1}, {y, -1, 1}]. Outra opção, que gera gráficos melhores que o VectorPlot, é o StreamPlot, que mostra as “linhas de fluxo”, que são mais ou menos aproximações para curvas integrais. Isto posto, agora conhecemos ferramentas computacionais que conseguem encontrar solu- ções, aproximar soluções numericamente, plotar gráficos, soluções, etc. Não vamos ignorá-las, mas precisamos seguir com a parte matemática do curso. O fato do Mathematica resolver as EDOs não significa que você não precise saber resolvê-las “na mão” – mas significa sim que é uma boa ideia você saber utilizar o Mathematica (ou Python, ou outra ferramenta computacio- nal). Não vamos nos alongar nesta discussão sobre “se o computador faz tudo, por qual motivo eu preciso estudar isto?”. Exemplo 1.23. Vamos retomar o Exemplo 1.20 e exibir uma solução da EDO junto como campo de direções. Lembre-se que a EDO é y′ = 1 − xy. Vamos agora calcular numericamente uma solução e mostrá-la junto com o campo de direções obtido anteriormente. Na Figura 5, desta- camos a solução com condição inicial y(−1) = −0.75: ◁ 14 -1.0 -0.5 0.0 0.5 1.0 -1.0 -0.5 0.0 0.5 1.0 -1.0 -0.5 0.0 0.5 1.0 -1.0 -0.5 0.0 0.5 1.0 Figura 4: Resultado do VectorPlot, à esquerda, e do StreamPlot, à direita, para construir o campo de direções de y′ = x − y2 (na verdade, o campo de direções é o da esquerda). Figura 5: Campo de direções de dy dx = 1 − xy juntamente com solução com condição inicial y(−1) = −0.75. Exemplo 1.24. Vamos exibir algumas isóclinas, o campo de direções de y′ = xy e a solução que passa pelo ponto (0, 1/2) usando o Mathematica. Para isto, é só usar o comando Show[ ContourPlot[x*y, {x, -2, 2}, {y, -2, 2}, ContourShading -> None, Contours -> 20], VectorPlot[{1, x*y}, {x, -2, 2}, {y, -2, 2}], Plot[Evaluate[ y[x] /. NDSolve[{y’[x] == x*y[x], y[0] == 1/2}, y, {x, -2, 2}]], {x, -2, 2}, PlotStyle -> {Red, Thick}]] e o resultado pode ser visto na Figura 6. ◁ 1.5 Existência e unicidade de soluções para EDOs Encontrar a solução y(x) do PVI { y′(x) = f (x, y), y(x0) = y0 (2) 15 -2 -1 0 1 2 -2 -1 0 1 2 Figura 6: Campo de direções (colorido), isóclinas (preto) e solução (vermelho) do PVI y′ = xy , y(0) = 1/2. significa encontrar uma função y(x) que satisfaça ao sistema (2), ou seja, de modo que y′(x) = f (x, y(x)) e y(x0) = y0. A solução será da forma y(x) = y0 + ∫ x x0 f (s, y(s)) ds, para x num certo intervalo I contendo x0, mas nem sempre será fácil encontrar explicitamente tal solução. Seja C um conjunto de funções (que iremos definir melhor a frente) e considere a aplicação L : C → C que associa a cada função y ∈ C uma função L(y) ∈ C dada por L(y)(x) = y0 + ∫ x x0 f (s, y(s)) ds. Uma função como L é chamada de operador diferencial (já vamos um pouco sobre operado- res). Lembre-se que um ponto fixo de uma função g(x) é um valor x0 que satisfaz g(x0) = x0. Note que y(x) resolve o PVI { y′(x) = f (x, y), y(x0) = y0 ⇔ a função y é ponto fixo de L, pois L(y) = y ⇔ y(x) = y0 + ∫ x x0 f (s, y(s)) ds, que, como vimos, é a solução de (2). Portanto, mostrar que uma EDO tem uma solução é equivalente a mostrar que um certo ope- rador linear tem um ponto fixo. Como garantir a existência de um ponto fixo para o operador L? 16 Teorema 1.25 (Teorema do Ponto Fixo de Banach). Seja (M, d) um espaço métrico completo e seja f : M → M uma contração, ou seja, existe uma constante 0 ≤ kde condições iniciais seria x1(0) = α1, . . . , xn(0) = αn, onde αj ∈ R. 18 Exemplo 1.29. Vamos encontrar uma solução para o PVI x′(t) = −2x(t), y′(t) = 3y(t), x(0) = 1, y(0) = 5. Este é um exemplo de sistema “desacoplado”, ou seja, uma equação do sistema não depende das outras. Portanto, podemos resolver separadamente cada uma delas. A primeira equação tem como solução x(t) = c1e−2t. Como x(0) = 1, temos que 1 = x(0) = c1, e daí c1 = 1. A segunda equação tem como solução y(t) = c2e3t. Como y(0) = 5, temos que 5 = y(0) = c2, logo c2 = 5 e daí a solução do PVI é x(t) = e−2t e y(t) = 5e3t. ◁ Exemplo 1.30. Vamos encontrar uma solução para o sistema de EDOs { x′(t) = −y(t), y′(t) = x(t). Agora precisamos encontrar duas funções, x(t) e y(t), com a propriedade de que a derivada de x é −y e a derivada de y é x. Uma possibilidade, que você deve se lembrar do Cálculo I, é tomar x(t) = cos(t) e y(t) = sen (t). Pode-se mostrar que a solução geral deste sistema é x(t) = a cos(t) − bsen (t), y(t) = bsen (t) + a cos(t). Dadas condições iniciais x(0), y(0), podemos encontrar a, b para obter a solução do PVI. ◁ Note que a solução de um sistema de equações diferenciais pode ser entendida como uma curva parametrizada. Vejamos o caso da solução obtida no Exemplo 1.29. Se escrevermos α(t) = (x(t), y(t)) = (e−2t, 5e3t), teremos uma curva α tal que α(0) = (1, 5), que é exatamente a condição inicial do PVI. No caso de sistemas autônomos, ou seja, quando o lado direito das equações não depende explicitamente de t, esta curva é chamada de trajetória do sistema. En- tão a curva α(t) é a trajetória que passa pelo ponto (1, 5). Além disto, se pensamos no sistema de equações como definindo um campo vetorial, este campo será tangente às soluções da equa- ção5. O Teorema de Existência e Unicidade também vale aqui, e nos garante que para cada con- dição inicial temos uma única solução. Portanto, o domínio da equação (neste caso, R2) fica folheado por trajetórias da equação. O conjunto de todas as trajetórias é chamado de retrato de fase do sistema de equações diferenciais. É comum chamarmos de retrato de fase uma repre- sentação gráfica com várias trajetórias, como na Figura 7. Com o retrato de fase, conseguimos perceber que as soluções do sistema do Exemplo 1.30 são periódicas6 (curvas fechadas7), enquanto nenhuma solução do sistema do Exemplo 1.29 parece ser periódica. Determinar se um sistema tem ou não soluções periódicas é um problema importante dentro da teoria das equações diferenciais. Os exemplos anteriores são especiais no seguinte sentido: as equações permitem soluções explícitas. No caso de não termos soluções explícitas, pode ser complicado determinar a existência ou não de soluções periódicas para equações diferenciais – ou seja, vamos querer determinar a existência de soluções periódicas sem que a gente consiga de fato resolver o sistema. Surpreendentemente, isto pode ser feito. 5Verifique isto no sistema do Exemplo 1.30. 6Com exceção da solução (0, 0). Verifique que este ponto é uma solução da EDO! 7Pense um pouco sobre esta relação: soluções periódicas e curvas fechadas no retrato de fase. 19 -2 -1 1 2 -2 -1 1 2 -2 -1 1 2 -2 -1 1 2 Figura 7: Retratos de fase dos sistemas dos Exemplos 1.29 e 1.30. Cada curva é uma solução do sistema de equações (ou seja, cada curva é solução de um determinado PVI). Exemplo 1.31 (Equação de van der Pol). A equação diferencial x′′ − µ(1 − x2)x′ + x = 0 é chamada de equação de van der Pol. Transformando esta equação num sistema e colocando µ = 1, ficamos com { u′ = v, v′ = −u + (1 − u2)v. (7) Esta equação admite uma única solução periódica, mas não conseguimos exibir uma para- metrização para a solução8. Ou seja: não podemos obter a solução de forma explícita. Na Figura 8, a curva vermelha é uma aproximação para a solução periódica de van der Pol. As soluções “internas” se aproximam da curva vermelha, e o mesmo acontece com as soluções “externas”. A curva vermelha é um típico exemplo de algo que se chama ciclo limite atrator. -2 -1 1 2 -2 -1 1 2 Figura 8: Solução periódica da equação de van der Pol (7). ◁ Exemplo 1.32 (Uma boa hora para revisar o Teorema de Green). Aproveitando que estamos falando sobre órbitas periódicas, considere a equação u′′(t) + u(t) = 2u′(t). (8) Será que ela tem alguma solução periódica? 8Tente usar o Mathematica para resolver analiticamente esta equação! 20 Vamos usar o truque de transformar essa equação de segunda ordem num sistema de equa- ções de primeira ordem. Para isso, fazemos o seguinte: seja u(t) uma solução de equação (8). Denote v(t) = u′(t). Então v′(t) = u′′(t). Como u(t) é solução de (8), temos que v′(t) = u′′(t) = 2u′(t)− u(t) = 2v(t)− u(t) e obtemos o sistema { u′(t) = v(t), v′(t) = 2v(t)− u(t). (9) Suponha que exista uma solução α(t) = (u(t), v(t)) para o sistema (9) que seja T-periódica. Seja R a região limitada cuja fronteira é a curva α. Então ∮ α (v,−u + 2v) · n ds = ∮ α v dv − (2v − u) du, mas a integral da esquerda precisa ser zero, já que o campo (v,−u + 2v) é tangente à curva α e o campo vetorial n, sendo normal a α, será normal também a (v,−u + 2v). Por outro lado, pelo Teorema de Green, ∮ α v dv − (2v − u)du = ∫∫ R 2 du dv. Temos então ∫∫ R 2 du dv = 0, o que é um absurdo, pois essa integral não pode dar zero (ela calcula uma área). De onde vem o absurdo? De termos suposto que existe a curva α, solução periódica! Logo, a equação inicial não tem soluções periódicas. ◁ 1.7 O fluxo de uma EDO autônoma Vamos trabalhar em dimensão 2 só por simplicidade. Considere uma EDO autônoma { ẋ1 = f (x1, x2) ẋ2 = g(x1, x2). (10) Perceba que as funções f , g dependem somente as variáveis x1, x2, e não de t (é um sistema autônomo). Entretanto, é claro que x1, x2 são funções de t, então poderíamos escrever o sistema anterior, de forma mais explícita, como { x′1(t) = f (x1(t), x2(t)) x′2(t) = g(x1(t), x2(t)). Vamos supor que f , g estão definidas em um aberto U ⊂ R2 e que o domínio para t é todo o R (esta hipótese é forte). O fluxo da equação (10) é a aplicação φ : R × U → R2 tal que φ(t, (a, b)) é solução do PVI ẋ1 = f (x1, x2) ẋ2 = g(x1, x2), x1(0) = a, x2(0) = b. 21 Figura 9: O fluxo leva o ponto α(0) = (a, b) (azul) no ponto α(s) (vermelho). Ou seja, o valor φ(s, (a, b)) é obtido assim: considere a (única) solução α(t) de (10) que passa pelo ponto (a, b) quando t = 0 (α(0) = (a, b)) e defina φ(s, (a, b)) = α(s) (veja a Figura 9). O fluxo satisfaz duas propriedades importantes: φ(0, (a, b)) = (a, b) e φ(t + s, (a, b)) = φ(t, φ(s, (a, b))). Ou seja, o fluxo é uma ação de grupo (ação do grupo dos reais no domínio da equação diferencial). Para cada t fixado, o fluxo é um difeomorfismo. Muitas vezes denotaremos o fluxo por φt(a, b) = φ(t, (a, b)). Exercício 1.33. Seja φt(a, b) o fluxo de ẋ = −y, ẏ = x. Mostre que para t = θ ∈ [0, 2π) fixado, o fluxo é uma rotação de θ graus. 1.8 Modelagem matemática e aplicações Equações diferenciais são muito eficientes para modelar fenômenos físicos. Não veremos o as- sunto com profundidade neste curso, mas faremos alguns exemplos e já vamos começar agora. Você pode ver mais detalhes sobre os exemplos abaixo nas referências [7], [1] e [8]. Exemplo 1.34 (Modelo de Malthus). Um dos campos onde a modelagem por equações diferen- ciais tem tido grande sucesso é no estudo de dinâmica de populações. Seja p(t) a população num certo local num tempo t. É de interesse entender o comportamento da função p(t), prin- cipalmente quando t → ∞. Uma hipótese que parece razoável é que a população aumenta de forma proporcional à população atual, com alguma constante de proporcionalidade λ, ou seja, ṗ = λp. Considerando que existe uma população inicial p(t0) = p0, então uma solução para o PVI é p(t) = p0eλ(t−t0). Se fizermos t → ∞, temos que p(t) → ∞, o que não é razoável (já que a população naturalmente perde alguns indivíduos). ◁ Exemplo 1.35 (Modelo de Verhulst). Um dos problemas do modelo de Malthus é que ele supõe que a populaçãoaumenta de forma constante λ. Isto não acontece com vários tipos de popula- ções, por exemplo por questões de disponibilidade de alimento. Então, a população joga contra ela mesma. Verhulst propôs que a constante do modelo de Malthus fosse trocada por um termo não-constante, λ = a − bp(t), onde a, b > 0 dependem da população. Assim, a equação di- ferencial fica p′ = (a − bp)p. A solução desta equação, com uma condição inicial p(t0) = p0, é p(t) = ap0 bp0 + (a − bp0)e−a(t−t0) . Neste caso, se t → ∞, então p(t) → a/b, ou seja, temos uma população de equilíbrio – e isto acontece mesmo se a população inicial for superior a a/b, ou seja, o equilíbrio funciona tanto aumentando quanto reduzindo a população. ◁ Exemplo 1.36. O espalhamento de uma doença contagiosa pode ser modelado usando equações diferenciais. Durante a pandemia de Covid-19, modelos adaptados do modelo SIR foram muito 22 utilizados para prever os próximos passos da pandemia. Um modelo mais simples é seguinte. Considere uma doença viral que se espalha numa população. Suponha que uma população com n indivíduos se divide em dois grupos: os que contraíram a doença e os que ainda não foram expostos ao vírus (esta é uma simplificação da realidade, pois na maioria dos casos existem pessoas que foram expostas e não contraíram). Seja x(t) a quantidade de pessoas que já contraíram a doença passado um tempo t e y(t) a quantidade de pessoas que ainda não foram expostas ao vírus. Para sabermos se a quantidade de pessoas contaminadas está aumentando ou diminuindo, precisamos estudar x′(t). É razoá- vel supor que x′(t) será proporcional a x(t) (quanto mais gente contaminada, mais fácil será um não contaminado encontrar com alguém contaminado) e também a y(t) (pois com mais pessoas disponíveis para “serem contaminadas”, fica mais fácil contaminar alguém). Assim, x′(t) é pro- porcional ao produto x(t)y(t), ou seja, temos a equação x′(t) = kx(t)y(t), onde k é um parâme- tro que depende da situação específica. Como também temos que x(t) + y(t) = n, obtemos a relação x′ = kx(n − x). Uma condição inicial pode ser x(0) = 1 (no começo temos somente um indivíduo infectado). Assim, uma solução para a equação é x(t) = nent/ ( ent + n − 1 ) . Note que, se t → ∞, então x(t) → n, ou seja, toda a população será infectada. ◁ 23 2 Equações diferenciais lineares de primeira ordem Neste capítulo vamos começar a resolver nossas primeiras equações diferenciais: as equações diferenciais lineares com coeficientes constantes. Veremos um método bastante poderoso para lidar com essas equações que também servirá em situações mais gerais. Aprenderemos também que a notação de Leibniz é muito poderosa, e terminaremos o capí- tulo fazendo aquilo que sempre nos falaram para não fazer. 2.1 Equações com coeficientes constantes Vamos focar inicialmente em equações da forma y′(t) + ay(t) = b. (11) em que a, b são números reais. Essas equações são lineares e tem coeficientes constantes. Note que se b = 0 então a solução nula y(t) ≡ 0 resolve (11). Como encontrar as soluções não- triviais? Depois de algum tempo olhando para essas equações, você vai começar a pensar em coisas como: “se o lado esquerdo de (11) pudesse ser colocado no formato (µ(t) · y(t))′ para alguma função µ(t), então eu conseguiria resolver essa equação.” Faz sentido: se a equação fosse da forma ( µ(t) · y(t) )′ = g(t) então poderíamos resolvê-la usando o Teorema Fundamental do Cálculo, obtendo µ(t) · y(t) = ∫ g(t) dt e daí y(t) = 1 µ(t) ∫ g(t) dt. Observação 2.1. Você deve entender o argumento/construção acima! Bom, podemos tentar arrumar o lado esquerdo de (11) multiplicando por µ(t), onde µ(t) é uma função a ser definida. A equação se transformará em µ(t)y′(t) + aµ(t)y(t) = bµ(t). Mas esse não é nosso objetivo: queremos que o lado esquerdo seja da forma ( µ(t)y(t) )′ = µ(t)y′(t) + µ′(t)y(t) e ele ficou µ(t)y′(t) + aµ(t)y(t). Como resolver o problema? Ora, precisamos escolher µ(t) satisfazendo aµ(t) = µ′(t). 24 Relembrando um pouco o que aprendemos sobre derivadas, chegamos em µ(t) = keat. Assim, ficamos com (µ(t)y(t))′ = bµ(t), o que implica em (keaty(t))′ = bkeat. Agora podemos resolver a equação anterior usando o Teorema Fundamental do Cálculo e obter y(t) = bk keat ∫ eat dt = b eat ( eat a + c ) = b a − bc e−at que é a solução da EDO acima. A função µ(t) é chamada de fator integrante, pois ela permite que a equação diferencial seja integrada. Observação 2.2. Note que, na construção anterior, a constante k não foi importante - por isso não usaremos mais constantes de integração ao construir fatores integrantes. Passo a passo para encontrar a solução: 1. Comece com a equação y′(t) + ay(t) = b. (12) 2. Para tentar colocar o lado esquerdo de (12) na forma (µ(t)y(t))′, multiplicamos a equação toda por uma função µ(t) (chamada de fator integrante), obtendo µ(t)y′(t) + aµ(t)y(t) = bµ(t). 3. Comparando os termos, precisamos que µ′(t) = aµ(t), ou seja, µ(t) = eat. 4. A equação então fica eaty′(t) + aeaty(t) = beat, que pode ser escrita como ( eaty(t) )′ = beat, o que integrando dá eaty(t) = b ∫ eat dt + c. 5. Finalmente chegamos em y(t) = 1 eat b ∫ eat dt + c eat , e resolvendo a integral obtemos y(t) = b a + c eat , onde c é a constante de integração. 6. Se for um PVI, aplicando a condição y(x0) = y0 obteremos o valor específico de c. 25 A solução geral de y′(t) + ay(t) = b é y(t) = b a + c eat , c ∈ R, e pode ser obtida multiplicando a equação pelo fator integrante µ(t) = eat. Exemplo 2.3. Vamos resolver a equação diferencial y′ = 2y− 3. Multiplicando-a por µ(t), temos µ(t)y′(t)− 2µ(t)y(t) = −3µ(t). Queremos que o lado esquerdo seja (µ(t)y(t))′ = µ(t)y′(t) + µ′(t)y(t). Portanto, devemos escolher µ(t) tal que µ′(t) = −2µ(t). Uma escolha possível é µ(t) = e−2t. Portanto teremos (µ(t)y(t))′ = −3µ(t) ou y(t) = − 3 µ(t) ∫ µ(t) dt. Substituindo µ(t) = e−2t teremos y(t) = − 3 e−2t ∫ e−2t dt = − 3 e−2t ∫ e−2t dt Resolvendo a integral teremos y(t) = − 3 e−2t ( −1 2 e−2t + c ) = 3 2 − 3c e2t Note que y(0) = 3 2 − 3c. ◁ Exemplo 2.4. Vamos resolver o PVI y′ = 7y + 1, y(0) = 1. Multiplicando a equação por µ(t) ficamos com µ(t)y′(t)− 7µ(t)y(t) = µ(t). Gostaríamos que fosse algo do tipo µ(t)y′(t) + µ′(t)y(t) = µ(t), então vamos escolher µ′(t) = −7µ(t), o que implica µ(t) = e−7t. Assim a equação fica e−7ty′(t)− 7e−7ty(t) = e−7t, que pode ser escrita como ( e−7ty(t) )′ = e−7t. 26 Integrando e fazendo as devidas algebrizações, obtemos a solução geral da equação: y(t) = −1 7 + c e−7t , c ∈ R. Aplicando a condição inicial y(0) = 1 ficamos com 1 = y(0) = −1 7 + c, o que nos dá c = 8/7. Logo a solução do PVI (solução particular) é y(t) = −1 7 + 8 7e−7t . ◁ Exercício 2.5. Resolva o PVI y′ + 5y − 2 = 0, y(0) = 2. 2.2 EDOs lineares de primeira ordem com coeficientes variáveis Vamos agora estudar equações da forma y′(t) + p(t)y(t) = g(t), (13) onde p(t), g(t) são funções “boas”. A técnica será a mesma de antes, multiplicar por um fator integrante que nos permita utilizar o Teorema Fundamental do Cálculo. Multiplicando a equação (13) por uma função µ(t) ficamos com µ(t)y′(t) + p(t)µ(t)y(t) = µ(t)g(t). (14) Queremos que o lado esquerdo seja da forma ( µ(t)y(t) )′ = µ(t)y′(t) + µ′(t)y(t) para poder usar o TFC, então precisaremos escolher µ(t) com µ′(t) = p(t)µ(t). Assim, teremos µ′(t) µ(t) = p(t) nos pontos em que µ(t) ̸= 0. Integrando, obtemos ln µ(t) = ∫ p(t) dt, ou µ(t) = exp (∫ p(t) dt ) , e este é nosso fator integrante. 27 Com esta escolha de µ(t), a equação (14) pode ser escrita como ( µ(t)y(t) )′ = µ(t)g(t), e daí integrando dos dois lados obtemos µ(t)y(t) = ∫ µ(t)g(t) dt + c. Isolando y(t) nos dá9 y(t) = 1 µ(t) ∫ µ(t)g(t) dt + c µ(t) = exp ( − ∫ p(t) dt ) · ∫ [ g(t) · exp (∫ p(t) dt )] dt + c exp ( − ∫ p(t) dt ) que é a solução geral de (13). A solução geral de y′(t) + p(t)y(t) = g(t) é y(t) = exp ( − ∫ p(t) dt ) · ∫ [ g(t) · exp (∫ p(t) dt )] dt + c exp ( − ∫ p(t) dt) . Exemplo 2.6. Vamos resolver a equação diferencial y′+ 2xy = x. Essa é uma equação diferencial linear de 1a ordem! Multiplicando por µ(x) temos µ(x)y′(x) + 2µ(x)xy(x) = µ(x)x. Se fosse ( µ(x)y(x) )′ = µ(x)y′(x) + µ′(x)y(x) teríamos µ′(x) = 2µ(x)x, portanto devemos escolher µ(x) = ex2 . Fica como exercício terminar as contas. ◁ Exercício 2.7. Resolva o PVI y′ = xy, y(0) = 1 e compare com o que você fez no Exercício 1.24. Exemplo 2.8. Resolva o PVI y′ + 3y = cos(t) com condição inicial y(0) = 1. Multiplicando por µ(t) temos µ(t)y′(t) + 3µ(t)y(t) = cos(t)µ(t). Para que seja µ(t)y′(t) + µ′(t)y(t) = cos(t)µ(t) devemos escolher µ′(t) = 3µ(t), ou seja, µ(t) = e3t. A equação então fica e3ty′(t) + 3e3ty(t) = cos(t)e3t. 9Conselho: nem pense em decorar esta fórmula. O método é mais importante. 28 Simplificando temos ( e3ty(t) )′ = cos(t)e3t. Com mais algum algebrismo: y(t) = 3 cos(t) + sen (t) 10 + c e3t . Agora usando a condição inicial: 1 = y(0) = 3 cos(0) + sen (0) 10 + c e0 = 3 10 + c ⇒ c = 7 10 . Portanto, a solução10 do PVI é: y(t) = 3 cos(t) + sen (t) + 7 10e3t 10 . ◁ Exercício 2.9. Resolva o PVI y′ + y x = sin(x), y(π) = 1. 2.3 Equações de Bernoulli Algumas EDOs não estão no formato que estudamos nas seções anteriores, mas podem ser reduzidas a uma delas. É o caso das equações de Bernoulli y′(t) + P(t)y(t) = Q(t)yn(t), (15) que, de certa forma, generalizam as equações anteriores. Em particular, são equações não- lineares. A estratégia para resolver estas equações é eliminar o termo yn e transformar essa equação numa equação de primeira ordem com coeficientes variáveis. Primeiro dividimos a equação (15) por yn para eliminar a não-linearidade em y do lado direito, obtendo y−n(t)y′(t) + P(t)y1−n(t) = Q(t). Agora fazermos a mudança de variáveis w(t) = y1−n(t), que implica em w′(t) = (1 − n)y−n(t)y′(t), e daí substituindo na equação (15) temos 1 1 − n w′(t) + P(t)w(t) = Q(t). Deste ponto em diante, podemos usar fatores integrantes e obter a solução. 10Que tal testar se esta função satisfaz mesmo y′ + 3y = cos(t)? 29 Observação 2.10. Podemos estabelecer um “passo a passo” para resolver a Equação de Ber- noulli y′ + P(x)y = Q(x)yn. Para n = 0 ou n = 1, sabemos o que fazer, pois a equação se reduz a uma EDO linear de primeira ordem. Já para n ≥ 2: • multiplique a equação por y−n: y−ny′ + P(x)y1−n = Q(x), • faça a mudança de variáveis w = y1−n, w′ = (1 − n)y−ny′, • ficamos com 1 1 − n w′ + P(x)w = Q(x). Exemplo 2.11. Vamos resolver o PVI 6y′ − 2y = xy4, y(0) = −2. Primeiro escrevemos a EDO “isolando” o y: 6y−4y′ − 2y−3 = x. Agora seja v = y−3. Assim, v′ = −3y−4y′. Substituindo na equação diferencial, temos −2v′ − 2v = x, ou seja, v′ + v = −1 2 x. Agora temos uma EDO de primeira ordem. O fator integrante é µ(x) = ex. Resolvendo a equação, temos v(x) = −1 2 (x − 1) + ce−x. Voltando para y, temos y−3 − 1 2 (x − 1) + ce−x. Usando a condição inicial, temos que c = −5/8. Portanto, a solução é y = − 2 (4x − 4 + 5e−x)1/3 . ◁ Exercício 2.12. Resolva a EDO y′ + xy = xy2. Exercício 2.13. Resolva a EDO y′+ y = cos(t)y2 e obtenha a solução y(t) = 2 2cet + cos(t)− sen (t) . 2.4 Equações separáveis: modo ingênuo Começaremos agora a aprender a resolver um segundo tipo de equações diferenciais de pri- meira ordem: as separáveis. Nas próximas seções veremos mais detalhes sobre isto, mas aqui vai algo para vocês pensarem. Observação 2.14. Atenção, use a técnica abaixo com muita moderação! Material altamente explosivo. 30 Considere uma equação diferencial da forma y′ = f (x)g(y), onde f , g são funções “boas”. Vamos cometer uma insanidade e “multiplicar cruzado” os diferenciais: dy g(y) = f (x) dx. Colocando símbolos de integrais em ambos os lados, ficamos com ∫ dy g(y) = ∫ f (x) dx. Podemos agora resolver essas integrais, e faremos isso no exemplo a seguir. Exemplo 2.15. Vamos resolver a equação diferencial dy dx = xey. Primeiro “multiplique” os dife- renciais e obtenha dy ey = x dx. Agora integre em ambos os lados: ∫ dy ey = ∫ x dx. Resolvendo as integrais, teremos: −e−y = x2 2 + c. Portanto y = − ln ( x2 2 + c ) . Note que esta função de fato é uma solução para a EDO inicial! ◁ Que fique claro: precisamos formalizar isto. Não saia por aí multiplicando diferenciais sem supervisão de um adulto com doutorado em matemática. No próximo capítulo falaremos sobre formas diferenciais, para poder fazer isso de forma “profissional”. Outra possibilidade é pular direto para o Capítulo 4: as equações separáveis são um caso particular das equações exatas, que será o foco do capítulo. 31 3 Formas diferenciais Um espírito matemático aceitará o formalismo, e tirará vantagens dos procedimentos formais se entender o seu sentido correto e sentir que todos eles podem ser justificados. – Djairo G. de Figueiredo & Aloisio Neves Em algum sentido, esse capítulo é opcional. O conteúdo dele é bastante denso, e no fim conseguiremos um “atalho” para tratar equações exatas e equações separáveis. Mesmo assim, recomendo que o leia. Compreendê-lo é uma espécie de “licença para multiplicar diferenciais”, ou quase isso. 3.1 Campos vetoriais e formas diferenciais Um campo vetorial em Rn é uma aplicação F : Ω ⊂ Rn → Rn, onde Ω é um conjunto aberto. Uma ideia geométrica para isto é colocar em cada ponto x ∈ Rn, o vetor F(x). Exemplo 3.1. Se F : Ω ⊂ R2 → R2 é uma função diferenciável, então o gradiente de F ∇F(x, y) = (Fx(x, y), Fy(x, y)) é um campo vetorial. ◁ Dizemos que um campo vetorial F : Ω ⊂ Rn → Rn é um campo gradiente se F = ∇G para alguma função G. A função G, neste caso, é chamada de potencial do campo F. Exemplo 3.2. Para determinar se o campo F(x, y) = (P(x, y), Q(x, y)) é um campo gradiente, ou seja, se F(x, y) = ∇G(x, y) para alguma função G(x, y), devemos estudar a existência de uma função diferenciável G(x, y) tal que P(x, y) = Gx(x, y), Q(x, y) = Gy(x, y). ◁ Podemos decidir se um campo é campo gradiente sem necessariamente ter que achar o potencial. Por exemplo, das relações P = Gx, Q = Gy, caso o campo seja C2, deduzimos que Py = Qx (Teorema de Clairaut-Schwarz). Um campo vetorial que satisfaz a estas condições é dito ser um campo fechado. Observação 3.3. Você deve se lembrar dessas coisas do Cálculo II e, se não lembrar, é uma boa hora para reler suas notas de aula. 32 Usaremos o conteúdo desse capítulo para estudar duas classes de equações diferenciais: as da forma y′ = f (x) g(y) e as da forma N(x, y)y′ + M(x, y) = 0. Sendo bastante displicente com a notação y′ = dy/dx, podemos reescrever estas equações nas formas g(y)dy = f (x)dx e M(x, y)dx + N(x, y)dy = 0. Você vai entender melhor o motivo pelo qual fazemos essa atrocidade se ler as próximas seções. É importante observar que, apesar de parecer bastante, não estamos “multiplicando” diferenciais como se fosse frações. Você perceberá que Leibniz era um cara esperto e introduziu uma notação bem poderosa. 3.2 Formas lineares Uma forma linear (ou funcional linear) em R2 é uma função L : R2 → R tal que L(aα + bβ) = aL(α) + bL(β), onde a, b ∈ R e α, β ∈ R2. Note que uma forma linear fica definida se soubermos seu valor numa base {e1, e2} de R2, pois se u = ae1 + be2 então L(u) = aL(e1) + bL(e2). Exemplo 3.4. A aplicação L : R2 → R dada por L(α1, α2) = 3α1 − 2α2 é uma forma linear. ◁ Defina duas formas lineares e1, e2 declarando que e1(e1) = 1, e1(e2) = 0, e2(e1) = 0, e2(e2) = 1. Note que toda forma linear L pode ser escrita como L = ae1 + be2, para certos valores de a, b (que são exatamente os valores desta forma em e1 e e2). Exemplo 3.5. A forma L(α1, α2) = 3α1 − 2α2 pode ser decomposta como L(α1, α2) = 3e1(α1, α2)− 2e2(α1, α2). ◁ O conjunto das formas lineares em R2 é um espaço vetorial de dimensão 2, chamado de espaço dual de R2 e denotado por (R2)∗. Os elementos de (R2)∗ são chamados de covetores. Os covetores e1 e e2 que definimos antes formam uma base de (R2)∗. Note que ei(ej) = δij, ou seja, a base {e1, e2} não precisa ser a canônica.Observação 3.6. Você já deve ter percebido que tudo isto se generaliza facilmente para Rn e (Rn)∗. Não iremos focar nisso, mas prepare-se para estudar essas coisas no curso de Álgebra Linear Avançada. 33 3.3 Formas diferenciais em R2 Seja Ω um aberto de R2. Uma 1-forma diferencial (ou só forma diferencial) é uma função ω : Ω ⊂ R2 → (R2)∗. Assim, se ω é uma forma diferencial, para cada (x, y) ∈ R2, w(x, y) : R2 → R é uma forma linear (um funcional linear) e será calculada em (u, v) ∈ R2, ou seja, ω(x, y)(u, v) ∈ R. Ora, {e1, e2} é base do espaço vetorial das formas lineares, logo ω(x, y) pode ser escrita como combinação linear de e1 e e2: ω(x, y) = ω1(x, y)e1 + ω2(x, y)e2, onde ω1, ω2 : Ω → R são chamadas de componentes da forma ω. Diremos que ω é de classe Cr se ω1, ω2 forem. Observação 3.7. Uma observação muito importante: ω1(x, y) e ω2(x, y) não precisam ser line- ares, já que ω não é uma forma linear. A “coisa” linear envolvida na história é ω(x, y), que aí sim é uma forma linear. Exemplo 3.8. Seja ω : Ω → (R2)∗ dada por ω : Ω → (R2)∗ (x, y) → ω(x, y) : R2 → R (α1, α2) → ω(x, y)(α1, α2) = yα1 + xyα2 Lembra da nossa forma linear L(α1, α2) = 3α1 − 2α2? Note que ω(−2/3, 3) = L = 3e1 − 2e2. ◁ Vamos definir agora duas formas diferenciais muito importantes e com nomes muito espe- ciais. • dx : Ω → (R2)∗ é a forma dx = 1 · e1 + 0 · e2, ou seja, dx(x, y)(α1, α2) = α1 • dy : Ω → (R2)∗ é a forma dy = 0 · e1 + 1 · e2, ou seja, dy(x, y)(α1, α2) = α2 34 Assim, se ω é uma forma qualquer, então ω = ω1dx + ω2dy para certas funções ω1, ω2. Observação 3.9. Verifique a afirmação acima, por exemplo trabalhando a afirmação com o exemplo anterior. Observação 3.10. É bom lembrar que podemos somar formas componente a componente, e podemos multiplicar uma forma ω : Ω → (R2)∗ por uma função f : Ω → R multiplicando as componentes de ω por f . Se f : Ω → R é uma função diferenciável, definimos a forma diferencial d f por d f : Ω → (R2)∗ como sendo a forma diferencial cujas componentes são fx e fy, ou seja, d f (x, y) = ∂ f ∂x (x, y) dx + ∂ f ∂y (x, y) dy, ou d f = fx dx + fy dy. (16) Exercício 3.11. Verifique que • d( f + g) = d f + dg • d( f g) = f dg + g d f • d(c) = 0 se c é constante • d f = 0 implica f constante (se Ω for conexo) Uma forma diferencial ω : Ω → (R2)∗ é exata se existir f : Ω → R tal que ω = d f . Uma forma diferencial é fechada se ∂w1 ∂y = ∂w2 ∂x . Teorema 3.12. Toda forma exata é fechada. A recíproca não é verdadeira. Teorema 3.13. Se Ω for simplesmente conexo, uma forma ω : Ω → (R2)∗ é exata se, e só se, ela for fechada. Observação 3.14. Reflita um pouco sobre isso: Formas exatas estão na imagem do operador d; formas fechadas estão no núcleo do operador d. Em termos de integrais, o próximo resultado relaciona formas diferenciais e integrais de linha. Teorema 3.15. Uma forma diferencial ω : Ω → (R2)∗ é exata se, e só se, ∫ α ω = 0 para todos os caminhos fechados α : [a, b] → Ω contidos em Ω, onde ∫ α ω = ∫ b a ω(α(t))α′(t) dt. 35 3.4 Equações envolvendo formas diferenciais Agora que sabemos alguma coisa sobre formas diferenciais, vamos estudar equações envol- vendo tais objetos. Como a forma d f envolve derivadas parciais, essas equações envolverão derivadas de funções. Se você está pensando que é aí que as equações diferenciais entram na história: bingo! Acer- tou em cheio. Seja ω = f (x) dx − g(y) dy uma forma diferencial e considere a equação f (x) dx − g(y) dy = 0. Note que o lado esquerdo da equação f (x) dx − g(y) dy = 0 é uma forma diferencial exata e pode ser escrito como dH = 0, onde H(x, y) = ∫ f (x) dx − ∫ g(y) dy. De fato, para calcularmos dH usamos a fórmula (16) observamos que Hx = f (x), Hy = g(y) e portanto dH = Hx dx + Hy dy = f (x) dx + g(y) dy. As soluções desta equação são da forma H(x, y) = constante. Observação 3.16. As soluções de dH = 0 são curvas da forma H(x, y) = constante, e nem sempre será possível isolar y ou x nessa equação (serão curvas dadas implicitamente). Já na equação geral M(x, y) dx + N(x, y) dy = 0, se o lado esquerdo for uma forma exata dV = 0 devemos ter Vx = M e Vy = N; logo as soluções serão da forma V(x, y) = constante. Caso a forma diferencial do lado esquerdo de M(x, y) dx + N(x, y) dy = 0 não seja exata, podemos tentar torná-la exata multiplicando por um fator integrante µ, até que µ(x, y) M(x, y) dx + µ(x, y) N(x, y) dy seja uma forma exata. Vamos estudar dois tipos particulares de tais equações: as equações diferenciais exatas e as equações diferenciais separáveis. Observação 3.17. Nesse ponto você deve estar pensando: “esse professor está me enganando com essa história de formas diferenciais. Afinal de contas, M(x, y) dx + N(x, y) dy = 0 é uma equação diferencial ou uma forma diferencial?” Pouco tempo atrás, quando falamos (informalmente) sobre sistemas de equações diferen- ciais, fizemos a associação entre uma equação diferencial e um campo vetorial. A solução, naquele caso, era uma curva que tinha como campo vetorial tangente a equação diferencial inicial. A situação aqui é exatamente a mesma: temos um “campo vetorial” e procuramos uma curva “integral” desse campo. É exatamente aí que entra a ligação entre equações diferenciais como a acima e as formas diferenciais. 36 4 Equações separáveis e equações exatas Neste capítulo estudamos equações diferenciais do tipo M(x, y) + N(x, y) dy dx = 0. O caso mais simples é o das equações separáveis, em que M = M(x) e N = N(y). O caso geral, das equações exatas, também será abordado. Não faremos uso explícito de formas diferenciais neste capítulo – mas saiba que elas estão presentes aqui. 4.1 Equações separáveis Seja g(x) uma função e suponha que o gráfico de y = g(x) esteja contido em uma curva de nível de uma função V(x, y), ou seja, V(x, g(x)) = c para alguma constante e para x ∈ I ⊂ R. Derivando esta expressão implicitamente (em x) temos que Vx(x, g(x)) + Vy(x, g(x))g′(x) = 0. Portanto, g(x) é solução da equação diferencial Vx(x, y) + Vy(x, y)y′ = 0. Vamos usar esta ideia para resolver uma enorme classe de equações diferenciais. xxx xxx xxx Considere uma equação diferencial da forma M(x, y) + N(x, y) dy dx = 0, com M, N funções de classe C2. Vamos supor que as funções M, N são ainda mais específicas: M = M(x) só depende de x e N = N(y) só depende de y. Portanto, a equação se escreve como M(x) + N(y) dy dx = 0. (17) A equação anterior é chamada de equação separável, pois em termos de formas diferenciais, ela pode ser escrita como M(x)dx + N(y)dy e daí cada diferencial aparece multiplicada somente por funções que dependem daquela variá- vel (ou seja, pode-se “separar” as variáveis)11. A equação (17) pode ser escrita como dy dx = −M(x) N(y) = 0 (18) desde que N(y) ̸= 0. 11Equações separáveis são um caso particular das equações exatas. A única razão para o tratamento separado é pedagógica, graças à história (errada) de “multiplicar diferenciais”. 37 Então, como já vimos no começo da seção, podemos resolver (18) usando um truque sim- ples. Sejam F(x) = ∫ M(x) dx e G(y) = ∫ N(y) dy. Então as soluções y(x) de (18) satisfazem G(y(x)) = F(x) + constante. Isto significa que a curva-solução é dada implicitamente pela equação G(y)− F(x) = c. De fato: a equação (17) pode ser escrita como F′(x) + G′(y(x))y′(x) = 0. Lembrando da derivada da regra da cadeia e integrando a equação anterior, temos que F(x) + G(y(x)) = c, onde c é constante. Portanto: se y(x) satisfaz F(x) + G(y(x)) = c, então y(x) também satisfaz (17). Se houver uma condição inicial y(x0) = y0 associada à equação (17), então teremos que F(x0) + G(y(x0)) = c, ou seja, c = F(x0) + G(y0) e a solução fica F(x) + G(y(x)) = F(x0) + G(y0). Passo a passo: Considere a equação diferencial da forma y′ = f (x) g(y) , onde g(y) ̸= 0. • Passando para formas diferenciais, ou multiplicando os diferenciais, podemos reescrever a equação como g(y) dy − f (x) dx = 0. Se você não tiver lido o capítulo anterior, essa equação não significa