Baixe o app para aproveitar ainda mais
Prévia do material em texto
NOTAS DE AULA Forma de Jordan e Equac¸o˜es Diferenciais Lineares Aloisio Freiria Neves1 1. Prefa´cio O objetivo deste texto e´ desenvolver de maneira completa a Forma de Jordan e os Sistemas de Equac¸o˜es Diferenciais Lineares. A redac¸a˜o busca utilizar a relac¸a˜o entre esses temas como forma de motivar e facilitar o aprendizado. Os conceitos e as demonstrac¸o˜es sa˜o apresentadas de maneira rigorosa e detalhada. O texto e´ dirigido a` alunos de Graduac¸a˜o, que ja´ cursaram as disciplinas de ca´lculo e que tenham noc¸o˜es de A´lgebra Linear, especificamente noc¸o˜es de bases do IRn e de matrizes de transformac¸o˜es lineares. O texto trata em detalhes to´picos como: multiplicidades alge´brica e geome´trica de auto valores, polinoˆmio minimal, exponencial de matrizes, teorema de ex- isteˆncia e unicidade, entre outros, to´picos que, em geral, sa˜o cobertos superficialmente nos cursos de graduac¸a˜o. O texto e´ u´til para leitores que pretendem aprofundar-se um pouco neste to´picos e tambe´m para aqueles interessados em a´reas como: Sistemas Dinaˆmicos, Equac¸o˜es Diferenciais de Evoluc¸a˜o e Teoria de Semi Grupos de Operadores Lineares. A bibliografia, no final do texto, contem treˆs livros que foram escolhidos cuidadosamente com o objetivo de direcionar o leitor. 2. Introduc¸a˜o O tipo mais simples de equac¸a˜o diferencial linear que podemos considerar e´ a equac¸a˜o do crescimento exponencial: a taxa de crescimento e´ proporcional a` quantidade presente x˙ = ax, a = constante. (2.1) Quando nos deparamos pela primeira vez com uma equac¸a˜o diferencial as perguntas que aparecem naturalmente sa˜o: Existe soluc¸a˜o? A soluc¸a˜o e´ u´nica? O que podemos afirmar sobre as soluc¸o˜es? Para a equac¸a˜o acima e´ fa´cil ver que a func¸a˜o x(t) = eat e´ uma soluc¸a˜o, bem como qualquer de seus mu´ltiplos x(t) = eatc, onde c e´ uma constante arbitra´ria. Podemos mostrar que todas as soluc¸o˜es sa˜o desta forma. De fato, dada uma soluc¸a˜o qualquer x(t) de (2.1), diferenciando a expressa˜o e−atx(t) e usando a equac¸a˜o (2.1), obtemos: d dt (e−atx(t)) = −ae−atx(t) + e−atx˙(t) = −ae−atx(t) + e−atax(t) = 0 1Internet: http://www.ime.unicamp.br/∼aloisio 1 o que mostra que e−atx(t) = c, ou seja x(t) = eatc. A expressa˜o eatc e´ chamada de Soluc¸a˜o Geral da equac¸a˜o diferencial (2.1). Para termos unicidade de soluc¸a˜o precisamos especificar uma condic¸a˜o inicial, neste caso temos o que chamamos de Problema de Valor Inicial (P.V.I.) { x˙ = ax x(0) = x0. (2.2) Como (2.1) tem uma soluc¸a˜o geral, temos, consequ¨entemente, que a soluc¸a˜o deste P.V.I. deve ser da forma eatc. Utilizando-se da condic¸a˜o inicial determinamos a constante c: x(0) = ea0c = c e assim a soluc¸a˜o do problema e´ u´nica e dada por x(t) = eatx(0). Observe que as soluc¸o˜es sa˜o func¸o˜es definidas para todo t ∈ IR. Demonstramos, desta forma, um Teorema de Existeˆncia e Unicidade para o problema (2.2). Para o problema na˜o homogeˆneo:{ x˙ = ax+ h(t) x(0) = x0. (2.3) tambe´m temos existeˆncia e unicidade de soluc¸a˜o. Neste caso a soluc¸a˜o e´ dada pela Fo´rmula de variac¸a˜o da Constantes, isto e´, se x(t) e´ soluc¸a˜o de (2.5), enta˜o d dt (e−atx(t)) = −ae−atx(t) + e−at(ax(t) + h(t)) = e−ath(t), integrando esta igualdade de 0 a t, obtemos e−atx(t)− x(0) = ∫ t 0 e−ash(s)ds e portanto a soluc¸a˜o e´ dada por x(t) = eatx(0) + ∫ t 0 ea(t−s)h(s)ds. (2.4) Esta expressa˜o e´ conhecida na literatura como Fo´rmula de variac¸a˜o das Constantes. Es- tamos supondo que a func¸a˜o h(t) esta´ definida e e´ cont´ınua num intervalo que conte´m o ponto t = 0, de modo que, a fo´rmula de variac¸a˜o das constantes garante a existeˆncia e unicidade da soluc¸a˜o definida, e mostra ainda que a soluc¸a˜o esta´ definida no mesmo intervalo que a func¸a˜o h(t). Um dos objetivos deste texto e´ generalizar estes resultados para Sistema de Equac¸o˜es Diferenciais Lineares { x˙ = Ax x(0) = x0, ; x(t) = x1(t) x2(t) ... xn(t) (2.5) 2 onde A e´ uma matriz constante n× n e x e´ uma func¸a˜o diferencia´vel de IR em IRn. Neste caso na˜o temos uma soluc¸a˜o que salta aos olhos como no caso escalar (2.2). A intuic¸a˜o nos sugere definir a exponencial eAt de uma matriz At, e verificar se as propriedades desta exponencial nos permite generalizar o caso escalar para sistemas. Este e outros resultados sera˜o obtidos atrave´s da teoria de Jordan para classificac¸a˜o de matrizes. O texto esta´ dividido da seguinte forma: o cap´ıtulo 2 desenvolve a Forma de Jordan e o cap´ıtulo 3 estuda os sistemas de equac¸o˜es diferencias lineares. 3. A Forma de Jordan Neste cap´ıtulo desenvolveremos a teoria de Jordan para classificac¸a˜o de matrizes quadradas. O objetivo e´ determinar uma base no IRn na qual a matriz A seja a mais simples poss´ıvel, tenha o maior nu´mero de zeros. Definic¸a˜o 3.1 Se existir um interio r > 0 tal que Ar = 0, enta˜o a matriz A e´ chamadas de Nilpotente e o menor valor de r tal que Ar = 0 e´ chamado de ı´ndice de nilpoteˆncia de A. Vamos a um exemplo de matriz nilpotente, considere 0 0 0 · · · 0 0 1 0 0 · · · 0 0 0 1 0 · · · 0 0 ... . . . . . . ... 0 0 0 · · · 1 0 k×k que e´ uma matriz formada por zeros com excec¸a˜o da diagonal abaixo da diagonal principal, que e´ formada por 1’s. Quando calculamos A2 (fac¸a como exerc´ıcio) a diagonal de l’s escorrega para a diagonal imediatamente abaixo, quando calculamos A3 a diagonal de 1’s vai mais uma para baixo e assim por diante. Como a matriz e´ de tamanho (ou ordem) k temos que Ak−1 possui zero em todas as posic¸o˜es exceto na posic¸a˜o k1 (u´ltima linha com primeira coluna), que tem 1 (a diagonal de 1’s esta´ quase saindo fora da matriz), finalmente Ak = 0, isto e´, a matriz acima e´ nilpotente de ı´ndice k. A pergunta que se coloca e´ a seguinte: Sera´ que podemos transformar uma matriz qualquer (atrave´s de uma mudanc¸a de base) numa expressa˜o que envolva somente matrizes diagonais e matrizes nilpotentes? Com esta pergunta queremos motivar o leitor a estudar o objeto central deste cap´ıtulo que e´ a Forma de Jordan. E´ obvio que so´ o fato da existeˆncia de uma forma canoˆnica envolvendo matrizes com estas propriedades ja´ e´ por si so´ motivador e cativador. Ale´m disso, como veremos a seguir, a matriz na Forma de Jordan possui muitos zeros o que certamente e´ muito mais operacional. 3 Proposic¸a˜o 3.1 Se A e´ nilpotente de ı´ndice r, enta˜o: i) λ = 0 e´ o u´nico auto valor de A. ii) Se Ar−1v0 6= 0, enta˜o {v0, Av0, · · · , Ar−1v0} e´ LI. Demonstrac¸a˜o: i) Se Av = λv, com v 6= 0, enta˜o 0 = Arv = λrv, logo λ = 0. ii) Seja α0v0+α1Av0+ · · ·+αr−1Ar−1v0 = 0. Suponha que exista escalar na˜o nulo, chame de αs o primeiro desses escalares, de modo que a soma acima possa ser escrita como αsA sv0 + · · ·+ αr−1Ar−1v0 = 0 portanto, como αs 6= 0, podemos escrever Asv0 = −αs+1 αs As+1v0 − · · · − αr−1 αs Ar−1v0 = As+1(−αs+1 αs v0 − · · · − αr−1 αs Ar−s−2) portanto Asv0 = A s+1v, onde v e´ o vetor escrito entre pareˆnteses na expressa˜o acima, logo temos que Ar−1v0 = Ar−1−s(Asv0) = Ar−1−s(As+1v) = Arv = 0 que e´ uma contradic¸a˜o, logo na˜o existe escalar na˜o nulo, e portanto os vetores sa˜o linear- mente independentes. Proposic¸a˜o 3.2 Dada uma transformac¸a˜o linear A : V → V existem subespac¸os vetoriais H e K, invariantes por A, tais que V = H ⊕K com A/H : H → H nilpotente e A/K : K → K invers´ıvel Demonstrac¸a˜o: Temos que KerA ⊂ KerA2 ⊂ · · · , como V e´ de dimensa˜o finita, estas incluso˜es na˜o podem ser pro´prias, logo existe um menor interio k tal que KerAk = KerAk+1 e e´ fa´cil verificar que (use induc¸a˜o sobre j) KerAk = KerAk+j com j = 1, 2, 3, · · · Colocamos H = KerAk e K = ImAk temos que H∩K = {0}, pois se v ∈ H∩K enta˜o Akv = 0 e existe w ∈ V tal que Akw = v, portantoAk(Akw) = 0⇒ w ∈ KerA2k = KerAk ⇒ v = Akw = 0. Como dim(KerAk) + dim(ImAk) = dimV , temos que V = H ⊕K. 4 A verificac¸a˜o que HeK sa˜o A-invariantes, A/H e´ nilpotente de ı´ndice k e A/K ı´nvers´ıvel pode (e deve) ser feita como exerc´ıcio. A Forma de Jordan de um operador A pode ser obtida atrave´s das seguintes observac¸o˜es: 1) O nu´mero k dado acima satisfaz k ≤ dimH. O caso k = 0 acontece quando A e´ invers´ıvel (KerAo = KerA), logo H = {0}. Quando k > 0, basta notar que a sequeˆncia KerA,KerA2, KerA3, ..., cresce de pelo menos 1 em dimensa˜o ate´ k, portanto k ≤ dim(KerAk). 2) Se B e´ uma base de V formada pela unia˜o de bases de H e K, temos que a matriz de A na base B e´ do tipo [A]B = ( [A/H ] 0 0 [A/K ] ) portanto det[A]B = det[A/H ] det[A/K ]. Como det[A/K ] 6= 0, pois A/K e´ invers´ıvel, temos que a multiplicidade alge´brica do zero (a multiplicidade do zero como raiz do polinoˆmio caracter´ıstico de A), e´ igual a multiplicidade alge´brica do zero como raiz do polinoˆmio caracter´ıstico de A/H , que e´ igual a dim H, pois A/H e´ nilpotente e portanto so´ possui o zero como auto valor, isto e´ ma(0) = dimH = dimKerAk. 3) Se λ1 e´ auto valor de A com multiplicidade alge´brica,ma(λ1) = m1, usando a proposic¸a˜o 3.2 e as observac¸o˜es anteriores a` (A− λ1I) : V → V , temos que V = H1 ⊕K1, com dimH1 = m1 = dimKer(A− λ1I)k1 onde k1 e´ o primeiro inteiro tal que Ker(A− λ1I)k1 = Ker(A− λ1I)k1+1 e ainda mais, (A− λ1I)/H1 e´ nilpotente de ı´ndice k1 com k1 ≤ m1. Como A : K1 → K1 na˜o possui λ1 como auto valor, pois det[(A− λ1I)/K1 ] 6= 0, podemos repetir o argumento acima para A : K1 → K1 tomando um segundo auto valor λ2 de A e obtendo um segundo subespac¸o H2 no qual a restric¸a˜o de A − λ2I e´ nilpotente. Assim sucessivamente, temos para o caso geral em que λ1, λ2, ..., λ` sa˜o os auto valores de A : V → V com multiplicidades alge´bricas respectivamente m1,m2, ...,m`, e portanto seu polinoˆmio caracter´ıstico e´ igual a P (λ) = (λ− λ1)m1 · · · (λ− λ`)m` (3.1) 5 que, existem subespac¸os invariantes H1, · · ·H` tais que: dimHi = mi V = H1 ⊕ · · · ⊕H` (A− λiI)/Hi nilpotente (3.2) Definic¸a˜o 3.2 Os sub espac¸os Hi sa˜o chamados de auto-espac¸os generalizados. 4) Com base nestes resultados basta analisarmos as transformac¸o˜es nilpotentes, pois se dada uma transformac¸a˜o nilpotente, soubermos encontrar uma base na qual a matriz da transformac¸a˜o e´ bastante simples, temos usando (3.2) que a matriz de uma transformac¸a˜o qualquer sera´ formada por esses blocos bastante simples, em diagonal. Suponhamos enta˜o queA : V → V e´ nilpotente de ı´ndice k, sabemos que {v, Av, ..., Ak−1v} e´ LI, para algum vetor v. Se k = dimV enta˜o esta´ o´timo porque esses vetores formam uma base de V e a matriz de A nessa base e´ do tipo Bloco de Jordan: 0 0 0 · · · 0 0 1 0 0 · · · 0 0 0 1 0 · · · 0 0 ... . . . . . . ... 0 0 0 · · · 1 0 k×k Figure 1: Bloco de Jordan Observe que os nu´meros 1’s podem aparecer abaixo ou acima da diagonal, basta inverter a ordem da base. Para o caso em que k < dimV usaremos o seguinte resultado cuja demonstrac¸a˜o daremos logo apo´s as observac¸o˜es: Proposic¸a˜o 3.3 Se A : V → V e´ nilpotente de ı´ndice k e Ak−1v0 6= 0, enta˜o existe um subespac¸o M , invariante por A, tal que V = N ⊕M onde N = [v0, Av0, · · · , Ak−1v0] Logo, quando k < dimV , consideramos a restric¸a˜o de A ao subespac¸o invariante M , A : M → M , que tambem sera´ nilpotente com ı´ndicie de nilpoteˆncia k′ ≤ k, portanto 6 com o mesmo racioc´ınio obtemos um novo conjunto de vetores linearmente independentes, {v′, Av′, · · · , Ak′−1v′}. Se k′ = dimM o´timo, encerramos o processo e {v, Av, · · · , Ak−1v, v′, Av′, · · · , Ak′−1v′} e´ uma base na qual a matriz de A e´ formada por dois blocos de Jordan em diagonal. Utilizando-se desse procedimento podemos concluir, de modo geral, que se A e´ nilpotentes de ı´ndice k, existe uma base na qual sua matriz e´ bastante simples, formada por blocos de Jordan em diagonal, do tipo: ² ± ¯ ° 0 1 0 1 0 . . . . . . 1 0 k × k 0 0 1 0 . . . . . . 1 0 k′ × k′ . . . ¨ § ¥ ¦ ¨ § ¥ ¦ Figure 2: Forma de Jordan de um Operador Nilpotente onde k ≥ k′ ≥ · · ·, isto e´, os blocos em diagonal va˜o decrescento (em ordem) e sa˜o todos do tipo figura 1. 5) Conforme (3.2), temos que o operador (A − λiI)/Hi e´ nilpotente, logo sua matriz e´ do tipo da figura 2, com ı´ndice de nilpoteˆncia ki. Como a matriz de A/Hi e´ a soma dessa matriz com a matriz diagonal λiI, temos que a matriz de A/Hi e´ do tipo figura 2, mas com λi na diagonal em vez de zeros. Agora, como V e´ a soma direta dos subespac¸os Hi, temos que a matriz de A e´ uma matriz formada por blocos em diagonal onde cada bloco e´ do tipo figura 2 com o respectivo auto valor λi na diagonal e sua ordem e´ a multiplicidade alge´brica de λi, mi. A forma matricial assim obtida e´ chamada de Forma de Jordan do operador A. Para completarmos a sua justificativa falta apenas a demonstrac¸a˜o da proposic¸a˜o 3.3. Daremos uma demonstrac¸a˜o dessa proposic¸a˜o logo a seguir e encerraremos essas notas com algumas aplicac¸o˜es e mais algumas propriedades que certamente lhe sera˜o muito u´teis 7 A/H1 A/H2 . . . A/H` ² ± ¯ ° Figure 3: Forma de Jordan Demonstrac¸a˜o da proposic¸a˜o 3.3: Demonstraremos por induc¸a˜o sobre o ı´ndice k de nilpoteˆncia do operador A : V → V . Se k = 1, enta˜o A = 0 e o resultado e´ imediato. Suponhamos a proposic¸a˜o verdadeira para k− 1 e vamos demonstra´-la para k. Temos que ImA e´ um subespac¸o invariante e A/ImA e´ nilpotente de ı´ndice k − 1, pois Ak−1(Av) = Akv = 0 e Ak−2(Av0) = Ak−1v0 6= 0 portanto pela hipo´tese de induc¸a˜o ImA = N1 ⊕M1 com N1 = [Av0, · · · , Ak−1v0] = A(N). Colocando M2 = {v ∈ V : Av ∈M1} temos que V = N +M2, onde N = [v0, Av0, · · · , Ak−1v0] (3.3) de fato, v ∈ V ⇒ Av ∈ ImA = N1 ⊕M1 ⇒ Av = n1 + m1 com n1 ∈ N1 e m1 ∈ M1 portanto n1 = An para algum n ∈ N , logo Av = An+m1 ⇒ A(v − n) = m1 ∈M1 donde concluimos que (v − n) ∈M2 e claramente v = n+ (v − n) ∈ N +M2. A soma em (3.3) na˜o e´ direta ja´ que N ∩M2 = [Ak−1v0] ⊂ N1. Observe que M1 ⊂M2, e logicamente N ∩M2 ⊂M2 portanto (N ∩M2)⊕M1 ⊂M2 logo podemos completar esse subespac¸o (N ∩M2)⊕M1 com um subespac¸o M3 de modo a obter M2, isto e´, M2 = (N ∩M2)⊕M1 ⊕M3. (3.4) 8 Colocamos enta˜o M =M1 ⊕M3 e temos: i) M ⊂M2, logo A(M) ⊂ A(M2) ⊂M1 ⊂M donde concluimos que M e´ invariante. ii) N ∩M = {0}, pois se v ∈ N ∩M ⇒ v ∈ N e v ∈M ⊂M2 ⇒ v ∈ N ∩M2 portanto v ∈M ∩ (N ∩M2) = {0} por (3.4). iii) V = N ⊕M porque V = N +M2 e M2 = N ∩M2 ⊕M , logo v = n + (h +m) com n ∈ N , h ∈ N ∩M2 e m ∈M , mas enta˜o v = (n+ h) +m com (n+ h) ∈ N, m ∈M o que completa a prova. Comenta´rios e propriedades complementares sobre a Forma de Jordan: O objetivo aqui e´ como determinar a forma de Jordan de um operador arbitra´rio A. Para cada auto valor λi, de A vamos calcular a forma de Jordan do operador nilpotente (A − λiI)/Hi , onde Hi = Ker(A − λiI)ki . Essa matriz possui o primeiro bloco de Jordan de tamanho (ordem) ki×ki, e possivelmente outros blocos menores ou iguais em diagonal; a quantidade desses blocos e seus respectivos tamanhos depende logicamente do operador A. A questa˜o que queremos discutir aqui e´: Como determinar essa quantidade e esses tamanhos (ou ordens)? Observe primeiramente que os nu´meros ki sa˜o ı´ndices de nilpoteˆncia de (A− λiI), isto e´, o menor inteiro tal que (A − λiI)ki = 0 em Hi e ki ≤ mi. Portanto considerando o polinoˆmio p(λ) = (λ− λ1)k1(λ− λ2)k2 · · · (λ− λ`)k` temos que p(λ) tem coeficiente principal igual a 1, tem grau menor ou igual ao polinoˆmio caracter´ıstico (3.1) e p(A) = 0, porque se v ∈ V , v = v1 + · · ·+ v` com vi ∈ Hi veja (3.2), p(A) = (A− λ2I)k2 . . . (A−λ`I)k` =0︷ ︸︸ ︷ (A− λ1I)k1v1+ · · · +(A− λ1I)k1 · · · (A− λ`I)k`v`︸ ︷︷ ︸ =0 = 0 observe tambe´m que se diminuirmos um desses ki na˜o temos mais essa propriedade p(A) = 0, portanto p(λ) e´ o polinoˆmio minimal de A, isto e´, o polinoˆmio de menor grau com coeficiente principal = 1 e tal que p(A) = 0. Uma outra observac¸a˜o importante e´ que na ”diagonal” abaixo da diagonal principal da 9 Forma de Jordan do operador nilpotente (A − λiI)/Hi os 0’s aparecem exatamente na posic¸a˜o de intersecc¸a˜o dos blocos de Jordan, veja a figura 2, logo se olharmos para as colunas nulas dessa matriz (figura 2), temos tantas colunas nulas quantos forem os seus blocos (a u´ltima coluna dessa matriz e´ nula, que corresponde ao u´ltimo bloco), portanto para determinarmos o nu´mero de blocos correspondentes a λi devemos calcular o nu´mero de colunas nulas, mas esse nu´mero e´ exatamente a dimensa˜o de Ker(A− λiI). Definic¸a˜o 3.3 A dimensa˜o de Ker(A− λiI) e´ chamada de multiplicidade geome´trica de λi. Temos portanto informac¸o˜es sobre a ordem do maior bloco de Jordan e sobre o nu´mero de blocos existentes para cada λi. Falta somente informac¸o˜es sobre a ordem desses blocos. Para isto chamaremos de N a dimensa˜o do espaco V e colocaremos: T = (A− λiI), dj = dimKerT j = dimKer(A− λiI)j e nj = nu´mero de blocos de Jordan de ordem j × j. Observe que devemos calcular as dimenso˜es dj ate´ obtermos o primeiro inteiro k tal que dk = dk+1, que e´ o ı´ndice de nilpoteˆncia do auto valor λi, a partir desse ı´ndice temos, dj = dk, j ≥ k. Observe ainda que d0 = dimKerI = 0. Sabemos que o nu´mero de blocos e´ igual a multiplicidade geome´trica, logo d1 = n1 + n2 + · · ·+ nN que sa˜o todas as ordens poss´ıveis. Agora, quando calculamos T 2 a ”diagonal” de 1’s escorrega para a ”diagonal” imediata- mente abaixo, veja figura 2, isto significa que nos blocos de Jordan de ordens ≥ 2 aumenta uma coluna de zeros em cada um, logo d2 = n1 + 2n2 + · · ·+ 2nN . Com o mesmo racioc´ınio concluimos para os subsequentes, isto e´, d3 = n1 + 2n2 + 3n3 + · · ·+ 3nN = n1 + 2n2 + 3(n3 + · · ·+ nN), ... dN−1 = n1 + 2n2 + · · ·+ (N − 2)nN−2 + (N − 1)(nN−1 + nN), dN = n1 + 2n2 + · · ·+NnN , dN+1 = dN . 10 Os di’s sa˜o conhecidos (ja´ foram calculados), vamos resolver para os ni’s. Subtraindo cada equac¸a˜o da anterior obtemos: d1 − d0 = n1 + · · ·+ nN d2 − d1 = n2 + · · ·+ nN ... dN − dN−1 = nN dN+1 − dN = 0. Subtraindo cada equac¸a˜o da subsequente, vem −d0 + 2d1 − d2 = n1 ... −dN−1 + 2dN − dN+1 = nN . Obtemos portanto a relac¸a˜o nj = −dj−1 + 2dj − dj+1, 1 ≤ j ≤ N (3.5) que fornece o nu´mero de blocos de Jordan de ordem j × j correspondentes ao auto valor λi. Vamos a um exemplo: Suponhamos que λ1 = 5 seja auto valor de um operador A que satisfaz as seguintes condic¸o˜es: • multiplicidade alge´brica = 10 • multiplicidade geome´trica = 6, isto e´, d1 = dimKer(A− 5I) = 6 • ındice de nilpoteˆncia = 3, isto e´, dj = d3 = 10 para j ≥ 3 • e d2 = 9. portanto podemos tirar as seguintes concluso˜es • O bloco tem o valor 5 na diagonal (5 e´ o auto valor). • A ordem do bloco e´ = 10× 10 (10 e´ a multiplicidade alge´brica). • O maior bloco de Jordan e´ 3× 3 (3 e´ o ı´ndice de nilpoteˆncia). • Possui 6 blocos de Jordan (6 e´ a multiplicidade geome´trica). 11 Falta somente as ordens dos blocos e a quantidade de cada um deles. Para isto usamos a fo´rmula (3.5), e obtemos: n1 = −d0 + 2d1 − d2 = 0 + 12− 9 = 3, n2 = −d1 + 2d2 − d3 = −6 + 18− 10 = 2, n3 = −d2 + 2d3 − d4 = −9 + 20− 10 = 1. Logo, o bloco correspondente ao auto valor 5 e´: 5 1 5 1 5 0 0 5 1 5 0 5 1 5 0 0 5 0 5 0 5 Quando o operador A possui auto valores complexos, λ = α+βi a forma de Jordan obtida pelo processo descrito acima e´ complexa e os auto valores sa˜o complexos conjugados. Nesse caso o operador A deve ser considerado sobre CN e a forma de Jordan pode ser utilizada normalmente com os mesmos objetivos. Agora se isto lhe importunar e voceˆ deseja obter tambe´m nesse caso uma matriz real, podemos proceder da seguinte forma: Vamos denotar por λ o auto valor com parte imagina´ria positiva e por λ¯ seu conjugado. Se {v1, · · · , vk} onde vj = xj + iyj denota a base do auto espac¸o generalizado correspondente a λ, temos que {v¯1, · · · , v¯k}, ¯= conjugado e´ a base correspondente a λ¯, logo esses 2k vetores sa˜o linearmente independentes sobre o corpo dos nu´meros complexos C, e portanto {y1, x1, · · · yk, xk} sa˜o 2k vetores linearmente independentes sobre IR. Isto segue das seguintes igualdades: a1x1 + b1y1 + · · ·+ akxk + bkyk = a1 2 (v1 + v¯1) + b1 2i (v1 − v¯1) + ak 2 (vk + v¯k) bk 2i (vm − v¯k) = ( a1 2 + b1 2i )v1 + · · ·+ (ak 2 + bk 2i )vk +( a1 2 − b1 2i )v¯1 + · · ·+ (ak 2 − bk 2i )v¯k. 12 Agora como {v1, · · · , vn} e´ a base do auto espac¸o generalizado na qual A esta´ na forma de Jordan, temos, para 1 ≤ j < k, que Avj = Axj + iAyj = λvj + vj+1 = (αxj − βyj + xj+1) + i(βxj + αyj + yj+1) portanto Ayj = αyj + βxj + 1yj+1 + 0xj+1 Axj = −βyj + αxj + 0yj+1 + 1xj+1, podemos concluir portanto, que a matriz de A na forma de Jordan real (na base formada por blocos de vetores do tipo {y1, x1, · · · yk, xk}, nessa ordem), e´ uma matriz formada por blocos em diagonal da forma (Verifique): D I D . . . . . . I D ou D onde D = ( α −β β α ) , I = ( 1 0 0 1 ) 4. Sistemas Lineares 2× 2 Podemos utilizar a Forma de Jordan que acabamos de justificar para classificar os sis- temas 2 × 2 de equac¸o˜es diferenciais. Como vimos as matrizes 2 × 2 sa˜o das seguintes formas: ( λ 0 0 µ ) , ( λ 0 0 λ ) , ( λ 0 1 λ ) e ( α −β β α ) , portanto resolvendo os sistemas correspondentes as estas matrizes estaremos conhecendo todas as poss´ıveis soluc¸o˜es. Faremos esta ana´lise de maneira detalhada para que tenhamos a noc¸a˜o exata do comportamento dessas soluc¸o˜es. No primeiro caso temos λ e µ reais e distintos; as equac¸o˜es na base de Jordan ficam desacopladas e sa˜o dadas por { x˙ = λx y˙ = µy e portanto x(t) = c1e λt e y(t) = c2e µt, c1 e c2 sa˜o constantes arbitra´rias, sa˜o as soluc¸o˜es. As curvas (x(t), y(t)), parametrizadas pelo paraˆmetro t, sa˜o denominadas o´rbitas. Observe 13 que (x(t), y(t)) sa˜o as coordenadas das soluc¸o˜es na base de Jordan, que neste caso e´ formada pelos auto vetores vλ e vµ da matriz A correspondentes aos auto valores λ e µ. Portanto as soluc¸o˜es em relac¸a˜o a` base canoˆnica sa˜o dadas por c1vλe λt + c2vµe µt. Esta expressa˜o justifica o me´todo do auto valor e auto vetor utilizado para obtenc¸a˜o de soluc¸o˜es e estudado nos cursos de ca´lculo. A representac¸a˜o gra´fica das o´rbitas, usualmente chamada de retrato de fase, e´ obtida facilmente, depende dos auto valores e dos auto vetores. Quando os auto valores sa˜o ambos negativos, temos que as soluc¸o˜es tendem a` origem quando t → +∞, neste caso dizemos que a origem e´ um ponto nodal esta´vel, e quando sa˜o ambos positivos as soluc¸o˜es tendem a zero quando t→ −∞ e a origem e´ chamada de ponto nodal insta´vel. Nestes dois casos o retrato de fases tem a forma Na figura acima as curvas tangenciam o eixo horizontal, que e´ o eixo que esta´ na direc¸a˜o do auto vetor vλ. Para identificarmos esse eixo, isto e´, se vλ corresponde ao maior ou ao menor auto valor da matriz A, podemos analisar o que ocorre com o coeficiente angular das tangentes a`s o´rbitas. Supondo que x = x(t) pode ser invertida, de modo que dy dx = y˙(t) x˙(t) = c y(t) x(t) = c e(µ−λ)t, onde c representa constantes arbitra´rias. Quando os auto valores sa˜o ambos negativos, para dy/dx tender a zero quando t → +∞ como esta´ na figura, e´ preciso que µ − λ < 0ou |λ| < |µ|, ou seja, o eixo de tangencia das soluc¸o˜es e´ o eixo na direc¸a˜o do auto vetor correspondente ao menor auto valor (em valor absoluto). Esta conclusa˜o vale tambe´m para o caso em que os auto valores sa˜o ambos positivos (verifique). Desta forma podemos obter o retrato de fases do sistema somente conhecendo seus auto valores e auto vetores, veja o exemplo a seguir Exemplo: Considere o sistema 2× 2 x˙ = − 3 2 x+ 1 2 y y˙ = 1 2 x− 3 2 y 14 Neste exemplo temos A = −3/2 1/2 1/2 −3/2 que possui auto valores −1 e −2, com auto vetores (1, 1) e (1, −1), respectivamente. Portanto, o retrato de fase tem a forma abaixo; o eixo de tangencia e´ o eixo na direc¸a˜o do auto vetor associado ao −1, ou seja, o retrato de fases em relac¸a˜o a` base canoˆnica, tem a seguinte forma Quando os auto valores teˆm sinais distintos e´ fa´cil ver que as o´rbitas sa˜o da forma Dizemos neste caso que a origem e´ um ponto de sela No segundo caso λ tem multiplicidade alge´brica e geome´trica igual a dois. A Ana´lise do plano de fases e´ ana´logo ao caso anterior, as o´rbitas sa˜o semi retas. 15 No terceiro caso λ tem multiplicidade alge´brica 2 e geome´trica 1. Neste caso as equac¸o˜es sa˜o { x˙ = λx y˙ = x+ λy. Podemos resolver a primeira equac¸a˜o x(t) = c1e λt e substituir na segunda obtendo y˙ = λy + c1e λt. Esta u´ltima equac¸a˜o pode ser resolvida pela fo´rmula da variac¸a˜o da constantes (2.4), obtendo y(t) = eλtc2 + ∫ t 0 eλ(t−s)eλsds = (c1t+ c2)eλt. Portanto as soluc¸o˜es teˆm a forma{ x(t) = c1e λt y(t) = (c1t+ c2)e λt. Para determinarmos o formato dessas curvas, suponha que λ < 0 e que c1 > 0, os outros casos seguem por simetria. Temos que x(t) > 0, isto e´, as soluc¸o˜es neste caso permanecem no primeiro e no quarto quadrantes, se aproximam da origem quando t → ∞, e quando t→ −∞, temos que x(t)→∞ e y(t)→ −∞. Temos ainda que y(t) > 0 para t > −c2/c1 e a curva tangencia o eixo y, pois x˙/y˙ = c1/(c1t + c2) → 0, quando t → ∞, portanto o retrato de fases tem a forma O pro´ximo caso e u´ltimo caso os auto valores sa˜o complexos, λ = α ± βi o sistema se torna { x˙ = αx− βy y˙ = αx+ βy. Neste caso e´ prefer´ıvel usar coordenadas polares x = r cos θ, y = r sin θ portanto x˙ = r˙ cos θ − r sin θ θ˙, y˙ = r˙ sin θ + r cos θ θ˙ (4.1) 16 que pode ser escrito na forma matricial como( x˙ y˙ ) = ( cos θ −r sin θ sin θ r cos θ )( r˙ θ˙ ) invertendo a matriz obtemos( r˙ θ˙ ) = ( cos θ sin θ −1 r sin θ 1 r cos θ )( x˙ y˙ ) substituindo x˙ e y˙ pelos valores dados no sistema 4.1 e lembrando que x e y esta˜o em coordenadas polares, obtemos { r˙ = αr θ˙ = β e da´ı r(t) = r0e αt, θ(t) = βt+ θ0, portanto, se α = 0, temos que r e´ constante, a o´rbita e´ um c´ırculo, a origem e´ chamada de centro; se α 6= 0 a o´rbita e´ uma espiral logar´ıtmica, a origem e´ chamada de ponto espiral. A espiral tende a` origem se α < 0 e se afasta da origem caso contra´rio. O sentido de rotac¸a˜o depende do sinal de β, quando β > 0 o sentido e´ hora´rio (dextro´gira) e quandoβ < 0 o sentido e´ anti hora´rio (sinistro´gira). As o´rbitas sa˜o portanto das seguintes formas: 5. Sistemas de Equac¸o˜es Diferenciais Lineares Motivados pelo caso escalar comentado na introduc¸a˜o, vamos iniciar este cap´ıtulo definindo a exponencial exp(A) = eA de uma matriz quadrada An×n = (aij). A esperanc¸a e´ que com essa definic¸a˜o possamos estender os resultados de existeˆncia, unicidade e a fo´rmula de variac¸a˜o das constantes, para os sistemas de equac¸o˜es diferenciais. Em particular, mostrar que x(t) = eAtx0 e´ a soluc¸a˜o do sistema de n-equac¸o˜es diferenciais lineares, x˙(t) = Ax(t) (5.1) que satisfaz a condic¸a˜o inicial x(0) = x0 ∈ IRn (5.2) 17 Imitando o caso escalar exp(a) = ea = 1 + a+ a2 2! + a3 3! + · · · (5.3) vamos definir a exponencial da matriz A por meio da se´rie exp(A) = eA = I + A+ A2 2! + A3 3! + · · · (5.4) E´ preciso mostrar que essa se´rie e´ convergente no espac¸o L(IRn) das matrizes n × n (ou dos operadores lineares de IRn em IRn). Para isto, vamos definir uma norma apropriada. Se < , > e | | denotam, respectivamente, o produto interno e a norma usuais do IRn, isto e´, < x, y >= x1y1 + · · ·+ xnyn e |x| = √< x, x > = √ x21 + · · ·+ x2n. se x = (x1, · · · , xn) e y = (y1, . . . , yn) ∈ IRn definimos a norma de um operador linear A : IRn → IRn por ‖A‖ = sup x6=0 |Ax| |x| = supx6=0 |A( x |x|)| = sup|x|=1 |Ax|. (5.5) Para que essa definic¸a˜o realmente defina uma norma, vamos primeiramente observar que esse supremo e´ finito. Esta propriedade pode ser obtida utilizando-se do seguinte resultado de Ana´lise: toda func¸a˜o cont´ınua definida num conjunto compacto e´ limi- tada; neste caso Ax e´ cont´ınua (sua representac¸a˜o matricial envolve somente expressoo˜es cont´ınuas) e esta´ definida em {x : |x| = 1} que e´ compacto de IRn, e portanto o supremo e´ finito; ou utilizando-se somente de argumentos de a´lgebra linear da seguinte forma: Se a1 = (a11, · · · a1n), · · · , an = (an1, · · · ann) sa˜o as linhas da matriz A, de modo que A = a1 ... an temos que o produto da matriz A por um vetor x ∈ IRn e´ dado por Ax = < a1, x > ... < an, x >) portanto, usando a desigualdade de Schwartz (| < x, y > | ≤ |x| |y| ), temos que |Ax| = |(< a1, x >, · · · , < an, x >)| = (< a1, x >2 + · · ·+ < an, x >2) 12 ≤ (|a1|2 + · · ·+ |an|2) 12 |x|. 18 portanto |Ax| |x| ≤ (|a1| 2 + · · ·+ |an|2) 12 ∀x 6= 0 (5.6) o que justifica que o supremo e´ finito. A justificativa das demais propriedades necessa´rias para que (5.5) seja uma norma, (i) ‖A‖ ≥ 0, e ‖A‖ = 0⇔ A = 0 (ii) ‖αA‖ = |α|‖A‖, α ∈ IR (iii) ‖A+B‖ ≤ ‖A‖+ ‖B‖, sera˜o deixadas para o leitor. O Espac¸o vetorial das matrizes n× n, L(IRn), pode ser considerado como o espac¸o IRn2 e a norma definida em (5.5) e´ equivalente a norma usual de IRn 2 (dada pela raiz quadrada dos quadrados de seus elementos), pois de (5.6) temos que ‖A‖ = sup x 6=0 |Ax| |x| ≤ ( ∑ a2ij) 1 2 = |(aij)| e, por outro lado, denotando por e1, · · · en a base canoˆnica do IRn, temos que |Aei| = (a21i + · · ·+ a2ni) 1 2 portanto ‖A‖ = sup |x|=1 |Ax| ≥ (a21i + · · ·+ a2ni) 1 2 , ∀i. Somando, para i = 1, ..., n, obtemos n‖A‖ ≥ (∑ a2ij) 12 = |(aij)|., (5.7) que mostra a equivaleˆncia das duas normas. Observe que usamos aqui a desigualdade√ a+ √ b ≥ √a+ b. As desigualdades (5.6) e (5.7) mostram que a norma ‖ ‖ e´ equivalente a` norma usual do IRn 2 , isto e´, temos que 1 n |(aij)| ≤ ‖A‖ ≤ |(aij)|. Temos que L(IRn) e´ uma espac¸o vetorial completo e a vantagem em considerar a norma ‖ ‖ em vez da norma usual e´ que nesta norma temos a desigualdade ‖Ax‖ ≤ ‖A‖|x|, (5.8) a constante ‖A‖ e´ a menor constante tal que essa desigualdade e´ verdadeira. Utilizando-se dessa desigualdade temos que ‖AB‖ ≤ ‖A‖‖B‖ 19 e particularmente, ‖An‖ ≤ ‖A‖n, (5.9) que e´ a desigualdade que iremos utilizar na justificativa da convergeˆncia da se´rie da expo- nencial eA Para que a se´rie (5.4) defina a matriz eA e´ preciso que seja convergente. Para isto observe que usando a desigualdade (5.9) temos para p > 0 que: ‖A n n! + · · ·+ A n+p (n+ p)! ‖ ≤ ‖A‖ n n! + · · ·+ ‖A‖ n+p (n+ p)! e essa u´ltima espressa˜o e´ formada por termos da se´rie da func¸a˜o exponencial (5.3) que converge para todo real, em particular para a = ‖A‖, portanto a se´rie exp(A) e´ uma se´rie de Cauchy L(IRn) e portanto convergente. Ainda mais, de modo ana´logo a`s func¸o˜es reais, podemos justificar que a candidata a` soluc¸a˜o do sistema de equac¸o˜es lineares: exp(At)x0 = e Atx0 = e Atx0 = x0 + Atx0 + A2t2 2! x0 + A3t3 3! x0 + ... pode ser derivadaem t, com derivada satisfazendo: d dt etAx0 = Ae tAx0 isto e´, x(t) = eAtx0, esta´ bem definida, satisfaz a equac¸a˜o (5.1) e a condic¸a˜o inicial (5.2), temos enta˜o, de modo ana´logo ao problema escalar, existeˆncia, unicidade de soluc¸a˜o. Vale tambe´m a fo´rmula de variac¸a˜o das constantes, isto e´, a soluc¸a˜o do sistema na˜o homogeˆneo{ x˙ = Ax+ h(t) x(0) = x0, (5.10) e´ dada por x(t) = eAtx(0) + ∫ t 0 eA(t−s)h(s)ds. (5.11) A definic¸a˜o da exponencial da matriz A resolveu o P.V.I. (5.1) - (5.2), pore´m a dificuldade computacional permanece, pois dada uma matriz A para calcularmos eA atrave´s de (5.4) precisamos conhecer todas as poteˆncias de A, o que e´ imposs´ıvel de modo geral. Em casos particulares, como por exemplo, quando A e´ uma matriz diagonal, na˜o e´ dif´ıcil verificar que a exponencial de A tambe´m e´ diagonal, com diagonal formada pela exponencial dos elementos da diagonal de A (verifique como exerc´ıcio), ou quando A e´ nilpotente, isto e´, existe r > 0 tal que Ar = 0, temos nesse caso que a se´rie (5.4) se torna uma soma finita, e portanto podemos perfeitamente (se estivermos dispostos) calcularmos todos os termos dessa soma. Desse modo podemos utilizar a Forma de Jordan para o ca´lculo desta exponencial Temos que x(t) = eAtx0 e´ a soluc¸a˜o do problema de condic¸a˜o inicial (5.1), (5.2). Para calcularmos a expressa˜o de eA, vamos primeiramente verificar algumas propriedade dessa 20 exponencial: 1. Se M e´ uma matriz invers´ıvel enta˜o eM −1AM =M−1eAM isto decorre do fato que (M−1AM)j =M−1AjM. 2. e(A+B)t = eAteBt ∀t ⇔ A comuta com B Demonstrac¸a˜o: (⇒) Se e(A+B)t = eAteBt temos derivando ambos os lados que : (A+B)e(A+B)t = AeAteBt + eAtBeBt derivando novamente e fazendo t = 0, obtemos (A+B)2 = A2 + 2AB +B2 que implica que AB = BA. (⇐) Se A comuta com B e´ fa´cil ver que X(t) = eAteBt satisfaz a equac¸a˜o diferencial X˙(t) = (A + B)X(t) com condic¸a˜o inicial X(0) = I, enta˜o pela unicidade de soluc¸a˜o devemos ter X(t) = e(A+B)t, e a propriedade esta´ justificada. Se M e´ a matriz de mudanc¸a de base tal que M−1AM esta´ na forma de Jordan M−1AM = diag[A1, · · · , A`], Ai = λi +Ri onde Ri e´ do tipo figura 1, enta˜o, como M−1eAtM = eM −1AMt, temos que eAt =MeM −1AMtM−1. Vamos portanto calcular a matriz eM −1AMt. Temos que eM −1AMt e´ diagonal de blocos do tipo: e(λI+R)t, R = 0 0 0 · · · 0 0 1 0 0 · · · 0 0 0 1 0 · · · 0 0 ... . . . . . . ... 0 0 0 · · · 1 0 k×k . Como λI comuta com R temos que eλI+R)t = e(λI)teRt = eλteRt = eλt ( I +Rt+ R2 2! t2 + · · ·+ R k−1 (k − 1)!t k−1 ) 21 = eλt 1 t 1 t2 2! t 1 ... ... . . . . . . tk−1 (k−1)! tk−2 (k−2)! · · · t 1 k×k . Observe que eλt esta´ multiplicando a matriz, portanto podemos concluir que: 1. Os auto valores da exponencial eAt sa˜o todos do tipo eλt, com λ auto valor de A. 2. Os elementos de eAt sa˜o combinac¸o˜es lineares de termos do tipo tjeλt, com j limitado pelos ı´ndices de nilpoteˆncia, no caso acima j ≤ k, logo sa˜o do tipo p(t)eλt, onde p(t) e´ um polinoˆmio em t. 6. Exec´ıcios 1. Encontre a Forma de Jordan das seguinte matrizes: ( 1 −2 −2 1 ) , ( 1 −1 1 1 ) , 5 0 −62 −1 −2 4 −2 −4 . 2. (a) Determine a exponencial das matrizes acima (b) Fac¸a o esboc¸o do plano de fases dos sistemas dados por essas matrizes 3. Determine a soluc¸a˜o do Problema de Valor Inicial x˙ = ( 1 −2 −2 1 ) x+ ( cos t sin t ) , x(0) = ( 3 −2 ) 4. Duas matrizes A, e B sa˜o chamadas de similares de existe uma matriz invers´ıvel M tal que A =M−1BM Mostre que: (a) Duas matrizes sa˜o similares se, e somente se, possuem forma de Jordan iguais (b) Toda matriz e´ similar a sua transposta. (c) Toda matriz real com determinante negativo e´ diagonalizavel (similar a uma matriz diagonal) 22 5. Sejam h1(t) e h2(t) func¸o˜es cont´ınuas e perio´dicas de per´ıodo 2pi. Deˆ uma condic¸a˜o, necessa´ria e suficiente, para que todas as soluc¸o˜es do sistema x˙ = y + h1(t) y˙ = −x+ h2(t) sejam perio´dicas de per´ıodo 2pi. Sugeta˜o. Justifique e use o seguinte resultado: se h e´ cont´ınua e perio´dica de per´ıodo 2pi, enta˜oH(t) = ∫ t 0 h(s) ds e´ perio´dica de per´ıodo 2pi se, e somente se, ∫ 2pi 0 h(s)ds = 0 6. Seja A uma matriz n× n e x(t), y(t) ∈ IRn, mostre que: (a) d dt 〈x(t), y(t)〉 = 〈x˙(t), y(t)〉+ 〈x(t), y˙(t)〉 (b) 〈Ax(t), y(t)〉 = 〈x(t), Aty(t)〉 onde 〈 , 〉 denota o produto interno usual do IRn, e at denota a matriz transposta de A 7. Se A e´ uma matriz anti sime´trica (isto e´ At = −A), enta˜o mostre que as soluc¸o˜es do sistema diferencial linear x˙ = Ax, permanece em superf´ıcies esfe´ricas centradas na origem. Sugesta˜o. Calcule a derivada de |x(t)|2 = 〈x(t), x(t)〉. Bibliografia [1] Figueiredo, D. G.; Neves, A. F.; Equac¸o˜es Diferenciais Aplicadas, 2 a¯ edic¸a˜o, Colec¸a˜o Matema´tica Universta´ria, IMPA, 2001. [2] Halmos, P. R.; Finite-Dimensional Vector Spaces, Van Nostrand Reinhold, 1958 [3] Hirsch, M. W.; Smale, S.; Differential Equations, Dynamical Systems, and Linear Algebra, Academic Press, Inc, 1974 23
Compartilhar