Buscar

Jordan e EDO

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 23 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 23 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 23 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

NOTAS DE AULA
Forma de Jordan e Equac¸o˜es Diferenciais Lineares
Aloisio Freiria Neves1
1. Prefa´cio
O objetivo deste texto e´ desenvolver de maneira completa a Forma de Jordan e os Sistemas
de Equac¸o˜es Diferenciais Lineares. A redac¸a˜o busca utilizar a relac¸a˜o entre esses temas
como forma de motivar e facilitar o aprendizado. Os conceitos e as demonstrac¸o˜es sa˜o
apresentadas de maneira rigorosa e detalhada.
O texto e´ dirigido a` alunos de Graduac¸a˜o, que ja´ cursaram as disciplinas de ca´lculo e que
tenham noc¸o˜es de A´lgebra Linear, especificamente noc¸o˜es de bases do IRn e de matrizes de
transformac¸o˜es lineares. O texto trata em detalhes to´picos como: multiplicidades alge´brica
e geome´trica de auto valores, polinoˆmio minimal, exponencial de matrizes, teorema de ex-
isteˆncia e unicidade, entre outros, to´picos que, em geral, sa˜o cobertos superficialmente nos
cursos de graduac¸a˜o. O texto e´ u´til para leitores que pretendem aprofundar-se um pouco
neste to´picos e tambe´m para aqueles interessados em a´reas como: Sistemas Dinaˆmicos,
Equac¸o˜es Diferenciais de Evoluc¸a˜o e Teoria de Semi Grupos de Operadores Lineares.
A bibliografia, no final do texto, contem treˆs livros que foram escolhidos cuidadosamente
com o objetivo de direcionar o leitor.
2. Introduc¸a˜o
O tipo mais simples de equac¸a˜o diferencial linear que podemos considerar e´ a equac¸a˜o
do crescimento exponencial: a taxa de crescimento e´ proporcional a` quantidade presente
x˙ = ax, a = constante. (2.1)
Quando nos deparamos pela primeira vez com uma equac¸a˜o diferencial as perguntas
que aparecem naturalmente sa˜o: Existe soluc¸a˜o? A soluc¸a˜o e´ u´nica? O que podemos
afirmar sobre as soluc¸o˜es? Para a equac¸a˜o acima e´ fa´cil ver que a func¸a˜o x(t) = eat e´
uma soluc¸a˜o, bem como qualquer de seus mu´ltiplos x(t) = eatc, onde c e´ uma constante
arbitra´ria. Podemos mostrar que todas as soluc¸o˜es sa˜o desta forma. De fato, dada uma
soluc¸a˜o qualquer x(t) de (2.1), diferenciando a expressa˜o e−atx(t) e usando a equac¸a˜o (2.1),
obtemos:
d
dt
(e−atx(t)) = −ae−atx(t) + e−atx˙(t) = −ae−atx(t) + e−atax(t) = 0
1Internet: http://www.ime.unicamp.br/∼aloisio
1
o que mostra que e−atx(t) = c, ou seja x(t) = eatc. A expressa˜o eatc e´ chamada de
Soluc¸a˜o Geral da equac¸a˜o diferencial (2.1). Para termos unicidade de soluc¸a˜o precisamos
especificar uma condic¸a˜o inicial, neste caso temos o que chamamos de Problema de Valor
Inicial (P.V.I.) {
x˙ = ax
x(0) = x0.
(2.2)
Como (2.1) tem uma soluc¸a˜o geral, temos, consequ¨entemente, que a soluc¸a˜o deste P.V.I.
deve ser da forma eatc. Utilizando-se da condic¸a˜o inicial determinamos a constante c:
x(0) = ea0c = c
e assim a soluc¸a˜o do problema e´ u´nica e dada por
x(t) = eatx(0).
Observe que as soluc¸o˜es sa˜o func¸o˜es definidas para todo t ∈ IR. Demonstramos, desta
forma, um Teorema de Existeˆncia e Unicidade para o problema (2.2).
Para o problema na˜o homogeˆneo:{
x˙ = ax+ h(t)
x(0) = x0.
(2.3)
tambe´m temos existeˆncia e unicidade de soluc¸a˜o. Neste caso a soluc¸a˜o e´ dada pela Fo´rmula
de variac¸a˜o da Constantes, isto e´, se x(t) e´ soluc¸a˜o de (2.5), enta˜o
d
dt
(e−atx(t)) = −ae−atx(t) + e−at(ax(t) + h(t)) = e−ath(t),
integrando esta igualdade de 0 a t, obtemos
e−atx(t)− x(0) =
∫ t
0
e−ash(s)ds
e portanto a soluc¸a˜o e´ dada por
x(t) = eatx(0) +
∫ t
0
ea(t−s)h(s)ds. (2.4)
Esta expressa˜o e´ conhecida na literatura como Fo´rmula de variac¸a˜o das Constantes. Es-
tamos supondo que a func¸a˜o h(t) esta´ definida e e´ cont´ınua num intervalo que conte´m
o ponto t = 0, de modo que, a fo´rmula de variac¸a˜o das constantes garante a existeˆncia
e unicidade da soluc¸a˜o definida, e mostra ainda que a soluc¸a˜o esta´ definida no mesmo
intervalo que a func¸a˜o h(t).
Um dos objetivos deste texto e´ generalizar estes resultados para Sistema de Equac¸o˜es
Diferenciais Lineares {
x˙ = Ax
x(0) = x0, ;
x(t) =

x1(t)
x2(t)
...
xn(t)
 (2.5)
2
onde A e´ uma matriz constante n× n e x e´ uma func¸a˜o diferencia´vel de IR em IRn. Neste
caso na˜o temos uma soluc¸a˜o que salta aos olhos como no caso escalar (2.2). A intuic¸a˜o
nos sugere definir a exponencial eAt de uma matriz At, e verificar se as propriedades desta
exponencial nos permite generalizar o caso escalar para sistemas. Este e outros resultados
sera˜o obtidos atrave´s da teoria de Jordan para classificac¸a˜o de matrizes. O texto esta´
dividido da seguinte forma: o cap´ıtulo 2 desenvolve a Forma de Jordan e o cap´ıtulo 3
estuda os sistemas de equac¸o˜es diferencias lineares.
3. A Forma de Jordan
Neste cap´ıtulo desenvolveremos a teoria de Jordan para classificac¸a˜o de matrizes quadradas.
O objetivo e´ determinar uma base no IRn na qual a matriz A seja a mais simples poss´ıvel,
tenha o maior nu´mero de zeros.
Definic¸a˜o 3.1 Se existir um interio r > 0 tal que Ar = 0, enta˜o a matriz A e´ chamadas
de Nilpotente e o menor valor de r tal que Ar = 0 e´ chamado de ı´ndice de nilpoteˆncia
de A.
Vamos a um exemplo de matriz nilpotente, considere
0 0 0 · · · 0 0
1 0 0 · · · 0 0
0 1 0 · · · 0 0
...
. . . . . .
...
0 0 0 · · · 1 0

k×k
que e´ uma matriz formada por zeros com excec¸a˜o da diagonal abaixo da diagonal principal,
que e´ formada por 1’s. Quando calculamos A2 (fac¸a como exerc´ıcio) a diagonal de l’s
escorrega para a diagonal imediatamente abaixo, quando calculamos A3 a diagonal de 1’s
vai mais uma para baixo e assim por diante. Como a matriz e´ de tamanho (ou ordem)
k temos que Ak−1 possui zero em todas as posic¸o˜es exceto na posic¸a˜o k1 (u´ltima linha
com primeira coluna), que tem 1 (a diagonal de 1’s esta´ quase saindo fora da matriz),
finalmente Ak = 0, isto e´, a matriz acima e´ nilpotente de ı´ndice k.
A pergunta que se coloca e´ a seguinte: Sera´ que podemos transformar uma matriz
qualquer (atrave´s de uma mudanc¸a de base) numa expressa˜o que envolva somente matrizes
diagonais e matrizes nilpotentes? Com esta pergunta queremos motivar o leitor a estudar
o objeto central deste cap´ıtulo que e´ a Forma de Jordan. E´ obvio que so´ o fato da
existeˆncia de uma forma canoˆnica envolvendo matrizes com estas propriedades ja´ e´ por
si so´ motivador e cativador. Ale´m disso, como veremos a seguir, a matriz na Forma de
Jordan possui muitos zeros o que certamente e´ muito mais operacional.
3
Proposic¸a˜o 3.1 Se A e´ nilpotente de ı´ndice r, enta˜o:
i) λ = 0 e´ o u´nico auto valor de A.
ii) Se Ar−1v0 6= 0, enta˜o {v0, Av0, · · · , Ar−1v0} e´ LI.
Demonstrac¸a˜o: i) Se Av = λv, com v 6= 0, enta˜o 0 = Arv = λrv, logo λ = 0.
ii) Seja α0v0+α1Av0+ · · ·+αr−1Ar−1v0 = 0. Suponha que exista escalar na˜o nulo, chame
de αs o primeiro desses escalares, de modo que a soma acima possa ser escrita como
αsA
sv0 + · · ·+ αr−1Ar−1v0 = 0
portanto, como αs 6= 0, podemos escrever
Asv0 = −αs+1
αs
As+1v0 − · · · − αr−1
αs
Ar−1v0
= As+1(−αs+1
αs
v0 − · · · − αr−1
αs
Ar−s−2)
portanto Asv0 = A
s+1v, onde v e´ o vetor escrito entre pareˆnteses na expressa˜o acima, logo
temos que
Ar−1v0 = Ar−1−s(Asv0) = Ar−1−s(As+1v) = Arv = 0
que e´ uma contradic¸a˜o, logo na˜o existe escalar na˜o nulo, e portanto os vetores sa˜o linear-
mente independentes.
Proposic¸a˜o 3.2 Dada uma transformac¸a˜o linear A : V → V existem subespac¸os vetoriais
H e K, invariantes por A, tais que
V = H ⊕K
com A/H : H → H nilpotente e A/K : K → K invers´ıvel
Demonstrac¸a˜o: Temos que
KerA ⊂ KerA2 ⊂ · · · ,
como V e´ de dimensa˜o finita, estas incluso˜es na˜o podem ser pro´prias, logo existe um menor
interio k tal que
KerAk = KerAk+1
e e´ fa´cil verificar que (use induc¸a˜o sobre j)
KerAk = KerAk+j com j = 1, 2, 3, · · ·
Colocamos
H = KerAk e K = ImAk
temos que H∩K = {0}, pois se v ∈ H∩K enta˜o Akv = 0 e existe w ∈ V tal que Akw = v,
portantoAk(Akw) = 0⇒ w ∈ KerA2k = KerAk ⇒ v = Akw = 0.
Como dim(KerAk) + dim(ImAk) = dimV , temos que V = H ⊕K.
4
A verificac¸a˜o que HeK sa˜o A-invariantes, A/H e´ nilpotente de ı´ndice k e A/K ı´nvers´ıvel
pode (e deve) ser feita como exerc´ıcio.
A Forma de Jordan de um operador A pode ser obtida atrave´s das seguintes observac¸o˜es:
1) O nu´mero k dado acima satisfaz
k ≤ dimH.
O caso k = 0 acontece quando A e´ invers´ıvel (KerAo = KerA), logo H = {0}. Quando
k > 0, basta notar que a sequeˆncia KerA,KerA2, KerA3, ..., cresce de pelo menos 1 em
dimensa˜o ate´ k, portanto k ≤ dim(KerAk).
2) Se B e´ uma base de V formada pela unia˜o de bases de H e K, temos que a matriz de A
na base B e´ do tipo
[A]B =
(
[A/H ] 0
0 [A/K ]
)
portanto
det[A]B = det[A/H ] det[A/K ].
Como det[A/K ] 6= 0, pois A/K e´ invers´ıvel, temos que a multiplicidade alge´brica do zero (a
multiplicidade do zero como raiz do polinoˆmio caracter´ıstico de A), e´ igual a multiplicidade
alge´brica do zero como raiz do polinoˆmio caracter´ıstico de A/H , que e´ igual a dim H, pois
A/H e´ nilpotente e portanto so´ possui o zero como auto valor, isto e´
ma(0) = dimH = dimKerAk.
3) Se λ1 e´ auto valor de A com multiplicidade alge´brica,ma(λ1) = m1, usando a proposic¸a˜o
3.2 e as observac¸o˜es anteriores a` (A− λ1I) : V → V , temos que V = H1 ⊕K1, com
dimH1 = m1 = dimKer(A− λ1I)k1
onde k1 e´ o primeiro inteiro tal que
Ker(A− λ1I)k1 = Ker(A− λ1I)k1+1
e ainda mais, (A− λ1I)/H1 e´ nilpotente de ı´ndice k1 com k1 ≤ m1.
Como A : K1 → K1 na˜o possui λ1 como auto valor, pois det[(A− λ1I)/K1 ] 6= 0, podemos
repetir o argumento acima para A : K1 → K1 tomando um segundo auto valor λ2 de
A e obtendo um segundo subespac¸o H2 no qual a restric¸a˜o de A − λ2I e´ nilpotente.
Assim sucessivamente, temos para o caso geral em que λ1, λ2, ..., λ` sa˜o os auto valores de
A : V → V com multiplicidades alge´bricas respectivamente m1,m2, ...,m`, e portanto seu
polinoˆmio caracter´ıstico e´ igual a
P (λ) = (λ− λ1)m1 · · · (λ− λ`)m` (3.1)
5
que, existem subespac¸os invariantes H1, · · ·H` tais que:
dimHi = mi
V = H1 ⊕ · · · ⊕H`
(A− λiI)/Hi nilpotente
(3.2)
Definic¸a˜o 3.2 Os sub espac¸os Hi sa˜o chamados de auto-espac¸os generalizados.
4) Com base nestes resultados basta analisarmos as transformac¸o˜es nilpotentes, pois se
dada uma transformac¸a˜o nilpotente, soubermos encontrar uma base na qual a matriz da
transformac¸a˜o e´ bastante simples, temos usando (3.2) que a matriz de uma transformac¸a˜o
qualquer sera´ formada por esses blocos bastante simples, em diagonal.
Suponhamos enta˜o queA : V → V e´ nilpotente de ı´ndice k, sabemos que {v, Av, ..., Ak−1v}
e´ LI, para algum vetor v. Se k = dimV enta˜o esta´ o´timo porque esses vetores formam
uma base de V e a matriz de A nessa base e´ do tipo Bloco de Jordan:

0 0 0 · · · 0 0
1 0 0 · · · 0 0
0 1 0 · · · 0 0
...
. . . . . .
...
0 0 0 · · · 1 0

k×k
Figure 1: Bloco de Jordan
Observe que os nu´meros 1’s podem aparecer abaixo ou acima da diagonal, basta inverter
a ordem da base.
Para o caso em que k < dimV usaremos o seguinte resultado cuja demonstrac¸a˜o daremos
logo apo´s as observac¸o˜es:
Proposic¸a˜o 3.3 Se A : V → V e´ nilpotente de ı´ndice k e Ak−1v0 6= 0, enta˜o existe um
subespac¸o M , invariante por A, tal que
V = N ⊕M
onde N = [v0, Av0, · · · , Ak−1v0]
Logo, quando k < dimV , consideramos a restric¸a˜o de A ao subespac¸o invariante M ,
A : M → M , que tambem sera´ nilpotente com ı´ndicie de nilpoteˆncia k′ ≤ k, portanto
6
com o mesmo racioc´ınio obtemos um novo conjunto de vetores linearmente independentes,
{v′, Av′, · · · , Ak′−1v′}. Se k′ = dimM o´timo, encerramos o processo e
{v, Av, · · · , Ak−1v, v′, Av′, · · · , Ak′−1v′}
e´ uma base na qual a matriz de A e´ formada por dois blocos de Jordan em diagonal.
Utilizando-se desse procedimento podemos concluir, de modo geral, que se A e´ nilpotentes
de ı´ndice k, existe uma base na qual sua matriz e´ bastante simples, formada por blocos de
Jordan em diagonal, do tipo:
²
±
¯
°
0
1 0
1 0
. . . . . .
1 0 k × k
0 0
1 0
. . . . . .
1 0 k′ × k′
. . .
¨
§
¥
¦
¨
§
¥
¦
Figure 2: Forma de Jordan de um Operador Nilpotente
onde k ≥ k′ ≥ · · ·, isto e´, os blocos em diagonal va˜o decrescento (em ordem) e sa˜o todos
do tipo figura 1.
5) Conforme (3.2), temos que o operador (A − λiI)/Hi e´ nilpotente, logo sua matriz e´ do
tipo da figura 2, com ı´ndice de nilpoteˆncia ki. Como a matriz de A/Hi e´ a soma dessa
matriz com a matriz diagonal λiI, temos que a matriz de A/Hi e´ do tipo figura 2, mas com
λi na diagonal em vez de zeros.
Agora, como V e´ a soma direta dos subespac¸os Hi, temos que a matriz de A e´ uma matriz
formada por blocos em diagonal
onde cada bloco e´ do tipo figura 2 com o respectivo auto valor λi na diagonal e sua ordem
e´ a multiplicidade alge´brica de λi, mi.
A forma matricial assim obtida e´ chamada de Forma de Jordan do operador A. Para
completarmos a sua justificativa falta apenas a demonstrac¸a˜o da proposic¸a˜o 3.3. Daremos
uma demonstrac¸a˜o dessa proposic¸a˜o logo a seguir e encerraremos essas notas com algumas
aplicac¸o˜es e mais algumas propriedades que certamente lhe sera˜o muito u´teis
7
A/H1
A/H2
. . .
A/H`
²
±
¯
°
Figure 3: Forma de Jordan
Demonstrac¸a˜o da proposic¸a˜o 3.3: Demonstraremos por induc¸a˜o sobre o ı´ndice k de
nilpoteˆncia do operador A : V → V .
Se k = 1, enta˜o A = 0 e o resultado e´ imediato.
Suponhamos a proposic¸a˜o verdadeira para k− 1 e vamos demonstra´-la para k. Temos que
ImA e´ um subespac¸o invariante e A/ImA e´ nilpotente de ı´ndice k − 1, pois
Ak−1(Av) = Akv = 0 e Ak−2(Av0) = Ak−1v0 6= 0
portanto pela hipo´tese de induc¸a˜o
ImA = N1 ⊕M1 com N1 = [Av0, · · · , Ak−1v0] = A(N).
Colocando
M2 = {v ∈ V : Av ∈M1}
temos que
V = N +M2, onde N = [v0, Av0, · · · , Ak−1v0] (3.3)
de fato, v ∈ V ⇒ Av ∈ ImA = N1 ⊕M1 ⇒ Av = n1 + m1 com n1 ∈ N1 e m1 ∈ M1
portanto n1 = An para algum n ∈ N , logo Av = An+m1 ⇒ A(v − n) = m1 ∈M1 donde
concluimos que (v − n) ∈M2 e claramente v = n+ (v − n) ∈ N +M2.
A soma em (3.3) na˜o e´ direta ja´ que
N ∩M2 = [Ak−1v0] ⊂ N1.
Observe que M1 ⊂M2, e logicamente N ∩M2 ⊂M2 portanto
(N ∩M2)⊕M1 ⊂M2
logo podemos completar esse subespac¸o (N ∩M2)⊕M1 com um subespac¸o M3 de modo
a obter M2, isto e´,
M2 = (N ∩M2)⊕M1 ⊕M3. (3.4)
8
Colocamos enta˜o
M =M1 ⊕M3
e temos:
i) M ⊂M2, logo A(M) ⊂ A(M2) ⊂M1 ⊂M donde concluimos que M e´ invariante.
ii) N ∩M = {0}, pois se v ∈ N ∩M ⇒ v ∈ N e v ∈M ⊂M2 ⇒ v ∈ N ∩M2 portanto
v ∈M ∩ (N ∩M2) = {0}
por (3.4).
iii) V = N ⊕M porque V = N +M2 e M2 = N ∩M2 ⊕M , logo v = n + (h +m) com
n ∈ N , h ∈ N ∩M2 e m ∈M , mas enta˜o
v = (n+ h) +m com (n+ h) ∈ N, m ∈M
o que completa a prova.
Comenta´rios e propriedades complementares sobre a Forma de Jordan:
O objetivo aqui e´ como determinar a forma de Jordan de um operador arbitra´rio A.
Para cada auto valor λi, de A vamos calcular a forma de Jordan do operador nilpotente
(A − λiI)/Hi , onde Hi = Ker(A − λiI)ki . Essa matriz possui o primeiro bloco de Jordan
de tamanho (ordem) ki×ki, e possivelmente outros blocos menores ou iguais em diagonal;
a quantidade desses blocos e seus respectivos tamanhos depende logicamente do operador
A. A questa˜o que queremos discutir aqui e´: Como determinar essa quantidade e esses
tamanhos (ou ordens)?
Observe primeiramente que os nu´meros ki sa˜o ı´ndices de nilpoteˆncia de (A− λiI), isto
e´, o menor inteiro tal que (A − λiI)ki = 0 em Hi e ki ≤ mi. Portanto considerando o
polinoˆmio
p(λ) = (λ− λ1)k1(λ− λ2)k2 · · · (λ− λ`)k`
temos que p(λ) tem coeficiente principal igual a 1, tem grau menor ou igual ao polinoˆmio
caracter´ıstico (3.1) e p(A) = 0, porque se v ∈ V , v = v1 + · · ·+ v` com vi ∈ Hi veja (3.2),
p(A) = (A− λ2I)k2 . . . (A−λ`I)k`
=0︷ ︸︸ ︷
(A− λ1I)k1v1+ · · ·
+(A− λ1I)k1 · · · (A− λ`I)k`v`︸ ︷︷ ︸
=0
= 0
observe tambe´m que se diminuirmos um desses ki na˜o temos mais essa propriedade p(A) =
0, portanto p(λ) e´ o polinoˆmio minimal de A, isto e´, o polinoˆmio de menor grau com
coeficiente principal = 1 e tal que p(A) = 0.
Uma outra observac¸a˜o importante e´ que na ”diagonal” abaixo da diagonal principal da
9
Forma de Jordan do operador nilpotente (A − λiI)/Hi os 0’s aparecem exatamente na
posic¸a˜o de intersecc¸a˜o dos blocos de Jordan, veja a figura 2, logo se olharmos para as
colunas nulas dessa matriz (figura 2), temos tantas colunas nulas quantos forem os seus
blocos (a u´ltima coluna dessa matriz e´ nula, que corresponde ao u´ltimo bloco), portanto
para determinarmos o nu´mero de blocos correspondentes a λi devemos calcular o nu´mero
de colunas nulas, mas esse nu´mero e´ exatamente a dimensa˜o de Ker(A− λiI).
Definic¸a˜o 3.3 A dimensa˜o de Ker(A− λiI) e´ chamada de multiplicidade geome´trica de
λi.
Temos portanto informac¸o˜es sobre a ordem do maior bloco de Jordan e sobre o nu´mero
de blocos existentes para cada λi. Falta somente informac¸o˜es sobre a ordem desses blocos.
Para isto chamaremos de N a dimensa˜o do espaco V e colocaremos:
T = (A− λiI),
dj = dimKerT
j = dimKer(A− λiI)j
e
nj = nu´mero de blocos de Jordan de ordem j × j.
Observe que devemos calcular as dimenso˜es dj ate´ obtermos o primeiro inteiro k tal que
dk = dk+1, que e´ o ı´ndice de nilpoteˆncia do auto valor λi, a partir desse ı´ndice temos,
dj = dk, j ≥ k. Observe ainda que
d0 = dimKerI = 0.
Sabemos que o nu´mero de blocos e´ igual a multiplicidade geome´trica, logo
d1 = n1 + n2 + · · ·+ nN
que sa˜o todas as ordens poss´ıveis.
Agora, quando calculamos T 2 a ”diagonal” de 1’s escorrega para a ”diagonal” imediata-
mente abaixo, veja figura 2, isto significa que nos blocos de Jordan de ordens ≥ 2 aumenta
uma coluna de zeros em cada um, logo
d2 = n1 + 2n2 + · · ·+ 2nN .
Com o mesmo racioc´ınio concluimos para os subsequentes, isto e´,
d3 = n1 + 2n2 + 3n3 + · · ·+ 3nN = n1 + 2n2 + 3(n3 + · · ·+ nN),
...
dN−1 = n1 + 2n2 + · · ·+ (N − 2)nN−2 + (N − 1)(nN−1 + nN),
dN = n1 + 2n2 + · · ·+NnN ,
dN+1 = dN .
10
Os di’s sa˜o conhecidos (ja´ foram calculados), vamos resolver para os ni’s. Subtraindo cada
equac¸a˜o da anterior obtemos:
d1 − d0 = n1 + · · ·+ nN
d2 − d1 = n2 + · · ·+ nN
...
dN − dN−1 = nN
dN+1 − dN = 0.
Subtraindo cada equac¸a˜o da subsequente, vem
−d0 + 2d1 − d2 = n1
...
−dN−1 + 2dN − dN+1 = nN .
Obtemos portanto a relac¸a˜o
nj = −dj−1 + 2dj − dj+1, 1 ≤ j ≤ N (3.5)
que fornece o nu´mero de blocos de Jordan de ordem j × j correspondentes ao auto valor
λi.
Vamos a um exemplo: Suponhamos que λ1 = 5 seja auto valor de um operador A que
satisfaz as seguintes condic¸o˜es:
• multiplicidade alge´brica = 10
• multiplicidade geome´trica = 6, isto e´, d1 = dimKer(A− 5I) = 6
• ındice de nilpoteˆncia = 3, isto e´, dj = d3 = 10 para j ≥ 3
• e d2 = 9.
portanto podemos tirar as seguintes concluso˜es
• O bloco tem o valor 5 na diagonal (5 e´ o auto valor).
• A ordem do bloco e´ = 10× 10 (10 e´ a multiplicidade alge´brica).
• O maior bloco de Jordan e´ 3× 3 (3 e´ o ı´ndice de nilpoteˆncia).
• Possui 6 blocos de Jordan (6 e´ a multiplicidade geome´trica).
11
Falta somente as ordens dos blocos e a quantidade de cada um deles. Para isto usamos a
fo´rmula (3.5), e obtemos:
n1 = −d0 + 2d1 − d2 = 0 + 12− 9 = 3,
n2 = −d1 + 2d2 − d3 = −6 + 18− 10 = 2,
n3 = −d2 + 2d3 − d4 = −9 + 20− 10 = 1.
Logo, o bloco correspondente ao auto valor 5 e´:
5
1 5
1 5 0
0 5
1 5
0 5
1 5
0 0 5
0 5
0 5

Quando o operador A possui auto valores complexos, λ = α+βi a forma de Jordan obtida
pelo processo descrito acima e´ complexa e os auto valores sa˜o complexos conjugados. Nesse
caso o operador A deve ser considerado sobre CN e a forma de Jordan pode ser utilizada
normalmente com os mesmos objetivos. Agora se isto lhe importunar e voceˆ deseja obter
tambe´m nesse caso uma matriz real, podemos proceder da seguinte forma:
Vamos denotar por λ o auto valor com parte imagina´ria positiva e por λ¯ seu conjugado.
Se
{v1, · · · , vk} onde vj = xj + iyj
denota a base do auto espac¸o generalizado correspondente a λ, temos que
{v¯1, · · · , v¯k}, ¯= conjugado
e´ a base correspondente a λ¯, logo esses 2k vetores sa˜o linearmente independentes sobre o
corpo dos nu´meros complexos C, e portanto
{y1, x1, · · · yk, xk}
sa˜o 2k vetores linearmente independentes sobre IR. Isto segue das seguintes igualdades:
a1x1 + b1y1 + · · ·+ akxk + bkyk
=
a1
2
(v1 + v¯1) +
b1
2i
(v1 − v¯1) + ak
2
(vk + v¯k)
bk
2i
(vm − v¯k)
= (
a1
2
+
b1
2i
)v1 + · · ·+ (ak
2
+
bk
2i
)vk
+(
a1
2
− b1
2i
)v¯1 + · · ·+ (ak
2
− bk
2i
)v¯k.
12
Agora como {v1, · · · , vn} e´ a base do auto espac¸o generalizado na qual A esta´ na forma de
Jordan, temos, para 1 ≤ j < k, que
Avj = Axj + iAyj = λvj + vj+1
= (αxj − βyj + xj+1) + i(βxj + αyj + yj+1)
portanto
Ayj = αyj + βxj + 1yj+1 + 0xj+1
Axj = −βyj + αxj + 0yj+1 + 1xj+1,
podemos concluir portanto, que a matriz de A na forma de Jordan real (na base formada
por blocos de vetores do tipo {y1, x1, · · · yk, xk}, nessa ordem), e´ uma matriz formada por
blocos em diagonal da forma (Verifique):
D
I D
. . . . . .
I D

ou D
onde
D =
(
α −β
β α
)
, I =
(
1 0
0 1
)
4. Sistemas Lineares 2× 2
Podemos utilizar a Forma de Jordan que acabamos de justificar para classificar os sis-
temas 2 × 2 de equac¸o˜es diferenciais. Como vimos as matrizes 2 × 2 sa˜o das seguintes
formas: (
λ 0
0 µ
)
,
(
λ 0
0 λ
)
,
(
λ 0
1 λ
)
e
(
α −β
β α
)
,
portanto resolvendo os sistemas correspondentes as estas matrizes estaremos conhecendo
todas as poss´ıveis soluc¸o˜es. Faremos esta ana´lise de maneira detalhada para que tenhamos
a noc¸a˜o exata do comportamento dessas soluc¸o˜es.
No primeiro caso temos λ e µ reais e distintos; as equac¸o˜es na base de Jordan ficam
desacopladas e sa˜o dadas por {
x˙ = λx
y˙ = µy
e portanto x(t) = c1e
λt e y(t) = c2e
µt, c1 e c2 sa˜o constantes arbitra´rias, sa˜o as soluc¸o˜es. As
curvas (x(t), y(t)), parametrizadas pelo paraˆmetro t, sa˜o denominadas o´rbitas. Observe
13
que (x(t), y(t)) sa˜o as coordenadas das soluc¸o˜es na base de Jordan, que neste caso e´
formada pelos auto vetores vλ e vµ da matriz A correspondentes aos auto valores λ e µ.
Portanto as soluc¸o˜es em relac¸a˜o a` base canoˆnica sa˜o dadas por
c1vλe
λt + c2vµe
µt.
Esta expressa˜o justifica o me´todo do auto valor e auto vetor utilizado para obtenc¸a˜o de
soluc¸o˜es e estudado nos cursos de ca´lculo.
A representac¸a˜o gra´fica das o´rbitas, usualmente chamada de retrato de fase, e´ obtida
facilmente, depende dos auto valores e dos auto vetores. Quando os auto valores sa˜o ambos
negativos, temos que as soluc¸o˜es tendem a` origem quando t → +∞, neste caso dizemos
que a origem e´ um ponto nodal esta´vel, e quando sa˜o ambos positivos as soluc¸o˜es tendem
a zero quando t→ −∞ e a origem e´ chamada de ponto nodal insta´vel. Nestes dois casos
o retrato de fases tem a forma
Na figura acima as curvas tangenciam o eixo horizontal, que e´ o eixo que esta´ na direc¸a˜o
do auto vetor vλ. Para identificarmos esse eixo, isto e´, se vλ corresponde ao maior ou ao
menor auto valor da matriz A, podemos analisar o que ocorre com o coeficiente angular
das tangentes a`s o´rbitas. Supondo que x = x(t) pode ser invertida, de modo que
dy
dx
=
y˙(t)
x˙(t)
= c
y(t)
x(t)
= c e(µ−λ)t,
onde c representa constantes arbitra´rias. Quando os auto valores sa˜o ambos negativos,
para dy/dx tender a zero quando t → +∞ como esta´ na figura, e´ preciso que µ − λ < 0ou |λ| < |µ|, ou seja, o eixo de tangencia das soluc¸o˜es e´ o eixo na direc¸a˜o do auto vetor
correspondente ao menor auto valor (em valor absoluto). Esta conclusa˜o vale tambe´m
para o caso em que os auto valores sa˜o ambos positivos (verifique).
Desta forma podemos obter o retrato de fases do sistema somente conhecendo seus auto
valores e auto vetores, veja o exemplo a seguir
Exemplo: Considere o sistema 2× 2 x˙ = −
3
2
x+ 1
2
y
y˙ = 1
2
x− 3
2
y
14
Neste exemplo temos
A =
 −3/2 1/2
1/2 −3/2

que possui auto valores −1 e −2, com auto vetores (1, 1) e (1, −1), respectivamente.
Portanto, o retrato de fase tem a forma abaixo; o eixo de tangencia e´ o eixo na direc¸a˜o do
auto vetor associado ao −1, ou seja, o retrato de fases em relac¸a˜o a` base canoˆnica, tem a
seguinte forma
Quando os auto valores teˆm sinais distintos e´ fa´cil ver que as o´rbitas sa˜o da forma
Dizemos neste caso que a origem e´ um ponto de sela
No segundo caso λ tem multiplicidade alge´brica e geome´trica igual a dois. A Ana´lise do
plano de fases e´ ana´logo ao caso anterior, as o´rbitas sa˜o semi retas.
15
No terceiro caso λ tem multiplicidade alge´brica 2 e geome´trica 1. Neste caso as equac¸o˜es
sa˜o {
x˙ = λx
y˙ = x+ λy.
Podemos resolver a primeira equac¸a˜o x(t) = c1e
λt e substituir na segunda obtendo
y˙ = λy + c1e
λt.
Esta u´ltima equac¸a˜o pode ser resolvida pela fo´rmula da variac¸a˜o da constantes (2.4),
obtendo
y(t) = eλtc2 +
∫ t
0
eλ(t−s)eλsds = (c1t+ c2)eλt.
Portanto as soluc¸o˜es teˆm a forma{
x(t) = c1e
λt
y(t) = (c1t+ c2)e
λt.
Para determinarmos o formato dessas curvas, suponha que λ < 0 e que c1 > 0, os outros
casos seguem por simetria. Temos que x(t) > 0, isto e´, as soluc¸o˜es neste caso permanecem
no primeiro e no quarto quadrantes, se aproximam da origem quando t → ∞, e quando
t→ −∞, temos que x(t)→∞ e y(t)→ −∞. Temos ainda que y(t) > 0 para t > −c2/c1
e a curva tangencia o eixo y, pois x˙/y˙ = c1/(c1t + c2) → 0, quando t → ∞, portanto o
retrato de fases tem a forma
O pro´ximo caso e u´ltimo caso os auto valores sa˜o complexos, λ = α ± βi o sistema se
torna {
x˙ = αx− βy
y˙ = αx+ βy.
Neste caso e´ prefer´ıvel usar coordenadas polares
x = r cos θ, y = r sin θ
portanto
x˙ = r˙ cos θ − r sin θ θ˙, y˙ = r˙ sin θ + r cos θ θ˙ (4.1)
16
que pode ser escrito na forma matricial como(
x˙
y˙
)
=
(
cos θ −r sin θ
sin θ r cos θ
)(
r˙
θ˙
)
invertendo a matriz obtemos(
r˙
θ˙
)
=
(
cos θ sin θ
−1
r
sin θ 1
r
cos θ
)(
x˙
y˙
)
substituindo x˙ e y˙ pelos valores dados no sistema 4.1 e lembrando que x e y esta˜o em
coordenadas polares, obtemos {
r˙ = αr
θ˙ = β
e da´ı
r(t) = r0e
αt, θ(t) = βt+ θ0,
portanto, se α = 0, temos que r e´ constante, a o´rbita e´ um c´ırculo, a origem e´ chamada de
centro; se α 6= 0 a o´rbita e´ uma espiral logar´ıtmica, a origem e´ chamada de ponto espiral. A
espiral tende a` origem se α < 0 e se afasta da origem caso contra´rio. O sentido de rotac¸a˜o
depende do sinal de β, quando β > 0 o sentido e´ hora´rio (dextro´gira) e quandoβ < 0 o
sentido e´ anti hora´rio (sinistro´gira). As o´rbitas sa˜o portanto das seguintes formas:
5. Sistemas de Equac¸o˜es Diferenciais Lineares
Motivados pelo caso escalar comentado na introduc¸a˜o, vamos iniciar este cap´ıtulo definindo
a exponencial exp(A) = eA de uma matriz quadrada An×n = (aij). A esperanc¸a e´ que
com essa definic¸a˜o possamos estender os resultados de existeˆncia, unicidade e a fo´rmula de
variac¸a˜o das constantes, para os sistemas de equac¸o˜es diferenciais. Em particular, mostrar
que x(t) = eAtx0 e´ a soluc¸a˜o do sistema de n-equac¸o˜es diferenciais lineares,
x˙(t) = Ax(t) (5.1)
que satisfaz a condic¸a˜o inicial
x(0) = x0 ∈ IRn (5.2)
17
Imitando o caso escalar
exp(a) = ea = 1 + a+
a2
2!
+
a3
3!
+ · · · (5.3)
vamos definir a exponencial da matriz A por meio da se´rie
exp(A) = eA = I + A+
A2
2!
+
A3
3!
+ · · · (5.4)
E´ preciso mostrar que essa se´rie e´ convergente no espac¸o L(IRn) das matrizes n × n (ou
dos operadores lineares de IRn em IRn). Para isto, vamos definir uma norma apropriada.
Se < , > e | | denotam, respectivamente, o produto interno e a norma usuais do IRn,
isto e´,
< x, y >= x1y1 + · · ·+ xnyn e |x| = √< x, x > =
√
x21 + · · ·+ x2n.
se
x = (x1, · · · , xn) e y = (y1, . . . , yn) ∈ IRn
definimos a norma de um operador linear A : IRn → IRn por
‖A‖ = sup
x6=0
|Ax|
|x| = supx6=0 |A(
x
|x|)| = sup|x|=1 |Ax|. (5.5)
Para que essa definic¸a˜o realmente defina uma norma, vamos primeiramente observar
que esse supremo e´ finito. Esta propriedade pode ser obtida utilizando-se do seguinte
resultado de Ana´lise: toda func¸a˜o cont´ınua definida num conjunto compacto e´ limi-
tada; neste caso Ax e´ cont´ınua (sua representac¸a˜o matricial envolve somente expressoo˜es
cont´ınuas) e esta´ definida em {x : |x| = 1} que e´ compacto de IRn, e portanto o supremo
e´ finito; ou utilizando-se somente de argumentos de a´lgebra linear da seguinte forma: Se
a1 = (a11, · · · a1n), · · · , an = (an1, · · · ann) sa˜o as linhas da matriz A, de modo que
A =

a1
...
an

temos que o produto da matriz A por um vetor x ∈ IRn e´ dado por
Ax =

< a1, x >
...
< an, x >)

portanto, usando a desigualdade de Schwartz (| < x, y > | ≤ |x| |y| ), temos que
|Ax| = |(< a1, x >, · · · , < an, x >)| = (< a1, x >2 + · · ·+ < an, x >2) 12
≤ (|a1|2 + · · ·+ |an|2) 12 |x|.
18
portanto
|Ax|
|x| ≤ (|a1|
2 + · · ·+ |an|2) 12 ∀x 6= 0 (5.6)
o que justifica que o supremo e´ finito. A justificativa das demais propriedades necessa´rias
para que (5.5) seja uma norma,
(i) ‖A‖ ≥ 0, e ‖A‖ = 0⇔ A = 0
(ii) ‖αA‖ = |α|‖A‖, α ∈ IR
(iii) ‖A+B‖ ≤ ‖A‖+ ‖B‖,
sera˜o deixadas para o leitor.
O Espac¸o vetorial das matrizes n× n, L(IRn), pode ser considerado como o espac¸o IRn2
e a norma definida em (5.5) e´ equivalente a norma usual de IRn
2
(dada pela raiz quadrada
dos quadrados de seus elementos), pois de (5.6) temos que
‖A‖ = sup
x 6=0
|Ax|
|x| ≤ (
∑
a2ij)
1
2 = |(aij)|
e, por outro lado, denotando por e1, · · · en a base canoˆnica do IRn, temos que
|Aei| = (a21i + · · ·+ a2ni)
1
2
portanto
‖A‖ = sup
|x|=1
|Ax| ≥ (a21i + · · ·+ a2ni)
1
2 , ∀i.
Somando, para i = 1, ..., n, obtemos
n‖A‖ ≥ (∑ a2ij) 12 = |(aij)|., (5.7)
que mostra a equivaleˆncia das duas normas. Observe que usamos aqui a desigualdade√
a+
√
b ≥ √a+ b.
As desigualdades (5.6) e (5.7) mostram que a norma ‖ ‖ e´ equivalente a` norma usual
do IRn
2
, isto e´, temos que
1
n
|(aij)| ≤ ‖A‖ ≤ |(aij)|.
Temos que L(IRn) e´ uma espac¸o vetorial completo e a vantagem em considerar a norma
‖ ‖ em vez da norma usual e´ que nesta norma temos a desigualdade
‖Ax‖ ≤ ‖A‖|x|, (5.8)
a constante ‖A‖ e´ a menor constante tal que essa desigualdade e´ verdadeira.
Utilizando-se dessa desigualdade temos que
‖AB‖ ≤ ‖A‖‖B‖
19
e particularmente,
‖An‖ ≤ ‖A‖n, (5.9)
que e´ a desigualdade que iremos utilizar na justificativa da convergeˆncia da se´rie da expo-
nencial eA
Para que a se´rie (5.4) defina a matriz eA e´ preciso que seja convergente. Para isto observe
que usando a desigualdade (5.9) temos para p > 0 que:
‖A
n
n!
+ · · ·+ A
n+p
(n+ p)!
‖ ≤ ‖A‖
n
n!
+ · · ·+ ‖A‖
n+p
(n+ p)!
e essa u´ltima espressa˜o e´ formada por termos da se´rie da func¸a˜o exponencial (5.3) que
converge para todo real, em particular para a = ‖A‖, portanto a se´rie exp(A) e´ uma se´rie
de Cauchy L(IRn) e portanto convergente. Ainda mais, de modo ana´logo a`s func¸o˜es reais,
podemos justificar que a candidata a` soluc¸a˜o do sistema de equac¸o˜es lineares:
exp(At)x0 = e
Atx0 = e
Atx0 = x0 + Atx0 +
A2t2
2!
x0 +
A3t3
3!
x0 + ...
pode ser derivadaem t, com derivada satisfazendo:
d
dt
etAx0 = Ae
tAx0
isto e´, x(t) = eAtx0, esta´ bem definida, satisfaz a equac¸a˜o (5.1) e a condic¸a˜o inicial (5.2),
temos enta˜o, de modo ana´logo ao problema escalar, existeˆncia, unicidade de soluc¸a˜o. Vale
tambe´m a fo´rmula de variac¸a˜o das constantes, isto e´, a soluc¸a˜o do sistema na˜o homogeˆneo{
x˙ = Ax+ h(t)
x(0) = x0,
(5.10)
e´ dada por
x(t) = eAtx(0) +
∫ t
0
eA(t−s)h(s)ds. (5.11)
A definic¸a˜o da exponencial da matriz A resolveu o P.V.I. (5.1) - (5.2), pore´m a dificuldade
computacional permanece, pois dada uma matriz A para calcularmos eA atrave´s de (5.4)
precisamos conhecer todas as poteˆncias de A, o que e´ imposs´ıvel de modo geral. Em casos
particulares, como por exemplo, quando A e´ uma matriz diagonal, na˜o e´ dif´ıcil verificar
que a exponencial de A tambe´m e´ diagonal, com diagonal formada pela exponencial dos
elementos da diagonal de A (verifique como exerc´ıcio), ou quando A e´ nilpotente, isto
e´, existe r > 0 tal que Ar = 0, temos nesse caso que a se´rie (5.4) se torna uma soma
finita, e portanto podemos perfeitamente (se estivermos dispostos) calcularmos todos os
termos dessa soma. Desse modo podemos utilizar a Forma de Jordan para o ca´lculo desta
exponencial
Temos que x(t) = eAtx0 e´ a soluc¸a˜o do problema de condic¸a˜o inicial (5.1), (5.2). Para
calcularmos a expressa˜o de eA, vamos primeiramente verificar algumas propriedade dessa
20
exponencial:
1. Se M e´ uma matriz invers´ıvel enta˜o
eM
−1AM =M−1eAM
isto decorre do fato que
(M−1AM)j =M−1AjM.
2. e(A+B)t = eAteBt ∀t ⇔ A comuta com B
Demonstrac¸a˜o: (⇒) Se e(A+B)t = eAteBt temos derivando ambos os lados que :
(A+B)e(A+B)t = AeAteBt + eAtBeBt
derivando novamente e fazendo t = 0, obtemos
(A+B)2 = A2 + 2AB +B2
que implica que AB = BA.
(⇐) Se A comuta com B e´ fa´cil ver que X(t) = eAteBt satisfaz a equac¸a˜o diferencial
X˙(t) = (A + B)X(t) com condic¸a˜o inicial X(0) = I, enta˜o pela unicidade de soluc¸a˜o
devemos ter X(t) = e(A+B)t, e a propriedade esta´ justificada.
Se M e´ a matriz de mudanc¸a de base tal que M−1AM esta´ na forma de Jordan
M−1AM = diag[A1, · · · , A`], Ai = λi +Ri
onde Ri e´ do tipo figura 1, enta˜o, como
M−1eAtM = eM
−1AMt,
temos que
eAt =MeM
−1AMtM−1.
Vamos portanto calcular a matriz eM
−1AMt. Temos que eM
−1AMt e´ diagonal de blocos
do tipo:
e(λI+R)t, R =

0 0 0 · · · 0 0
1 0 0 · · · 0 0
0 1 0 · · · 0 0
...
. . . . . .
...
0 0 0 · · · 1 0

k×k
.
Como λI comuta com R temos que
eλI+R)t = e(λI)teRt = eλteRt
= eλt
(
I +Rt+
R2
2!
t2 + · · ·+ R
k−1
(k − 1)!t
k−1
)
21
= eλt

1
t 1
t2
2!
t 1
...
...
. . . . . .
tk−1
(k−1)!
tk−2
(k−2)! · · · t 1

k×k
.
Observe que eλt esta´ multiplicando a matriz, portanto podemos concluir que:
1. Os auto valores da exponencial eAt sa˜o todos do tipo eλt, com λ auto valor de A.
2. Os elementos de eAt sa˜o combinac¸o˜es lineares de termos do tipo tjeλt, com j limitado
pelos ı´ndices de nilpoteˆncia, no caso acima j ≤ k, logo sa˜o do tipo p(t)eλt, onde p(t) e´ um
polinoˆmio em t.
6. Exec´ıcios
1. Encontre a Forma de Jordan das seguinte matrizes:
(
1 −2
−2 1
)
,
(
1 −1
1 1
)
,
 5 0 −62 −1 −2
4 −2 −4
 .
2. (a) Determine a exponencial das matrizes acima
(b) Fac¸a o esboc¸o do plano de fases dos sistemas dados por essas matrizes
3. Determine a soluc¸a˜o do Problema de Valor Inicial
x˙ =
(
1 −2
−2 1
)
x+
(
cos t
sin t
)
, x(0) =
(
3
−2
)
4. Duas matrizes A, e B sa˜o chamadas de similares de existe uma matriz invers´ıvel M
tal que
A =M−1BM
Mostre que:
(a) Duas matrizes sa˜o similares se, e somente se, possuem forma de Jordan iguais
(b) Toda matriz e´ similar a sua transposta.
(c) Toda matriz real com determinante negativo e´ diagonalizavel (similar a uma
matriz diagonal)
22
5. Sejam h1(t) e h2(t) func¸o˜es cont´ınuas e perio´dicas de per´ıodo 2pi. Deˆ uma condic¸a˜o,
necessa´ria e suficiente, para que todas as soluc¸o˜es do sistema
x˙ = y + h1(t)
y˙ = −x+ h2(t)
sejam perio´dicas de per´ıodo 2pi.
Sugeta˜o. Justifique e use o seguinte resultado: se h e´ cont´ınua e perio´dica de per´ıodo
2pi, enta˜oH(t) =
∫ t
0 h(s) ds e´ perio´dica de per´ıodo 2pi se, e somente se,
∫ 2pi
0 h(s)ds = 0
6. Seja A uma matriz n× n e x(t), y(t) ∈ IRn, mostre que:
(a)
d
dt
〈x(t), y(t)〉 = 〈x˙(t), y(t)〉+ 〈x(t), y˙(t)〉
(b)
〈Ax(t), y(t)〉 = 〈x(t), Aty(t)〉
onde 〈 , 〉 denota o produto interno usual do IRn, e at denota a matriz transposta
de A
7. Se A e´ uma matriz anti sime´trica (isto e´ At = −A), enta˜o mostre que as soluc¸o˜es do
sistema diferencial linear x˙ = Ax, permanece em superf´ıcies esfe´ricas centradas na
origem.
Sugesta˜o. Calcule a derivada de |x(t)|2 = 〈x(t), x(t)〉.
Bibliografia
[1] Figueiredo, D. G.; Neves, A. F.; Equac¸o˜es Diferenciais Aplicadas, 2 a¯ edic¸a˜o, Colec¸a˜o
Matema´tica Universta´ria, IMPA, 2001.
[2] Halmos, P. R.; Finite-Dimensional Vector Spaces, Van Nostrand Reinhold, 1958
[3] Hirsch, M. W.; Smale, S.; Differential Equations, Dynamical Systems, and Linear
Algebra, Academic Press, Inc, 1974
23

Outros materiais