75

Soluções de Sistemas de Equações Diferenciais Lineares

  • Upload
    haanh

  • View
    224

  • Download
    8

Embed Size (px)

Citation preview

Page 1: Soluções de Sistemas de Equações Diferenciais Lineares

Universidade Federal de Campina Grande

Centro de Ciências e Tecnologia

Unidade Acadêmica de Matemática e Estatística

Curso de Graduação em Matemática

Soluções de Sistemas de EquaçõesDiferenciais Lineares

por

Michel Barros Silva

sob orientação do

Prof. Dr. Severino Horácio da Silva

Campina Grande - PB

Novembro de 2011

Page 2: Soluções de Sistemas de Equações Diferenciais Lineares

Universidade Federal de Campina Grande

Centro de Ciências e Tecnologia

Unidade Acadêmica de Matemática e Estatística

Curso de Graduação em Matemática

Michel Barros Silva

Soluções de Sistemas de EquaçõesDiferenciais Lineares

Trabalho apresentado ao Curso de Graduação em Ma-

temática da Universidade Federal de Campina Grande

como requisito parcial para a obtenção do título de Ba-

charel em Matemática.

Orientado por Severino Horácio da Silva

Campina Grande - PB

Curso de Matemática, modalidade Bacherelado

Page 3: Soluções de Sistemas de Equações Diferenciais Lineares

Soluções de Sistemas de EquaçõesDiferenciais Lineares

por

Michel Barros Silva

Trabalho de Conclusão de Curso defendido e aprovado em: 23/11/2011 pela

Comissão Examinadora constituída pelos professores:

Prof. Dr. Severino Horácio da Silva

Orientador

UAME/CCT/UFCG

Prof. Alânnio Barbosa Nóbrega

Examinador

UAME/CCT/UFCG

Com nota igual a

Campina Grande - PB

Novembro/2011

Page 4: Soluções de Sistemas de Equações Diferenciais Lineares

Dedicatória

Aos meus pais, Diogo e Joana, e

aos meus irmãos Diego e Wagner.

iv

Page 5: Soluções de Sistemas de Equações Diferenciais Lineares

Agradecimentos

Inicialmente agradeço aos meus pais, Diogo e Joana. Ao meu pai por todo co-

nhecimento e sabedoria, a minha mãe por todo carinho e cuidado, e a ambos por toda

dedicação, atenção e amor. Um lho não poderia desejar pais melhores.

Aos meus irmãos, Diego e Wagner. A Diego por sempre me fazer ir, não impor-

tando com que humor eu esteja e a Wagner por seu cuidado comigo desde pequeno.

Aos meus amigos: Keytt, Magna, Jamilly, Jonas e Jogli.

A Fabrício e Aline, os meus amigos desde o primeiro período, com quem muito

estudei e me diverti.

A Raquel, Débora e Maria, grandes amigas que eu conheci no curso.

A Lorena com quem eu partilhei os últimos períodos na Universidade, por ter me

ajudado tirando dúvidas, resolvendo exercícios, compartilhando almoços e caminhadas

para o CX.

Ao professor Daniel Cordeiro, pelas as suas orientações em demonstrações mate-

mática e por sempre exigir o melhor de seus alunos.

Ao professor Severino Horácio, meu orientador, por sua orientação, estímulo,

paciência e fé nesses últimos períodos que me deram ânimo para sempre fazer mais e

nunca desistir.

v

Page 6: Soluções de Sistemas de Equações Diferenciais Lineares

Resumo

Neste trabalho usamos exponenciais de matrizes para encontrar soluções de sis-

temas de equações diferenciais lineares com coecientes constantes e estudamos alguns

problemas Hamiltonianos como o modelo de oscilação de uma mola e a interação gra-

vitacional de dois corpos.

vi

Page 7: Soluções de Sistemas de Equações Diferenciais Lineares

Abstract

This Work we used exponential of matrices to nd solution of systems of linear

dierential equations with constant coecients and we study some Hamiltonian pro-

blems like oscillation model of a spring and the gravitational interaction of two bodies

vii

Page 8: Soluções de Sistemas de Equações Diferenciais Lineares

Sumário

1 Preliminares 4

1.1 Teorema do Ponto Fixo de Banach . . . . . . . . . . . . . . . . . . . . 4

1.2 Exponencial de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2 Sistemas de Equações Diferenciais Lineares 21

2.1 Teorema de Existência e Unicidade . . . . . . . . . . . . . . . . . . . . 21

2.2 Sistemas de Equações Diferenciais Lineares . . . . . . . . . . . . . . . . 24

2.3 Solução de Sistema de Equações Diferenciais Através de Exponencial de

Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

3 Sistemas Hamiltonianos 40

3.1 Sistemas Hamiltonianos . . . . . . . . . . . . . . . . . . . . . . . . . . 40

3.1.1 Colchete de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 41

3.1.2 O Oscilador Harmônico . . . . . . . . . . . . . . . . . . . . . . 44

3.1.3 Oscilador Forçado Não-Linear . . . . . . . . . . . . . . . . . . . 45

3.1.4 Sistema Newtoniano Geral . . . . . . . . . . . . . . . . . . . . . 46

3.1.5 Problema de N corpos . . . . . . . . . . . . . . . . . . . . . . . 47

3.1.6 O Problema de Kepler . . . . . . . . . . . . . . . . . . . . . . . 48

A Conceitos e Resultados da Álgebra Linear 50

A.1 Autovalores e Autovetores . . . . . . . . . . . . . . . . . . . . . . . . . 50

A.2 Diagonalização de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . 55

A.3 Autovalores e Autovetores Complexos . . . . . . . . . . . . . . . . . . . 58

A.4 Forma Canônica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . 66

Referências Bibliográcas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

1

Page 9: Soluções de Sistemas de Equações Diferenciais Lineares

Introdução

O estudo das equações diferenciais começou com os métodos do Cálculo Diferen-

cial e Integral, descobertos por Newton e Leibntiz, para resolver problemas motivados

por considerações físicas e geométricas. Estes métodos, na sua evolução, conduzi-

ram gradualmente à consolidação das Equações Diferenciais como um novo ramo da

Matemática, que em meados do século XVIII se transformou numa das disciplina ma-

temáticas mais importantes e o método mais efetivo para a pesquisa cientíca. As

contribuições de matemáticos ilustres como Euler, Lagrange e Laplace expandiram

notavelmente o conhecimento das equações diferenciais no Cálculo das Variações, na

Mecânica Celeste e na Dinâmica dos Fluidos, (veja [9]).

Inicialmente, procurava-se expressar as soluções em termos de funções elementa-

res. Posteriormente, passou-se a considerar satisfatório expressar a solução na forma de

uma integral (quadratura). Entretanto, logo se vericou que o número de equações que

podiam ser resolvidas em termos de funções elementares era muito pequeno. No século

XIX os fundamentos da Análise Matemática experimentaram uma revisão e reformula-

ção geral visando maior rigor e exatidão, começando a pôr em dúvida certos métodos de

resoluções de equações. Passou-se a considerar como questão prévia em cada problema

a existência e unicidade de soluções satisfazendo dados iniciais. A importância dessa

consideração reside em que, sabendo-se a priori da existência da solução, sua busca se

torna justicável e promissora, uma vez que a solução assim obtida pode ser vericada

a posteriori, (veja [9] e [2]).

Nesse trabalho apresentamos alguns resultados da teoria das Equações Diferenci-

ais Ordinárias, com enfoque no estudo de soluções de sistemas de equações diferenciais

lineares com coecientes constantes, bem como alguns exemplos e aplicações desta

teoria. Esse texto está organizado como segue: no Capítulo 1 apresentamos alguns

conceitos e resultados preliminares que serão utilizados nos capítulos posteriores. No

2

Page 10: Soluções de Sistemas de Equações Diferenciais Lineares

3

Capítulo 2, demonstramos o Teorema de Existência e Unicidade de Solução e traba-

lhamos com sistemas de equações diferenciais lineares com coecientes constante. Para

isso, utizamos o conceito de exponencial de matrizes. No Capítulo 3 fazemos uma

introdução ao estudo dos sistemas lineares Hamiltonianos. Finalmente, no Apêndice,

apresentamos alguns conceitos e resultados básicos da Álgebra Linear.

Page 11: Soluções de Sistemas de Equações Diferenciais Lineares

Capítulo 1

Preliminares

Neste capítulo, apresentamos alguns conceitos e resultados necessários para de-

monstrarmos o Teorema de Existência e Unicidade de solução para o problema de valor

inicial, proposto em [9], e para resolvermos sistemas de equações diferenciais lineares

com coecientes constantes.

1.1 Teorema do Ponto Fixo de Banach

Uma métrica num conjunto X é uma função d : X×X → R, que associa a cada

par ordenado de elementos x, y ∈ X um número real d(x, y), chamado a distância de

x a y, de modo que sejam satisfeitas as seguintes condições para quaisquer x, y, z ∈ X:

d1) d(x, x) = 0;

d2) Se x 6= y, então d(x, y) > 0;

d3) d(x, y) = d(y, x);

d4) d(x, z) ≤ d(x, y) + d(y, z).

Denição 1.1.1. Um espaço métrico é um par (X, d), onde X é um conjunto e d é

uma métrica em X.

Exemplo 1.1.1. Seja X um espaço vetorial munido de uma norma | · |. Então

d : X ×X → R, d(x, y) = |x− y|

4

Page 12: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 1. PRELIMINARES 5

é uma métrica sobre X, a qual é chamada de métrica induzida pela norma | · |. De

fato, dados x, y, z ∈ X, temos

d(x, x) = |x− x| = 0.

Se x 6= y, então

d(x, y) = |x− y| > 0.

Temos ainda

d(x, y) = |x− y| = |y − x| = d(y, x).

Finalmente, observe que, pela desigualdade triangular,

d(x, z) = |x− z|≤ |x− y|+ |y − z|= d(x, y) + d(y, z).

Assim

d(x, z) ≤ d(x, y) + d(y, z).

Portanto d é uma métrica de X.

Exemplo 1.1.2. Seja Bb a bola de Rn de centro na origem e raio b e I = [a, b] ⊂ R.Considere X =C (I, Bb) o espaço das funções contínuas ϕ : I → Bb. Dena d :

X ×X → R por,

d(ϕ1, ϕ2) = supt∈I|ϕ1(t)− ϕ2(t)|.

Note que d dene uma métrica em X. De fato, dados ϕ1, ϕ2, ϕ3 ∈ X, temos

d(ϕ1, ϕ1) = supt∈I|ϕ1(t)− ϕ1(t)| = 0.

Se ϕ1 6= ϕ2, então

d(ϕ1, ϕ2) = supt∈I|ϕ1(t)− ϕ2(t)| > 0.

Temos ainda

d(ϕ1, ϕ2) = supt∈I|ϕ1(t)− ϕ2(t)|

= supt∈I|ϕ2(t)− ϕ1(t)|

= d(ϕ2, ϕ1).

Finalmente, observe que, pela desigualdade triangular, para todo t ∈ I

|ϕ1(t)− ϕ3(t)| ≤ |ϕ1(t)− ϕ2(t)|+ |ϕ2(t)− ϕ3(t)|,

Page 13: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 1. PRELIMINARES 6

donde, calculando o supremo, obtemos

supt∈I|ϕ1(t)− ϕ3(t)| ≤ sup

t∈I(|ϕ1(t)− ϕ2(t)|+ |ϕ2(t)− ϕ3(t)|)

≤ supt∈I|ϕ1(t)− ϕ2(t)|+ sup

t∈I|ϕ2(t)− ϕ3(t)|.

Assim

d(ϕ1, ϕ3) ≤ d(ϕ1, ϕ2) + d(ϕ2, ϕ3).

Portanto d é uma métrica em X.

Denição 1.1.2. Um ponto xo de uma aplicação f : X → X é um ponto x ∈ Mtal que f(x) = x.

Exemplo 1.1.3. Toda função contínua f : [0, 1] → [0, 1] possui um ponto xo. De

fato, considere a função contínua ϕ : [0, 1]→ R, dada por

ϕ(x) = f(x)− x.

Como 0 ≤ f(x) ≤ 1 para todo x ∈ [0, 1], segue-se que

ϕ(0) = f(0) ≥ 0 e ϕ(1) = f(1)− 1 ≤ 0.

Pelo Teorema do Valor Intermediário (veja [5]), existe x ∈ [0, 1] tal que ϕ(x) = 0, isto

é, f(x) = x.

Denição 1.1.3. Sejam X, Y espaços métricos. Uma aplicação f : X → Y chama-se

um contração quando existe uma constante c, com 0 ≤ c < 1, tal que

d(f(x), f(y)) ≤ c · d(x, y)

para quaisquer x, y ∈ X.

Exemplo 1.1.4. Seja U ⊂ Rn aberto e convexo. Se f : U → Rn é uma aplicação

diferenciável tal que |f ′(x)| ≤ c < 1 para todo x ∈ U e algum c ∈ R, pela Desigualdade

do Valor Médio, (veja [6]),

|f(x)− f(y)| ≤ |f ′(x)| |x− y|≤ c|x− y|.

Portanto f é uma contração.

Denição 1.1.4. Uma sequência (xn) num espaço métrico M chama-se uma sequên-

cia de Cauchy quando, para todo ε > 0 dado, existe n0 ∈ N tal que

m,n > n0 ⇒ d(xm, xn) < ε.

Page 14: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 1. PRELIMINARES 7

Denição 1.1.5. Diz-se que o espaço métrico X é completo quando toda sequência

de Cauchy em X converge para um elemento de X. Um espaço vetorial normado que

é completo, com a métrica induzida pela norma, chama-se um espaço de Banach.

Exemplo 1.1.5. Um subespaço fechado de um espaço métrico completo é completo.

De fato, seja F ⊂M fechado, com M completo. Dada uma sequência de Cauchy (xn)

em F , existe limxn = a ∈ M . Como F é fechado em M , tem-se a ∈ F . Logo F é

completo.

Exemplo 1.1.6. O espaço X =C (I, Bb) das funções contínuas denidas como no

Exemplo 1.1.2 é um espaço métrico completo. Com efeito, seja ϕn uma seguência de

Cauchy em X. Então, dado ε > 0, existe n0 ∈ N tal que para todo m,n ≥ n0,

d(ϕm(t), ϕn(t)) < ε,

ou seja,

supt∈I|ϕm(t)− ϕn(t)| < ε.

Daí,

|ϕm(t)− ϕn(t)| < ε, ∀ t ∈ I.

Logo (ϕ1(t), ϕ2(t), · · · ) é uma sequência de Cauchy em Bb. Como Bb é um subespaço

métrico fechado do espaço métrico completo Rn, Bb é um espaço completo. Assim

existe ϕt ∈ Bb tal que ϕm(t) → ϕt, quando t → ∞. Considere a função ϕ : I → Bb,

dada por

ϕ(t) = ϕt = limn→∞

ϕn(t)

Armamos que:

i) ϕ ∈ X;

ii) ϕn → ϕ.

De fato, sendo ϕn funções contínuas de I em Bb é fácil ver que ϕ : I → Bb é uma

função contínua. Além disso, dado t ∈ I, temos

|ϕn(t)− ϕ(t)| = |ϕn(t)− ϕt|,

onde, para n sucientemente grande, segue que,

|ϕn(t)− ϕt| < ε.

Como vale para todo t ∈ I, obtemos

supt∈I|ϕn(t)− ϕ(t)| < ε,

isto é,

d(ϕn(t), ϕ(t)) < ε.

Portanto X é um espaço métrico completo.

Page 15: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 1. PRELIMINARES 8

Teorema 1.1.1 (Teorema de Banach). Se X é um espaço métrico completo, toda

contração f : X −→ X possui um único ponto xo em X. Mais precisamente, se

escolhermos um ponto qualquer x0 ∈ X e pusermos

x1 = f(x0), x2 = f(x1), . . . , xn+1 = f(xn), . . .

a sequência (xn) converge em X e a = limxn é o único ponto xo de f .

Demonstração. Provemos inicialmente a unicidade. Se f(a) = a e f(b) = b, como f é

uma contração, temos

d(a, b) = d(f(a), f(b)) ≤ c · d(a, b),

ou seja,

(1− c) · d(a, b) ≤ 0.

Como 1−c > 0, concluímos que d(a, b) = 0, isto é, a = b. Provemos agora a existência,

para isso, provemos que (xn) é uma sequência de Cauchy em X. Ora

d(x1, x2) = d(f(x0), f(x1)) ≤ c · d(x0, x1),

d(x2, x3) = d(f(x1), f(x2)) ≤ c · d(x1, x2) ≤ c2 · d(x0, x1)

e, por recorrência, temos

d(xn, xn+1) ≤ cn · d(x0, x1), ∀n ∈ N.

Então para n, p ∈ N quaisquer, segue que

d(xn, xn+p) ≤ d(xn, xn+1) + d(xn+1, xx+2) + . . .+ d(xn+p−1, xn+p)

≤ [cn(1 + c+ . . .+ cp−1)] · d(x0, x1)

≤ cn

1− c· d(x0, x1).

Calculando o limite quando n→∞, obtemos

limn→∞

d(xn, xn+p) ≤ limn→∞

cn

1− c· d(x0, x1).

Como

limn→∞

cn = 0,

então

limn→∞

d(xn, xn+p) = 0,

concluindo que (xn) é uma sequência de Cauchy em X. Logo existe a ∈ X tal que

limn→∞ xn = a. Provemos que a é ponto xo de F . De fato, como f é contínua, temos

f(a) = f(limxn)

= lim f(xn)

= limxn+1

= a,

o que conclui a demonstração.

Page 16: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 1. PRELIMINARES 9

Corolário 1.1.1. Seja X um espaço métrico completo. Se F : X −→ X é contínua e,

para algum m, Fm é uma contração, então existe um único ponto p xo por F . Mais

ainda, p é um atrator de F , isto é, Fm(x)→ p quando n→∞. Onde Fm(x) é denido

por F (Fm−1(x)).

Demonstração. Seja p o ponto xo atrator de Fm dado pelo Teorema de Banach. Seja

n = mk + l com 0 ≤ l < m. Dado x ∈ X, F l(x) é um ponto de X. Como p é atrator

de Fm(x), temos [Fm]k(F l(x))→ p, quando k →∞, pois F l(j), 0 ≤ l < m é nito.

Da relação F n(x) = [Fm]k(F l(x)) e do fato que quando n→∞, tem-se k →∞, segue

que F n(x) → p, quando n → ∞, isto é, p é um atrator de F . Provemos agora que

F (p) = p. Com efeito,

p = limF n(F (p))

= limF n+1(p)

= limF (F n(p))

= F (limF n(p))

= F (p).

1.2 Exponencial de Matrizes

Começamos essa seção recordando que o espaço M(n) das matrizes n × n com

entradas reais, munido das operações de soma e multiplicação por escalar usuais, é um

espaço vetorial real.

Dada uma matriz A ∈M(n), seja

||A|| = sup|x|≤1|Ax| = sup

|x|=1

|Ax|.

É fácil vericar que || · || dene uma norma em M(n). Além disso, para A,B ∈ M(n)

temos

||AB|| ≤ ||A|| ||B||.

Em particular

||A2|| ≤ ||A||2

e por recorrência

||Am|| ≤ ||A||m.

Page 17: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 1. PRELIMINARES 10

Escrevendo

A0 = I, A1 = A e Am+1 = AmA

para as potencias, Am, de A ∈M(n).

Denimos a matriz exponencial de uma matriz A ∈M(n) por

eA = I + A+1

2!A2 +

1

3!A3 + . . .+

1

j!+ . . . =

∞∑j=0

1

j!Aj.

Veriquemos se a série da exponencial de matriz converge. No caso n = 1, temos

e(a) = (ea) é a série de Taylor da exponencial escalar e a série converge. No caso geral,

usando ||.|| de matrizes em M(n), obtemos∣∣∣∣∣∣∣∣∣∣N∑j=0

1

j!Aj

∣∣∣∣∣∣∣∣∣∣ ≤

N∑j=0

∣∣∣∣∣∣∣∣ 1

j!Aj∣∣∣∣∣∣∣∣

=N∑j=0

1

j!||Aj||

=N∑j=0

1

j!||AA . . . A︸ ︷︷ ︸

j vezes

||

≤N∑j=0

1

j!||A|| . . . ||A||︸ ︷︷ ︸

j vezes

=N∑j=0

1

j!||A||j.

Daí, fazendo N →∞ segue que∣∣∣∣∣∣∣∣∣∣∞∑j=0

1

j!Aj

∣∣∣∣∣∣∣∣∣∣ ≤

∞∑j=0

1

j!||A||j

= e||A||.

Assim a série∞∑j=0

1

j!Aj

é absolutamente convergente, logo é convergente.

Fixado uma matriz A ∈M(n) e dado t ∈ R, temos que tA ∈M(n). Logo

etA = I + tA+t2

2!A2 +

t3

3!A3 + . . . =

∞∑j=0

1

j!tjAj ∈M(n).

Page 18: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 1. PRELIMINARES 11

Exemplo 1.2.1. Considere a matriz diagonal

D =

λ1 0 . . . 0

0 λ2 . . . 0...

......

...

0 0 . . . λn

.

Note que, para cada j ∈ N

Dj = diag(λj1, λj2, . . . , λ

jn).

Assim,

eD =∞∑j=0

1

j!Dj

=∞∑j=0

1

j!diag(λj1, λ

j2, . . . , λ

jn)

= diag

(∞∑j=0

1

j!λj1,

∞∑j=0

1

j!λj2, . . . ,

∞∑j=0

1

j!λjn

)= diag(eλ1 , eλ2 , . . . , eλn).

Em particular, temos e0 = I e eI = diag(e, e, . . . , e) = eI

Exemplo 1.2.2. Considere agora a matriz

(0 0

c 0

), note que

(0 0

c 0

)2

=

(0 0

c 0

)(0 0

c 0

)

=

(0 0

0 0

)

portanto,

(0 0

c 0

)j

= 0 ∈M(2) para cada j ≥ 2, de modo que

exp

(0 0

c 0

)=

(1 0

0 1

)+

(0 0

c 0

)+

1

2

(0 0

0 0

)+ . . .

=

(1 0

c 1

).

Dada uma matriz A ∈ M(n), se existe um n tal que An = 0, então chamamos essa

Page 19: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 1. PRELIMINARES 12

matriz de Matriz Nilpotente, essas matrizes são da forma

Nc(n) =

0 0 . . . 0 0

c 0 . . . 0 0

0 c . . . 0 0

. . . . . . . . . . . . . . .

0 0 . . . c 0

.

Por exemplo, para uma matriz Nc ∈M(4), temos

Nc(4) =

0 0 0 0

c 0 0 0

0 c 0 0

0 0 c 0

Nc(4)2 =

0 0 0 0

0 0 0 0

c2 0 0 0

0 c2 0 0

Nc(4)3 =

0 0 0 0

0 0 0 0

0 0 0 0

c3 0 0 0

Nc(4)4 =

0 0 0 0

0 0 0 0

0 0 0 0

0 0 0 0

.

Donde, por denição temos a exponencial da matriz Nc(4)

eNc(4) = I +Nc(4) +1

2Nc(4)2 +

1

3!Nc(4)3 +

1

4!Nc(4)4 + . . .

= I +Nc(4) +1

2Nc(4)2 +

1

3!Nc(4)3

=

1 0 0 0

c 1 0 0c2

2!c 1 0

c3

3!c2

2!c 1

.

Usando indução pode-se demonstrar que

eNc(n) =

1 0 0 . . . 0 0

c 1 0 . . . 0 0c2

2!c 1 . . . 0 0

c3

3!c2

2!c . . . 0 0

......

......

......

cn−1

(n−1)!cn−2

(n−2)!cn−3

(n−3)! . . . c 1

.

Exemplo 1.2.3. Considere a matriz

(0 b

−b 0

), temos

(0 b

−b 0

)2

=

(0 b

−b 0

)(0 b

−b 0

)

=

(−b2 0

0 −b2

)

Page 20: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 1. PRELIMINARES 13(0 b

−b 0

)3

=

(0 b

−b 0

)(−b2 0

0 −b2

)

=

(0 −b3

b3 0

)(

0 b

−b 0

)4

=

(b4 0

0 b4

)e

(0 b

−b 0

)5

=

(0 b5

−b5 0

).

Por recorrência, temos (0 b

−b 0

)2j

= (−1)j

(b2j 0

0 b2j

)para as potencias pares e(

0 b

−b 0

)2j+1

= (−1)j

(0 b2j+1

−b2j+1 0

)para potências ímpares. Calculando a exponencial da matriz temos

exp

(0 b

−b 0

)=

(1 0

0 1

)+

(0 b

−b 0

)+

(−b2 0

0 −b2

)1

2!+

(0 −b3

b3 0

)1

3!+ . . .

Lembrando que as séries de Taylor do cosb e senb são dadas por

cosb = 1− 1

2!b2 +

1

4!b4 − 1

6!b6 + . . . =

+∞∑j=o

(−1)j

(2j)!b2j

e

senb = b− 1

3!b3 +

1

5!b5 − 1

7!b7 + . . . =

+∞∑j=0

(−1)j

(2j + 1)!b2j+1,

obtemos que

exp

(0 b

−b 0

)=

(a11 a12

a21 a22

),

onde

a11 = 1− 1

2!b2 +

1

4!b4 − 1

6!b6 + . . . = cosb

a12 = b− 1

3!b3 +

1

5!b5 − 1

7!b7 + . . . = senb

a21 = −b+1

3!b3 − 1

5!b5 +

1

7!b7 − . . . = −senb

a22 = 1− 1

2!b2 +

1

4!b4 − 1

6!b6 + . . . = cosb.

Logo

exp

(0 b

−b 0

)=

(cosb senb

−senb cosb

).

Page 21: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 1. PRELIMINARES 14

Conforme denimos no Apêndice, dizemos que as matrizes A,B ∈ M(n) são

conjugadas se existe Q ∈M(n) invertível tal que AQ = QB, ou seja,

A = QBQ−1

Teorema 1.2.1. Se A,B,Q ∈ M(n) são tais que AQ = QB,então eAQ = QeB. Em

particular, se as matrizes A e B de M(n) são conjugadas, então também as matrizes

eA e eB são conjugação e além disso, podemos usar a mesma matriz de conjugação; ou

seja, se Q ∈M(n) é invertível e A = QBQ−1, então

eA = eQBQ−1

= QeBQ−1.

Demonstração. Como AQ = QB, segue que

A2Q = AAQ

= AQB

= QBB

= QB2

e, por recorrência, AjQ = QBj, para j ∈ N. Assim

eAQ =

(∞∑j=0

1

j!Aj

)Q

=∞∑j=0

1

j!AjQ

=∞∑j=0

1

j!QBj

= Q

(∞∑j=0

1

j!Bj

)= QeB.

Exemplo 1.2.4. Pelo Exemplo A.2.1 do Apêndice sabemos que existem matrizes

A =

1 0 1

0 −2 1

0 0 −1

, Q =

1 1 0

0 −2 1

0 −2 0

e

D =

1 0 0

0 −1 0

0 0 −2

Page 22: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 1. PRELIMINARES 15

tais que A = QDQ−1. Como já sabemos como calcular a exponencial de um matriz

diagonal, então

eD =

e 0 0

0 e−1 0

0 0 e−2

.

Logo, pelo Teorema 1.2.1,

eA = QeBQ−1 = Q

e 0 0

0 e−1 0

0 0 e−2

Q−1.

Passamos agora ao problema de calcular a exponencial de uma matriz qualquer

na Forma Canônica de Jordan (veja Apêndice). Para isso prescisamos saber calcular a

exponencial de uma matriz em blocos e a exponencial de uma matriz nilpotente.

Para uma matriz de Jordan cujos os blocos são de ordem 1× 1, temosA1 0 . . . 0

0 A2 . . . 0...

......

...

0 0 . . . Ak

j

=

Aj1 0 . . . 0

0 Aj2 . . . 0...

......

...

0 0 . . . Akk

como cada bloco é de ordem 1x1 então a matriz de Jordan é uma matriz diagonal, logo

a sua exponencial é

ediag(A1,A2,...,Ak) = diag(eA1 , eA2 , . . . , eAk).

Portanto basta calcular a exponencial de cada bloco individualmente.

Note que podemos decompor cada bloco de Jordan de autovalor λ na soma de

uma matriz diagonal, com o autovalor na diagonal, com uma matriz nilpotente N1(l),

ou seja

Jλ(l) = λI −N1(l), λI ∈M(l).

Foi demostrado no Exemplo 1.2.1 como calcular a exponencial de uma matriz diagonal

e no Exemplo 1.2.2 para matriz nilpotente. Temos que essas matrizes comutam, de

fato

λ 0 0 . . . 0 0

0 λ 0 . . . 0 0

0 0 λ . . . 0 0...

......

......

...

0 0 0 . . . 0 λ

0 0 0 . . . 0 0

1 0 0 . . . 0 0

0 1 0 . . . 0 0...

......

......

...

0 0 0 . . . 1 0

Page 23: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 1. PRELIMINARES 16

=

0 0 0 . . . 0 0

λ 0 0 . . . 0 0

0 λ 0 . . . 0 0...

......

......

...

0 0 0 . . . λ 0

por outro lado,

0 0 0 . . . 0 0

1 0 0 . . . 0 0

0 1 0 . . . 0 0...

......

......

...

0 0 0 . . . 1 0

λ 0 0 . . . 0 0

0 λ 0 . . . 0 0

0 0 λ . . . 0 0...

......

......

...

0 0 0 . . . 0 λ

=

0 0 0 . . . 0 0

λ 0 0 . . . 0 0

0 λ 0 . . . 0 0...

......

......

...

0 0 0 . . . λ 0

.

Portanto matrizes diagonais e nilpotente comutam. Assim pelo Corolário 2.3.1 temos

que,

eJλ(l) = eλI+N1(l)

= eλIeN1(l)

= eλeN1(l).

Portanto a exponencial de um bloco de Jordan é dado por,

eJλ(l) = eλ

1 0 0 . . . 0 0

1 1 0 . . . 0 0

12!

1 1 . . . 0 0

13!

12!

1 . . . 0 0...

...... . . .

......

1(l−1)!

1(l−2)!

1(l−3)! . . . 1 1

∈M(l).

Page 24: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 1. PRELIMINARES 17

Consideremos agora para blocos associados a autovalores complexos. Assim, como

escrito anteriomente,

Ja,b(h) = A0a,b(h) +N1,I(h)

onde, J0a,b(h) = diag(Ja,b, Ja,b, . . . , Ja,b) ∈M(h) e

Nc,I(h) =

0 0 0 . . . 0 0

cI 0 0 . . . 0 0

0 cI 0 . . . 0 0...

...... . . .

......

0 0 0 . . . cI 0

∈M(h),

temos que N1,I(h)h = 0, logo essa matriz é nilpotente e pelo Exemplo 1.2.2 temos

eNc,I(h) =

I 0 0 . . . 0 0

cI I 0 . . . 0 0

c2

2!I cI I . . . 0 0

c3

3!I c2

2!I cI . . . 0 0

......

... . . ....

...

ch−1

(h−1)!Ich−2

(h−2)!Ich−3

(h−3)! . . . cI I

∈M(h).

Pelo Exemplo 2.3.1 sabemos que eJa,b = eaRb ∈M(2), onde

Rb =

cosb senb

−senb cosb

portanto,

eJ0a,b(h) = diag(eJa,b , eJa,b , . . . , eJa,b)

= diag(eaRb, eaRb, . . . , e

aRb)

= eadiag(Rb, Rb, . . . , Rb).

Note que as natrizes J0a,b(h) e N1,I(h) comutam,

eJa,b 0 0 . . . 0

0 eJa,b 0 . . . 0

0 0 eJa,b . . . 0...

...... . . .

...

0 0 0 . . . eJa,b

0 0 0 . . . 0

cI 0 0 . . . 0

0 cI 0 . . . 0...

...... . . .

...

0 0 0 . . . 0

Page 25: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 1. PRELIMINARES 18

=

0 0 0 . . . 0

cIeJa,b 0 0 . . . 0

0 cIeJa,b 0 . . . 0...

...... . . .

...

0 0 0 . . . 0

por outro lado,

0 0 0 . . . 0

cI 0 0 . . . 0

0 cI 0 . . . 0...

...... . . .

...

0 0 0 . . . 0

eJa,b 0 0 . . . 0

0 eJa,b 0 . . . 0

0 0 eJa,b . . . 0...

...... . . .

...

0 0 0 . . . eJa,b

=

0 0 0 . . . 0

cIeJa,b 0 0 . . . 0

0 cIeJa,b 0 . . . 0...

...... . . .

...

0 0 0 . . . 0

.

Usando o Corolário 2.3.1, obtemos

eJa,b(h) = eJ0a,b(h)+N1,I(h)

= eJ0a,b(h)eN1,I(h),

portanto a exponencial dos blocos de Jordan é dada por

eJa,b(h) = ea

Rb 0 0 . . . 0 0

Rb Rb 0 . . . 0 0

12!Rb Rb Rb . . . 0 0

13!Rb

12!Rb Rb . . . 0 0

......

......

......

1(h−1)!Rb

1(h−2)!Rb

1(h−3)!Rb . . . Rb Rb

.

Qualquer matriz A é linearmente conjugada a uma matriz J em forma de Jordan e

pelo Teorema 1.2.1 a exponencial de qualquer matriz A ∈M(n) é dada pela exponencial

de J conjugada pela mesma matriz que conjuga A e J , ou seja,

eA = QeJQ−1.

Page 26: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 1. PRELIMINARES 19

Exemplo 1.2.5. Considere uma matriz A ∈M(3) qualquer cujo polinômio caracterís-

tico é pA(λ) = (λ− 7)3. Se seu polinômio mínimo for

mA(λ) = (λ− 7)3

então a sua forma de Jordan possui um bloco J7(n) ∈ M(3) com o autovalor 7 na

diagonal, ou seja

J7(3) =

7 0 0

1 7 0

0 1 7

logo a exponencial de J7(3) é

eJ7(3) =

e7 0 0

e7 e7 0e7

2e7 e7

e a exponencial de A é dado por,

eA = QeJQ−1

= Q

e7 0 0

e7 e7 0e7

2e7 e7

Q−1.

Mas se seu polinômio mínimo for

mA(λ) = (λ− 7)2

sua forma de Jordan possui pelo menos um bloco J7(n) ∈M(2) , ou seja

J = diag(J7(2), J7(1)) =

7 0 0

1 7 0

0 0 7

e sua exponencial é,

ediag(J7(2),J7(1)) =

e7 0 0

e7 e7 0

0 0 e7

assim a exponencial de A é dado por,

eA = QeJQ−1

= Q

e7 0 0

e7 e7 0

0 0 e7

Q−1.

Page 27: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 1. PRELIMINARES 20

Exemplo 1.2.6. Considere a matriz

A =

1 0 −2

−5 6 11

5 −5 −10

.

Seu polinômio característico é

pA(λ) = (λ− 1)(λ+ 2− i)(λ+ 2 + i),

Conforme Exemplo A.3.2 (Apêndice). Sabemos que existem Q,D ∈M(3) tais que

D = Q−1AQ =

1 0 0

0 −2 1

0 −1 −2

.

Separando D em dois blocos, obtemos

D1 = (1) e D2 =

(−2 1

−1 −2

),

pelo Exemplo 1.2.1, temos

eD1 = e1

e pelo Teorema A.3.1 (veja Apêndice), segue que

eD2 = e

−2 1

−1 −2

= e−2

(cos1 sen1

−sen1 cos1

).

Assim

eD =

e 0 0

0 e−2cos1 e−2sen1

0 −e−2sen1 e−2cos1

.

Portanto, pelo Teorema 1.2.1 a exponencial de A é dado por,

eA = QeDQ−1

=

1 2 0

1 −3 1

0 3 −1

e 0 0

0 e−2cos1 e−2sen1

0 −e−2sen1 e−2cos1

0 1 −1

12−1

212

32−3

212

=

e−2cos1 + 3e−2sen1 e− e−2cos1− 3e−2sen1 −e+ e−2cos1 + e−2sen1

−5e−2sen1 e+ 5e−2sen1 −e− e−2cos1− 2e−2sen1

5e−2sen1 −5e−2sen1 e−2cos1 + 2e−2sen1

.

Page 28: Soluções de Sistemas de Equações Diferenciais Lineares

Capítulo 2

Sistemas de Equações Diferenciais

Lineares

Nesse capítulo apresentamos o Teorema de Existência e Unicidade de soluções e,

utilizando exponencial de matrizes, estudamos soluções de sistema de equações dife-

renciais com coecientes constantes.

2.1 Teorema de Existência e Unicidade

Nesta seção vamos considerar o caso geral de equações diferenciais ordinárias em

Rn. Mas precisamente, dada uma aplicação f : U → Rn, denida em cada ponto (t, y)

de um aberto de U de R× Rn ≡ Rn+1, dizemos que

dy

dt= f(t, y)

é a equação diferencial ordinária em Rn denida por f . Uma solução dessa equação

diferencial ordinária, às vezes denominada curva integral da equação, é um caminho

y : I → Rn denido e derivável num intervalo I de R, com gráco inteiramente contido

em U e velocidade determinada por f , ou seja, tal que, para cada t ∈ I,

(t, y(t)) ∈ U edy

dt= f(t, y(t)).

Fixemos um ponto (t0, y0) ∈ U e uma solução y : I → Rn de

dy

dt= f(t, y).

Se t0 ∈ I e também y(t0) = y0, dizemos que essa solução satisfaz a condição inicial

21

Page 29: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 22

y(t0) = y0, ou seja, y(t) satisfaz o problema de valor-inicial

dy

dt= f(t, y), y(t0) = y0.

Teorema 2.1.1 (Teorema de Picard). Seja f contínua e lipschitziana em Ω = Ia×Bb,

onde Ia = t; |t− t0| ≤ a, Bb = x; |x−x0| ≤ b. Se |f | ≤M em Ω, então existe uma

única solução de

x′ = f(t, x), x(t0) = x0 (2.1)

em Iα, onde α = mina, bM.

Demonstração. Seja X =C (Iα, Bb) o espaço métrico completo das funções contínuas

ϕ : Iα −→ Bb, com a métrica da convergência uniforme

d(ϕ1, ϕ2) = supt∈Iα|ϕ1 − ϕ2|. (2.2)

Para ϕ ∈ X, seja F (ϕ) : X −→ E denida por

F (ϕ)(t) = x0 +

∫ t

t0

f(s, ϕ(s))ds, (2.3)

t ∈ Iα. Destacamos as seguintes propriedades de F :

i) F (X) ⊆ X

ii) F n é uma contração, para n sucientemente grande.

De fato, para todo t ∈ Iα,

|F (ϕ(t))− x0| =

∣∣∣∣∫ t

t0

f(s, ϕ(s))ds

∣∣∣∣≤

∫ t

t0

|f(s, ϕ(s))|ds

≤∫ t

t0

Mds

= M(t− t0)≤ Mα

≤ b.

Logo F (X) ⊆ X. Quanto a (ii), para todo par ϕ1, ϕ2 ∈ X e todo n ≥ 0, temos

|F n(ϕ1)(t)− F n(ϕ2)(t)| ≤Kn|t− t0|n

n!· d(ϕ1, ϕ2), t ∈ Iα, (2.4)

onde K é a constante de Lipschitz de f . Vericamos esta desigualdade por indução em

n. Para n = 0 é válida. Suponha que seja válida para n = l, isto é,

|F l(ϕ1)(t)− F l(ϕ2)(t)| ≤K l|t− t0|l

l!· d(ϕ1, ϕ2), t ∈ Iα.

Page 30: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 23

Então

|F l+1(ϕ1)(t)− F l+1(ϕ2)(t)| = |F (F l(ϕ1))(t)− F (F l(ϕ2))(t)|

≤∫ t

t0

|f(s, F l(ϕ1))(s)− f(s, F l(ϕ2))(s)|ds

≤∫ t

t0

K|F l(ϕ1)(s)− F l(ϕ2)(s)|ds.

Por hipótese de indução, obtemos

|F l+1(ϕ1)(t)− F l+1(ϕ2)(t)| ≤ K

∫ t

t0

K l|t− t0|l

l!d(ϕ1, ϕ2)ds

= K l+1 |t− t0|l+1

(l + 1)!d(ϕ1, ϕ2).

Logo,

|F l+1(ϕ1)(t)− F l+1(ϕ2)(t)| ≤ kl+1 |t− t0|l+1

(l + 1)!d(ϕ1, ϕ2).

Portanto a desigualdade (2.4) é válida. Calculando o supremo em (2.4), segue que

d(F n(ϕ1), Fn(ϕ2)) ≤

knαn

n!· d(ϕ1, ϕ2).

E para n grandeKnαn

n!< 1

pois é o termo geral de uma série cuja soma é eKα. Portanto F n é uma contração em

X. Pelo Corolário 1.1.1, existe uma única ϕ ∈ X tal que F (ϕ) = ϕ, e isto, prova o

teorema.

Proposição 2.1.1. Seja f contínua e Lipschitziana em Ω = [a, b] × E, E um espaço

métrico. Então, para todo (t0, x0) ∈ Ω existe uma única solução de

x′ = f(t, x), x(t0) = x0

em I = [a, b].

Demonstração. Considere X =C (I, E) e F : X −→ X denida por

F (ϕ)(t) = x0 +

∫ t

t0

f(s, (ϕ(s))ds.

Seguindo os passos da demostração do Teorema 2.1.1, obtemos que F tem um único

ponto xo pois, para n grande, F n é uma contração.

Corolário 2.1.1 (Equações Lineares). Sejam A(t) e b(t) respectivamente matrizes

n× n e n× 1 de funções contínuas num intervalo I. Para todo (t0, x0) ∈ I ×Rn existe

uma única solução de x′ = A(t)x+ b(t), x(t0) = x0 denida em I.

Page 31: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 24

Demonstração. Seja I =⋃n In, onde In ⊆ In+1 são intervalos compactos que contém

t0. f(t, x) = A(t)x+b(t) satisfaz as hipóteses da Proposição 2.1.1 em cada intervalo In.

Seja ϕn a única solução neste intervalo passando por (t0, x0). É claro que ϕn+1|In = ϕn.

Logo ϕ(t) = ϕn(t), t ∈ In está bem denida em I. É claro também que ϕ é a única

solução em I passando por (t0, x0).

2.2 Sistemas de Equações Diferenciais Lineares

Nessa seção, estudamos equações diferenciais ordinárias lineares homogêneas de

primeira ordem com coecientes constantes, ou seja, trata-se do estudo dos campos

lineares

f(x) = TA(x),

onde o operador linear f = TA : Rn −→ Rn é dado por TA(x) = Ax sendo A = (aij)n×n

uma n × n matriz real e x um vetor coluna, ou seja, o produto da matriz A com o

vetor-coluna n× 1 formado pelas coordenadas canônicas de x ∈ Rn.

Denição 2.2.1. Dizemos que um caminho x : R −→ Rn é uma solução da equação

diferencial linear autônoma

x′ = Ax (2.5)

se x é derivável em R e, para cada t ∈ R,

x′(t) = Ax(t).

As funções coordenadas xi : R −→ R de x(t) são soluções do sistemas associ-

ado à matriz A, ou seja, do sistema de equações diferencias lineares homogêneas com

coecientes constantes:

x′1(t) = a11x1(t) + a12x2(t) + · · ·+ a1nxn(t)

x′2(t) = a21x1(t) + a22x2(t) + · · ·+ a2nxn(t)

...

x′n(t) = an1x1(t) + an2x2(t) + · · ·+ annxn(t).

Exemplo 2.2.1. Considere a equação diferencial linear escalar

x′ = ax, x(0) = k

onde a ∈ R e x é um vetor,

x′ = ax,

Page 32: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 25

ou seja,

a =x′

x.

Donde

a = (lnx)′.

Integrando ambos os menbros desta equação em relação a t, segue que∫adt =

∫(lnx)′dt.

Daí

at+ c = lnx,

calculando a exponencial, obtemos

eat+c = elnx,

isto é,

eatec = x.

Logo, chamando ec = k,

x = eatk,

demonstrando assim a existencia de solução. Pelo Teorema 2.1.1 temos que x(t) =

e−atk é a única solução do problema de valor inicial.

Exemplo 2.2.2.

A =

(2 0

0 −3

)encontremos a solução para a equação x′ = Ax. Chamando x = (x1, x2) e x′ = (x′1, x

′2),

temos (x′1x′2

)=

(2 0

0 −3

)(x1

x2

),

daí,x′1 = 2x1

x′2 = −3x2.

Pelo Exemplo 2.2.1, obtemos

x1(t) = e2tk1 e x2(t) = e−3tk2.

Assim, para k = (k1, k2), segue que

x(t) =

(k1e

2t

k2e−3t

)

=

(e2t 0

0 e−3t

)(k1

k2

)

Page 33: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 26

é a solução que satisfaz a condição inicial x(0) =

(k1

k2

).

Exemplo 2.2.3. Seja D = diag(λ1, λ2, . . . , λn), com λ1, . . . , λn ∈ R. Considere a

equação

x′ = Dx

ou equivalentemente,

x′ =

λ1 . . . 0...

......

0 . . . λn

x1

...

xn

.

Logo para cada 1 ≤ j ≤ n, a equação x′j(t) = λjxj(t), tem solução única da forma

xj(t) = kjeλjt. Portanto a solução do problema de valor inicial

x′ = diag(λ1, . . . , λn)x, x(0) = (k1, . . . , kn)t

é dada por x(t) = diag(eλ1t, eλ2t, . . . , eλnt)x(0).

Exemplo 2.2.4. Considere a matriz

A =

(λ 0

1 λ

).

Encontremos a solução da equação

x′ = Ax. (2.6)

Seja x = (x1, x2), então x′ = (x′1, x′2). De (2.6) temos(

x′1x′2

)=

(λ 0

1 λ

)(x1

x2

)⇒

x′1 = λx1

x′2 = x1 + λx2.

De x′1 = λx1, temos x1(t) = k1eλt. Substituindo na segunda equação obtemos, x2(t) =

k1eλt + λx2, usando o fator de integração (e−λt), segue que

e−λtx2(t) = k1eλte−λt + λx2e

−λt,

daí,

e−λtx2(t) = k1 + λx2e−λt,

assim

k1 = e−λtx2(t)− λx2e−λt

= (e−λtx2(t))′.

Page 34: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 27

Integrando em relação a t, obtemos∫k1dt =

∫(e−λtx2(t))

′dt,

daí,

k1t+ k2 = e−λtx2(t),

isolando x2(t), obtemos

x2(t) = k1teλt + k2e

λt.

Assim,

x(t) = (x1(t), x2(t))t

= (k1eλt, k1te

λt + k2eλt)t

= eλt

(1 0

t 1

)(k1

k2

)

é a solução de (2.6) com a condição inicial x(0) = (k1, k2)t.

Proposição 2.2.1. Seja v ∈ Rn um autovetor de A ∈ M(n) com autovalor λ ∈ R.Então

x(t) = eλtv, t ∈ R

é a solução de x′ = Ax, x(0) = v

Demonstração. Seja v um autovetor de A associado ao autovalor λ ∈ R, então Av = λv.

Considere x(t) = eλtv, temos

x′(t) = λeλtv

= eλtλv

= eλtAv

= Aeλtv

= Ax(t).

Logo, x(t) = eλtv é solução de x′(t) = Ax(t) com x(0) = v.

Proposição 2.2.2. Se Q conjuga as matrizes reais A,B ∈M(n), então Q transforma

as solução de y′ = By nas soluções de x′ = Ax. Mais precisamente, se A = QBQ−1,

então são equivalentes as armações:

• y(t) é uma solução de y′ = By

• Qy(t) é uma solução de x′ = Ax

Page 35: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 28

Demonstração. Suponha que y(t) é uma solução de y′ = By. Considere x(t) = Qy(t).

Como Q independe de t,

x′(t) = Qy′(t)

= QBy

= AQy

= Ax(t).

Logo, x(t) = Qy(t) é solução de x′ = Ax. Reciprocamente, suponha que x(t) é solução

de x′ = Ax. Considere y(t) = Q−1x(t), daí

y′(t) = Q−1x′(t)

= Q−1Ax

= BQ−1x

= By(t).

Logo y(t) é solução de y′ = By.

Exemplo 2.2.5. Considere as matrizes

A =

1 0 1

0 −2 1

0 0 −1

, Q =

1 1 0

0 −2 1

0 −2 0

e D =

1 0 0

0 −1 0

0 0 −2

tais que

AQ =

1 −1 0

0 2 −2

0 2 0

= QD.

Como D é uma Matriz diagonal, a solução de y′ = Dy, com y(0) = (l1, l2, l3)t, é dada

por

y(t) = diag(et, e−t, e−2t)y(0)

= (l1et, l2e

−t, l3e−2t)t

=

et 0 0

0 e−t 0

0 0 e−2t

l1

l2

l3

.

Page 36: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 29

Pela Proposição 2.2.2, a solução de x′ = Ax é dada por x(t) = Qy(t), assim

x(t) = Qy(t)

=

1 1 0

0 −2 1

0 −2 0

l1e

t

l2e−t

l3e−2t

=

l1et + l2e

−t

−2l2e−t + l3e

−2t

−2l2e−t

.

Podemos obter as coodenadas cartesianas da condição inicial x(0) = (k1, k2, k3)t em

termos das coordenadas de y(0). De fato,

x(0) = Qy(0) k1

k2

k3

=

1 1 0

0 −2 1

0 −2 0

l1

l2

l3

k1

k2

k3

=

l1 + l2

−2l2 + l3

−2l2

.

Donde l1 = k1 − k32, l2 = −k3

2e l3 = k2 − k3. Por outro lado podemos calcular as

coordenadas de y(0), em termos das coodenadas de x(0), pois, de

y(0) = Q−1x(0)

resulta que, l1

l2

3

=

1 0 12

0 0 −12

0 1 −1

k1

k2

k3

.

Proposição 2.2.3. Sejam A ∈ M(n) uma matriz diagonalizável, com Q,D ∈ M(n),

tais que Q é invertível e Q−1AQ = D = diag(λ1, . . . , λn). Então, dado 1 ≤ i ≤ n e

escrevendo Qei = vi, o caminho si : R −→ Rn denido por si(t) = eλitQei = eλitvi,

t ∈ R é a solução de x′ = Ax com valor inicial x(0) = vi. Além disso, qualquer solução

x : R −→ Rn de x′ = Ax é uma combinação linear de s1, . . . , sn, a saber,

x(t) =n∑j=1

ljsj(t) =n∑j=1

ljeλjtvj

dene a única solução de x′ = Ax, x(0) =∑ljvj = Q(l1, . . . , ln).

Page 37: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 30

Demonstração. Seja a equação diferencial y′ = Dy. Como D é uma matriz diagonal,

a solução geral é dada por

y(t) = diag(eλ1t, . . . , eλnt)y(0).

Daí,

y(t) = (l1eλ1t, l2e

λ2t, . . . , lneλnt)t

= l1eλ1t

1

0...

0

+ l2eλ2t

0

1...

0

+ . . .+ lneλnt

0

0...

1

=

n∑j=1

ljeλjtej

com y(0) =∑n

j=1 ljej. Pela Proposição 2.2.2, a solução geral de x′ = Ax é dada por

x(t) = Qy(t). Daí

x(t) = Qy(t)

= Q∑

ljeλjtej

=∑

ljeλjtQej,

como, por hipótese, Qei = vi, 1 ≤ i ≤ n, segue que

x(t) =∑

ljeλjtvj

e

x(0) =n∑j=1

ljeλj0vj

=n∑j=1

ljvj

=n∑j=1

ljQej

=n∑j=1

Q(ljej)

= Qn∑j=1

ljej

= Q(l1, · · · , ln).

Em paricular, tomando y(0) = ei, a solução básica y(t) = eλitei de y′ = Dy fornece a

solução básica si(t) = eλitvi de x′ = Ax.

Page 38: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 31

Se A ∈M(n) é uma matriz semelhante a uma matriz diagonal D, ou seja,

Q−1AQ = D = diag(λ1, λ2, . . . , λn)

então, pela Proposição 2.2.3, cada vetor-coluna Qej = vj de Q dá origem a uma solução

básica sj(t) = eλjtvj do sistema x′ = Ax. Note que Dej = λjej para cada vetor ej da

base canônica de Rn, resulta que

Avj = AQej

= QDej

= Qλjej

= λjQej

= λjvj.

Assim cada vetor vj é levado por A em um múltiplo desse próprio vetor.

Exemplo 2.2.6. Dadas as matrizes

A =

1 0 1

0 −2 1

0 0 −1

, Q =

1 1 0

0 −2 1

0 −2 0

e D =

1 0 0

0 −1 0

0 0 −2

.

Pela Proposição 2.2.3, temos que a solução de x′ = Ax é dada por

x(t) =∑

ljeλjtvj ,

ou seja,

x(t) = l1et

1

0

0

+ l2e−t

1

−2

−2

+ l3e−2t

0

1

0

=

l1et + l2e

−t

−2l2e−t + l3e

−2t

−2l2e−t

.

2.3 Solução de Sistema de Equações Diferenciais Atra-

vés de Exponencial de Matrizes

Lembrando que para A ∈M(n) e t ∈ R, temos

etA =∞∑j=0

1

j!tjAj ∈M(n)

= tI + tA+t2

2!A2 +

t3

3!A3 + . . . ,

Page 39: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 32

obtemos o seguinte resultado:

Proposição 2.3.1. Dados uma matriz A ∈ M(n) e x0 ∈ Rn, os caminhos t 7−→ etA

em M(n) e t 7−→ etAx0 em Rn são deriváveis e

d

dtetA = AetA ∈M(n),

d

dtetAx0 = AetAx0 ∈ Rn.

Demonstração. Dados A ∈M(n) e t ∈ R, temos ||tA|| = |t|||A||, de modo que

||1t(etA − I)− A|| =

∣∣∣∣∣∣∣∣(etA − I)− tAt

∣∣∣∣∣∣∣∣=

1

|t|||(etA − I)− tA||

=1

|t|

∣∣∣∣∣∣∣∣(tI + tA+t2A2

2!+t3A3

3!+ . . .

)− I − tA

∣∣∣∣∣∣∣∣=

1

|t|

∣∣∣∣∣∣∣∣t2A2

2!+t3A3

3!+t4A4

4!+ . . .

∣∣∣∣∣∣∣∣=

1

|t|

∣∣∣∣∣∣∣∣∣∣∞∑j=2

1

j!tjAj

∣∣∣∣∣∣∣∣∣∣ .

Rescrevendo essa iqualdade, obtemos

||1t(etA − I)− A|| = 1

|t|

∣∣∣∣∣∣∣∣∣∣ limn→∞

n∑j=2

1

j!tjAj

∣∣∣∣∣∣∣∣∣∣ .

Daí, usando a desigualdade triangular e a contínuidade da norma, segue que

||1t(etA − I)− A|| ≤ 1

|t|limn→∞

n∑j=2

1

j!

∣∣∣∣tjAj∣∣∣∣ . (2.7)

Como ||Aj|| ≤ ||A||j, temos

limn→∞

n∑j=2

1

j!

∣∣∣∣tjAj∣∣∣∣ ≤ limn→∞

n∑j=2

1

j!||tA||j . (2.8)

De (2.7) e (2.8), segue que

||1t(etA − I)− A|| ≤ 1

|t|limn→∞

n∑j=2

1

j!||tA||j .

Donde,

||1t(etA − I)− A|| ≤ 1

|t|

[||t2A2||

2!+||t3A3||

3!+||t4A4||

4!+ . . .

].

Page 40: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 33

Já que ||An|| ≤ ||A||n, resulta

||1t(etA − I)− A|| ≤ 1

|t|

[||tA||2

2!+||tA||3

3!+||tA||4

4!+ . . .

]≤ 1

|t|

[||tA||2 + ||tA||3 +

||tA||4

2!+||tA||5

3!+ . . .

]=

1

|t|||tA||2

[1 + ||tA||+ ||tA||

2

2!+ . . .

]=

1

|t|||tA||2e||tA||

=|t|2

|t|||A||2e|t| ||A||

= |t| ||A||2e|t| ||A||.

Então, para |t| < 1, temos

||1t(etA − I)− A|| ≤ |t| ||A||2e||A||. (2.9)

Daí, escrevendo X(t) = etA, temos X(0) = I e por denição de derivada, obtemos

X ′(0) = A. Fixemos t, u ∈ R. Dado j ∈ N pelo binômio de Newton, temos

1

j!(t+ u)j =

1

j!

j∑l=0

(j

l

)

=

j∑j=0

tl

l!

uj−l

(j − l)!

=∑r+s=j

tr

r!

us

s!,

donde,

1

j!(tA+ uA)j =

1

j!(t+ u)jAj

=

[ ∑r+s=j

tr

r!

us

s!

]Aj

=∑r+s=j

tr

r!Arus

s!As.

Assim, para cada n ∈ N,n∑j=0

1

j!(tA+ uA)j =

n∑j=0

∑r+s=j

1

r!trAr

1

s!usAs

=

(n∑r=0

1

r!(tA)r

)(n∑s=0

1

s!(uA)s

).

Page 41: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 34

Passando ao limite com n→ +∞, resulta etA+uA = etAeuA e portanto,

X(t+ u) = e(t+u)A

= etA+uA

= etAeuA

= X(t)X(u)

ou seja,

X(t+ u) = X(t)X(u) ∈M(n)

para qualquer t, u ∈ R. Disso decorre que X(t) é derivável em R, valendo

X ′(t) = X ′(0)X(t) = AX(t)

para cada t ∈ R. Além disso, dado x0 ∈ Rn, podemos aplicar todas essas matrizes em

x0 para concluir que x(t) = X(t)x0 = etAx0 é derivável em R e x′(t) = Ax(t), para

cada t ∈ R.

Corolário 2.3.1. Dados matrizes A e B em M(n), temos:

1. se AB = BA então eAeB = eA+B = eBeA;

2. a matriz eA sempre é invertível, com (eA)−1 = e−A.

Demonstração. Se A,B são tais que BA = AB, então B(tA) = (tA)B, donde BetA =

etAB. Denindo x(t) = etAetBx0 e derivando, temos

x′(t) = AetAetBx0 + etABetBx0

= AetAetBx0 +BetAetBx0

= (A+B)etAetBx0

= (A+B)x(t)

logo x(t) = etAetBx0 é solução de x′ = (A + B)x com condição inicial x(0) = x0. Mas

pela Proposição 2.3.1, t 7→ et(A+B)x0 é também solução de x′ = (A+B)x com condição

inicial x(0) = x0. Assim etAetBx0 = et(A+B)x0. Tomando t = 1, obtemos

eA+Bx0 = eAeBx0.

Como isso vale para todo x0 ∈ Rn, as matrizes eA+B e eAeB são iquais. Em particular,

como A−A = 0 e e0 = I, então

e−AeA = e−A+A = e0 = I = e0 = eA−A = eAe−A.

Page 42: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 35

Exemplo 2.3.1. Considerando as matrizes(a 0

0 a

)(0 0

c 0

)=

(0 0

ac 0

)=

(0 0

c 0

)(a 0

0 a

)usando o Corolário 2.3.1 e os Exemplos 1.2.1 e 1.2.2 podemos calcular a exponencial

da matriz (a 0

c a

)da seguinte maneira,

exp

(a 0

c a

)= exp

[(a 0

0 a

)+

(0 0

c 0

)]

= exp

(a 0

0 a

)exp

(0 0

c 0

)

=

(ea 0

0 ea

)(1 0

c 1

)

=

(ea 0

cea ea

)

= ea

(1 0

c 1

).

Exemplo 2.3.2. Considere as matrizes(0 b

−b 0

)(a 0

0 a

)=

(0 ab

−ab 0

)=

(a 0

0 a

)(0 b

−b 0

).

Calculemos a exponencial da matriz (a b

−b a

).

Note que, usando o Corolário 2.3.1 e os Exemplos 1.2.1 e 1.2.3, obtemos

exp

(a b

−b a

)= exp

[(a 0

0 a

)+

(0 b

−b 0

)]

= exp

(a 0

0 a

)exp

(0 b

−b 0

).

=

(ea 0

0 ea

)(cosb senb

−senb cosb

)

= ea

(cosb senb

−senb cosb

).

Page 43: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 36

Corolário 2.3.2. Se A ∈M(n) e x0 ∈ Rn, então o caminho

x(t) = etAx0

dene a única solução de x′ = Ax com condição inicial x(0) = x0.

Exemplo 2.3.3. Dada a matriz

A =

(λ1 0

0 λ0

),

considere a equação diferencial x′ = Ax com x(0) = x0. Como já sabemos como

calcular a exponencial de um matriz diagonal, temos

x(t) = etAx0

= exp

(tλ1 0

0 tλ2

)x0

=

(etλ1 0

0 etλ2

)x0

logo etAx0 é uma solução de x′ = Ax com x(0) = x0.

Exemplo 2.3.4. Considere agora o problema de valor inicial, x′ = Ax, x(0) = x0,

onde

A =

(λ 0

1 λ

).

A solução do problema de valor inicial é dada, pelo Corolário 2.3.2, por

x(t) = etAx0.

Mas procedendo como no Exemplo 2.3.1, obtemos

etA = etλ

(1 0

t 1

).

Logo

x(t) = etλ

(1 0

t 1

)x0

é a solução de x′ = Ax com x(0) = x0.

Exemplo 2.3.5. Encontre a solução da equação x′ = Ax com x(0) = x0, onde

A =

(0 b

−b 0

)

Page 44: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 37

com b ∈ R. Pelo Corolário 2.3.2, segue que a solução procurada é

x(t) = eAtx0.

Calculando a exponencial de At, de maneira análoga ao Exemplo 1.2.3, obtemos,

eAt = e

t

0 b

−b 0

= e

0 bt

−bt 0

=

(cosbt senbt

−senbt cosbt

).

Daí,

x′(t) = AeAtx0

=

(0 b

−b 0

)(cosbt senbt

−senbt cosbt

)

=

(0 b

−b 0

)e

t

0 b

−b 0

.

Proposição 2.3.2. Seja w ∈ Cn um autovetor complexo de A ∈ M(n) com autovalor

complexo associado λ = a+ ib, com b 6= 0. Seja w = u+ iv a decomposição de w dada

por u = w+w2

e v = w−w2i

, com u, v ∈ Rn. Então

x(t) = eat[(cosbt)u− (senbt)v]

y(t) = eat[(senbt)u− (cosbt)v]

denem as únicas soluções de x′ = Ax, com x(0) = u e y(0) = v, respectivamente.

Demonstração. Seja w ∈ Cn um autovetor complexo de A ∈ M(n) com autovalor

complexo associado λ, temos Aw = λw, escrevendo z(t) = eλtw, obtemos

z′(t) = λeλtw

= eλtλw

= eλtAw

= Aeλtw

= Az(t)

de modo que z(t) é uma solução complexa de x′ = Ax. Escrevendo w = u + iv, com

u, v ∈ Rn e λ = a+ ib, com b 6= 0, a formula de Euler garante que

z(t) = e(a+ib)tw

= eat(cosbt+ isenbt)(u+ iv)

= eat[(cosbt)u− (senbt)v] + ieat[(senbt)u+ (cosbt)v],

Page 45: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 38

de modo que escrevendo z(t) = x(t) + iy(t), resulta

x(t) = eat[(cosbt)u− (senbt)v]

y(t) = eat[(senbt)u+ (cosbt)v].

Mostremos agora que a parte real e a parte imaginária da solução complexa z(t) de

x′ = Ax, são soluções de x′ = Ax. Primeiramente mostremos para x(t) = eat[(cosbt)u−(senbt)v], isto é,

x′(t) = aeat[(cosbt)u− (senbt)v]− eat[(bsenbt)u+ (bcosbt)v]

= aeat(cosbt)u− aeat(senbt)v − eat(bsenbt)u− eat(bcosbt)v= eatcosbt(au− bv)− eatsenbt(av + bu).

Usando a Proposição A.3.2 (veja Apêndice), obtemos,

x′(t) = eat(cosbt)Au− eat(senbt)Av= A(eat(cosbt)u− eat(senbt)v)

= Ax(t).

Analogamente para y(t) = eat[(senbt)u+ (cosbt)v]

y′(t) = aeat[(senbt)u+ (cosbt)v] + eat[(bcosbt)u− (bsenbt)v]

= aeat(senbt)u+ aeat(cosbt)v + eat(bcosbt)u− eat(bsenbt)v= eatcosbt(av + bu) + eatsenbt(au− bv)

= eat(cosbt)Av + eat(senbt)Au

= A(eat(cosbt)v + eat(senbt)u)

= Ay(t).

Exemplo 2.3.6. No exemplo A.3.2 calculamos que w = (2,−3 + i, 3− i) = (2, 3, 3) +

i(0, 1,−1) = u+ iv é um autovetor complexo de

A =

1 0 −2

−5 6 11

5 −5 −10

associado ao autovalor complexo −2 + i. Assim pela Proposição 2.3.2,

x(t) = e−2tcost

2

−3

3

− e−2tsent 0

1

−1

Page 46: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 39

e

y(t) = e−2tsent

2

−3

3

+ e−2tcost

0

1

−1

denem as soluções reais de x′ = Ax com condições iniciais x(0) = u = (2,−3, 3) e

y(0) = v = (0, 1,−1).

Exemplo 2.3.7. Dada a matriz

A =

(a b

−b a

)temos que a ± ib são os autovalores complexos associados a w = (1, i) e w = (1,−i),respectivamente. Pela Proposição 2.3.2, temos que

x(t) = eatcosbt

(1

0

)− eatsent

(0

1

)= eat(cosbt,−senbt)

e

y(t) = eatsenbt

(1

0

)+ eatcost

(0

1

)= eat(senbt, cosbt),

são soluções de x′ = Ax, com x(0) = (1, 0) e y(0) = (0, 1). Temos que se s1(t) e s2(t)

são soluções de x′ = Ax, então s1(t) + cs2(t) também é solução de x′ = Ax. De fato

s′1(t) = As1(t) e s′2(t) = As2(t), donde derivando

s1(t) + cs2(t)

temos,

s′1(t) + cs′2(t) = As1(t) + Acs2(t)

= A(s1(t) + cs2(t)).

Logo

s′1(t) + cs′2(t) = A(s1(t) + cs2(t))

Portanto s1(t) + cs2(t) é solução de x′ = Ax, para qualquer c ∈ R.Donde k1x(t) + k2y(t) é solução de x′ = Ax, ou seja,

eat(k1cosbt+ k2senbt,−k1senbt+ k2cosbt) =

= eat

(cosbt senbt

−senbt cosbt

)(k1

k2

)é a solução de x′ = Ax, x(0) = (k1, k2).

Page 47: Soluções de Sistemas de Equações Diferenciais Lineares

Capítulo 3

Sistemas Hamiltonianos

Nesse Capítulo, seguindo [8], introduzimos o conceito de sistemas Hamiltonianos

de equações diferenciais ordinárias e exibimos alguns modelos que tem essa caracterís-

tica.

3.1 Sistemas Hamiltonianos

Um Sistema Hamiltoniano é um sistema de 2n equações diferenciais ordinárias

da forma

q′ = Hp, p′ = −Hq, (3.1)

isto é,

q′i =∂H

∂pi(t, q, p), p′i = −∂H

∂qi(t, q, p), i = 1, · · · , n, (3.2)

onde H = H(t, q, p), chamado de Hamiltoniano, é uma função real diferenciável de-

nida para (t, q, p) ∈ U , onde U é um aberto em R×Rn×Rn. Os vetores q = (q1, · · · , qn)

e p = (p1, · · · , pn) são chamados de vetores posição e momento, respectivamente, e t

representa o tempo. As variáveis q e p são chamadas variáveis conjugadas, ou seja, p é

conjugada a q. O número n ∈ N é chamado de grau de liberdade do sistema.

Denimos o vetor z ∈ Rn × Rn, a matriz simétrica J de ordem 2n × 2n e o

gradiente de H por

z =

q

p

, J = Jn =

0 I

−I 0

e 5z H = 5H =

∂H∂z1...

∂H∂z2n

, (3.3)

40

Page 48: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 3. SISTEMAS HAMILTONIANOS 41

onde 0 é uma matriz n × n identicalmente nula e I é uma matriz identidade n × n.

Note que, de (3.1) e (3.3), segue que

z′ = J 5H(t, z) (3.4)

= J

∂H∂z1...

∂H∂z2n

. (3.5)

O Teorema de Existência e Unicidade garante que para cada (t0, z0) ∈ U , existe

uma única solução z = φ(t, t0, z0) de (3.4) denida para t próximo de t0 que satisfaz a

condição inicial φ(t0, t0, z0) = z0. Denimos φ em uma vizinhança aberta do conjunto

(t, t0, z) ∈ U : t = t0 em Rn. Além disso, essa solução é maximal no sentido que

existe t− = t−(t0, z0) e t+ = t+(t0, z0), possivelmente ±∞, tal que φ(t, t0, z0) é denido

para t− < t < t+ e

limt→t±

φ(t, t0, z0) = ∂U, (3.6)

onde ∂U denota a fronteira de U , (veja [1]).

No caso quando H é independente de t, então U é algum conjunto aberto em

R2n e H : U → R, nesse caso a equação diferencial (3.4) é autonôma e o sistema

Hamiltoniano é chamado de conservativo. As soluções nesse caso são desenhadas como

curvas parametrizadas em U ⊂ R2n e o conjunto U é chamado de espaço de fase. Pelo

Teorema de Existência e Unicidade, existe uma única curva passando por cada ponto

de U , e duas soluções não pode se cruzam em U .

Uma integral primeira de (3.4) é uma função F : U → R diferenciável que é

constante ao longo das soluções de (3.4), ou seja, F (φ(t, z0)) = F (z0) para todo t ∈ R.

As superfícies de nível F−1(c) ⊂ R2n, sendo c constante, são invariantes, ou seja, se

φ(t, z0) é uma solução com z0 ∈ F−1(c), então φ(t, z0) ∈ F−1(c), para todo t ∈ R.

3.1.1 Colchete de Poisson

Sejam H,F,G : U → R, U ⊂ R × Rn × Rn, funções diferenciaveis, denimos o

colchete de Poisson de F e G por

F,G(t, q, p) =n∑i=1

[∂F

∂qi(t, q, p)

∂G

∂pi(t, q, p)− ∂F

∂pi(t, q, p)

∂G

∂qi(t, q, p)

]. (3.7)

Page 49: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 3. SISTEMAS HAMILTONIANOS 42

O colchete de Poisson satisfaz a identidade de Jacob,

F, G,H+ G, H,F+ H, F,G = 0. (3.8)

Se F (t, q, p) é uma função diferenciável, denido no aberto U ⊂ R × Rn × Rn, pela

regra da cadeia, temos

dF

dt(t, q, p) =

∂F

∂t+∂F

∂q1q′1 + · · ·+ ∂F

∂qnq′n +

∂F

∂p1p′1 + · · ·+ ∂F

∂pnp′n,

agrupando os termos, obtemos

dF

dt(t, q, p) =

∂F

∂t+

n∑k=1

(∂F

∂qkq′k +

∂F

∂pkp′k

).

Pelas equações (3.2), segue que

dF

dt(t, q, p) =

∂F

∂t+

n∑k=1

(∂F

∂qk

∂H

∂pk− ∂F

∂pk

∂H

∂qk

).

Logo, por (3.7),dF

dt(t, q, p) =

∂F

∂t(t, q, p) + F,H(t, q, p). (3.9)

Teorema 3.1.1. Seja H,F,G : U → R, U ⊂ R× Rn × Rn e indepedente do tempo t.

Então

(i)F é uma integral primeira de (3.4) se, e somente se, F,H = 0.

(ii) H é uma integral primeira para (3.4).

(iii) Se F e G são integrais primeira para (3.4), então F,G também é.

(iv) F,H é a taxa de variação de F com relação ao tempo ao longo das soluções

de (3.4).

Demonstração. (i) Seja F uma integral primeira, como F não depende de t, então de

(3.9), obtemosdF

dt(t, q, p) = 0,

ou seja,∂F

∂t(t, q, p) + F,H(t, q, p) = 0.

Como F independe de t, segue que

F,H = 0.

Page 50: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 3. SISTEMAS HAMILTONIANOS 43

Reciprocamente, se F,H = 0, de (3.9) obtemos

dF

dt(t, q, p) =

∂F

∂t(t, q, p).

Como F independe de t, obtemos

dF

dt(t, q, p) = 0.

Logo F é uma integral primeira.

(ii) Note que

H,H =∂H

∂q· ∂H∂p− ∂H

∂p· ∂H∂q

= 0,

Logo, de (i), H é uma integral primeira.

(iii) Da identidade de Jacob, temos

F, G,H+ G, H,F+ H, F,G = 0,

como F e G são integrais primeira, temos

F, G,H = 0 e G, H,F = 0.

Assim

H, F,G = 0.

Logo F,G é uma integral primeira.

(iv) De (3.9), temos

dF

dt(t, q, p) =

∂F

∂t(t, q, p) + F,H(t, q, p)

como F independe de t, segue que

dF

dt(t, q, p) = F,H(t, q, p)

Portanto F,H é a taxa de variação de F com relação ao tempo ao longo das soluções

de (3.4)

Em muitos casos o sistema Hamiltoniano H é a energia total do sistema físico,

nesses casos o teorema diz que a energia é uma quantidade conservativa.

No caso conservativo, quando H é independente de t, um ponto crítico de H, isto

é, um ponto onde o gradiente é zero, é um ponto de equilíbrio do sistema de equações

diferenciais (3.1) ou (3.4), ou seja, uma solução constante. Um ponto de equilíbrio ζ

do sistema (3.4) é estável se dado ε > 0, existe δ > 0 tal que ||ζ − φ(t, z0)|| < ε para

todo t em ||ζ − z0|| < δ.

Page 51: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 3. SISTEMAS HAMILTONIANOS 44

Teorema 3.1.2. Se ζ é um mínimo ou máximo local de H, então ζ é estável.

Demonstração. Sem perda de generalidade, suponha que ζ = 0, H(0) = 0 e que 0

é um minimo local de H. Fixe ε > 0. Sendo H(0) = 0 e 0 um mínimo de H,

existe η > 0 tal que H(z) é positivo para 0 < ||z|| ≤ η. Seja x = min(ε, η) e

M = maxH(z) : ||z|| = x. Como H(0) = 0 e H é contínua, existe δ > 0 tal que

H(z) < M para ||z|| < δ. Se ||z0|| < δ, então H(z0) = H(φ(t, z0)) < M , para todo t.

||φ(t, z0)|| < x ≤ ε para todo t pois, caso contrário, existiria t0 tal que ||φ(t0, z0)|| = x,

mas H(φ(t0, z0)) ≥M , o que é uma contradição.

3.1.2 O Oscilador Harmônico

O oscilador harmonico é uma equação diferencial ordinária linear autônoma de

segunda ordem da forma

x′′ + w2x = 0, (3.10)

onde w é uma constante positiva. Fazendo a mudança de variável u = x′/w, podemos

reescrever (3.10) como um sistema de duas equações de primeira ordem da forma x′

u′

= w

0 1

−1 0

x

u

. (3.11)

Note que (3.11) é um sistema Hamiltoniano com

H(x, u) =w

2(x2 + u2),

pois as equações se tornam

x′ = wu =∂H

∂u(3.12)

u′ = −wx = −∂H∂x

. (3.13)

A variável u é a velocidade escalar, então o plano xu é essencialmente o plano

velocidade-posição, ou o plano de fase. O Teorema de Existência e Unicidade garante

que para cada ponto (x0, u0), no plano de fase, existe uma única solução passando nesse

ponto para qualquer t0. Procedendo como no Exemplo 2.3.7, temos que a solução do

sistema (3.11) é dada por x

u

=

cos w(t− t0) sen w(t− t0)

−sen w(t− t0) cos w(t− t0)

x0

u0

.

Page 52: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 3. SISTEMAS HAMILTONIANOS 45

Como o sistema independe de t, então H é uma integral primeira pelo Teorema

3.1.1. De fato,

H ′ = w · x · x′ + w · u · u′

= w · x · w · u− w · u · w · x

= 0.

Logo a solução ca no conjunto onde H é constante, que é um círculo no plano xu.

Além disso, a origem é uma solução de equilíbrio do sistema e é um mínimo local de

H, então a origem é estável.

3.1.3 Oscilador Forçado Não-Linear

Considere o sistema

x′′ + f(x) = g(t), (3.14)

onde x é um escalar e f, g são funções reais deriváveis de uma variavel escalar. Um

sistema mecânico dado por essas equações é ilustrado pela gura abaixo.

Aqui, x é o deslocamento de uma particula de massa 1 que é conectado a uma

mola não linear que possui a força de restituição −f(x) sujeita a uma força externa

g(t) e supondo que não existe atrito atuando. Essa equação equivale ao sistema

x′ = y =∂H

∂y, y′ = −f(x) + g(t) = −∂H

∂x, (3.15)

onde

H =1

2y2 + F (x)− xg(t), F (x) =

∫ x

0

f(s)ds. (3.16)

Muitas equações são desta forma, por exemplo:

i) O oscilador hamônico: x′′ + w2x = 0;

ii) A equação do pêndulo: θ′′ + sen θ = 0;

iii) A equação de Dung: x′′ + x+ αx3 = cos wt.

No caso quando g é desprezado, g ≡ 0, H é uma integral primeira, pois

H =1

2y2 + F (x)

Page 53: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 3. SISTEMAS HAMILTONIANOS 46

não depende de t, assim as soluções cam nas curvas de nível de H. Portanto, o retrato

de fase é obtido marcando os pontos das curvas de nível.

Seja h = H(x0, y0). Resolvendo em relação a y, temos

h =1

2y2 + F (x),

ou seja,

y2 = 2h− 2F (x)

. Assim,

y = ±√

2h− 2F (x).

Logo,

y =dx

dt= ±

√2h− 2F (x). (3.17)

Note que, (3.17) é uma equação separável, então

dt =

(1

±√

2h− 2F (x)dx

). (3.18)

Integrando ambos os membros de (3.18), obtemos

t− t0 =

∫ x

x0

1

±√

2h− 2F (x)dr. (3.19)

A solução é obtida resolvendo (3.19).

3.1.4 Sistema Newtoniano Geral

O sistema n-dimensional análogo a (3.14) é

Nx′′ +5F (x) = g(t) (3.20)

onde x é um n-vetor, N = MI, sendo I a matriz identidade n × n e M um escalar

positivo, F é uma função derivável denida no aberto U ⊂ Rn, 5F é o gradiente de F

e g é uma função derivavel de t, para t em algum conjunto aberto em R.

Seja p = Nx′, temos

x′ = N−1p =∂H

∂pe p′ = −5 F (x) + g(t) = −∂H

∂x,

onde o Hamiltoniano é

H =1

2pTN−1p+ F (x)− xTg(t).

Page 54: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 3. SISTEMAS HAMILTONIANOS 47

Se x representa o deslocamento de uma particula e N é uma matriz identidade

vezes um escalar positivo, então p é o momento linear da particula, 12pTN−1p é a energia

cinética e F a energia potêncial. Se g(t) ≡ 0, então

H =1

2pTN−1p+ F (x)

não depende de t. Logo, pelo Teorema 3.1.1, H é uma integral primeira.

No caso em que g(t) ≡ 0, se x0 é um ponto crítico do potêncial F , então

5F = 0.

Note que, em x0∂H

∂xi= 0 e

∂H

∂t= 0,

para i = 1, . . . , n. Assim,

5H =

(∂H

∂x1,∂H

∂x2, . . . ,

∂H

∂xn,∂H

∂t

)= 0

no ponto x0. Logo x0 é um ponto crítico de H, ou seja, um ponto crítico de F é um

ponto crítico de H, consequentemente é um ponto de equilíbrio para o Hamiltoniano.

Nesse caso, se x0 é o mínimo local para o potêncial F , então (x0, 0) é o mínimo

local para H e portanto é um ponto de equilíbrio estável pelo Teorema 3.1.2.

3.1.5 Problema de N corpos

Considere N corpos movendo-se no sistema Newtoniano, R3, em interação gra-

vitacional mútua, cada um de massa mi > 0 e posições descritas pelos vetores de

coordenadas cartesiana qi = (xi, yi, zi), i = 1, · · · , N . Da Física sabemos os seguintes

postulados:

i) 2 Lei de Newton: A força aplicada a um objeto é igual à massa do objeto multipli-

cado por sua aceleração, isto é,

Fij = mid2q

dt2. (3.21)

ii)Lei da Gravitação Universal: Dados dois corpos de massa m1 e m2, a uma distância

r entre si, esses dois corpos se atraem mutuamente com uma força que é proporcional

a massa de cada um deles e inversamente proporcional ao quadrado da distância que

os separa, ou seja,

Fij = −Gmimj(qi − qj)||qi − qj||3

, (3.22)

Page 55: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 3. SISTEMAS HAMILTONIANOS 48

onde G = 6, 6732× 10−11m3kg/s2 é a constante de gravitação universal, (veja [8]).

Combinando esses dois postulados, obtemos um conjunto de 3N equações dife-

rênciais de segunda ordem da forma

mid2qidt2

= −N∑

j=1,j 6=i

Gmimj(qi − qj)||qi − qj||3

=∂U

∂qi, i = 1, · · · , N, (3.23)

onde

U =N∑

j=1,j 6=i

Gmimj

||qi − qj||(3.24)

é a energia potêncial.

As equações (3.23) podem ser reduzidas a um sistema de 6N equações de primeira

ordem da forma

midqidt

= pi

midpidt

= −N∑

j=1,j 6=i

Gmimj(qi − qj)||qi − qj||3

. (3.25)

Assimdqidt

=pimi

=∂H

∂pie

dpidt

= −N∑

j=1,j 6=i

Gmimj(qi − qj)||qi − qj||3

=∂H

∂qi, (3.26)

onde o Hamiltoniano é

H =N∑i=1

||pi||2

2mi

− U. (3.27)

3.1.6 O Problema de Kepler

O problema de Kepler é quando temos 2 corpos, consideramos que um dos corpos

de massa m2 esta xado na origem, isto é, q2 = (0, 0, 0) (dizemos que o corpo é tão

massivo, como o sol, que ele não se move). Considerando que o outro corpo tem massa

m1 e posição p1, de (3.23) as equações que descrevem o movimento desses corpos tem

a forma

m1d2q1dt2

=Gm1m2(q2 − q1)||q1 − q2||3

m2d2q2dt2

=Gm2m1(q2 − q1)||q2 − q1||3

.

Como q2 ≡ 0, essas equações dão o movimento do corpo de massa m1. Assim

m1d2q1dt2

=Gm1m2(q1)

||q1||3,

Page 56: Soluções de Sistemas de Equações Diferenciais Lineares

CAPÍTULO 3. SISTEMAS HAMILTONIANOS 49

ou seja,d2q1dt2

=−µq1||q1||3

, (3.28)

onde q1 ∈ R3 é o vetor posição e µ = Gm2. Nesse caso, denindo p1 = q′1, obtemos

dp1dt

= − µq1||q1||3

.

Assim,dq1dt

= p1 =∂H

∂pe

dp1dt

= − µq1||q1||3

=∂H

∂q1,

onde o Hamiltoniano é

H =||p1||2

2− µ

||q1||.

Page 57: Soluções de Sistemas de Equações Diferenciais Lineares

Apêndice A

Conceitos e Resultados da Álgebra

Linear

A.1 Autovalores e Autovetores

Denição A.1.1. Dizemos que duas matrizes reais A,B ∈ M(n) são linearmente

conjugadas, ou semelhantes, se existe uma matriz invertível Q ∈ M(n) tal que

AQ = QB, ou seja, tal que

A = QBQ−1.

Nesse caso, dizemos que Q conjuga A e B.

Denição A.1.2. Dados uma matriz real A ∈M(n) e um número real λ ∈ R, dizemos

que λ é um autovalor de A se existe um vetor v ∈ Rn tal que v 6= 0 e

Av = λv.

Nesse caso, dizemos que v é um autovetor associado a λ.

Dada uma matriz C ∈M(n), denimos o núcleo de C por

Nuc(C) = w ∈ Rn | Cw = 0.

Note que v é autovetor de A associado a λ se, e somente se, Av = λv, ou equivalente-

mente, (λI − A)v = 0, ou seja, v ∈ Nuc(λI − A). Se λ é um autovetor de A ∈ M(n),

dizemos que

Vλ = Nuc(λI − A) = v ∈ Rn | Av = λv

é um auto-espaço associado ao autovalor λ.

50

Page 58: Soluções de Sistemas de Equações Diferenciais Lineares

APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 51

Lema A.1.1. Sejam A ∈ M(n) uma matriz real e λ um número real. Então as

seguintes armações são equivalentes:

(a) λ é um autovalor de A;

(b) existe um autovetor de A com autovalor associado λ ;

(c) Nuc(λI − A) 6= 0;(d) a matriz λI − A não é invertível;

(e) det(λI − A) = 0.

Demonstração. (a) ⇒ (b) Seja λ um autovalor de A ∈ M(n), então existe um vetor

v ∈ Rn tal que v 6= 0 e Av = λv. Logo v é um autovetor associado a λ.

(b)⇒ (c) Seja v um autovetor de A associado a λ, então de

Av = λv

temos,

λv − Av = 0,

donde,

(λI − A)v = 0,

assim

v ∈ Nuc(λI − A).

Logo

Nuc(λI − A) 6= 0

pois, v é um autovetor, ou seja, v 6= 0.

(c)⇒ (d) Suponha que o núcleo de λI −A é diferente de 0, então λI −A não

é invertível.

(d)⇒ (e) Seja λI − A uma matriz não invertível, então det(λI − A) = 0.

(e)⇒ (a) Se det(λI − A) = 0 então existe v 6= 0 em Rn tal que

(λI − A)v = 0,

daí,

λv − Av = 0,

assim,

λv = Av

ou seja, v é um autovetor de A associado ao autovalor λ.

Segue do Lema A.1.1 que os autovalores de A são as raízes reais do polinômio

p(λ) = pA(λ) = det(λI − A),

denominado polinômio característico da matriz A ∈M(n).

Page 59: Soluções de Sistemas de Equações Diferenciais Lineares

APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 52

Exemplo A.1.1. Dada a matriz

A =

1 0 1

0 −2 1

0 0 −1

encontremos os autovalores de A. Calculando o polinômio característico

pA(λ) = det(λI − A)

=

∣∣∣∣∣∣∣λ− 1 0 −1

0 λ+ 2 −1

0 0 λ+ 1

∣∣∣∣∣∣∣= λ3 + 2λ2 − λ− 2

= (λ− 1)(λ+ 1)(λ+ 2)

Logo 1,−1,−2 são os autovalores de A.

Teorema A.1.1 (Teorema de Cayley-Hamilton). Uma matriz A ∈ M(n) anula seu

polinômio característico, isto é,

pA(A) = 0 ∈M(n).

Demonstração. Seja A uma matriz quadrada n × n arbitrária e p(t) seu polinômio

característico, digamos,

p(t) = det(tI − A) = antn + an−1t

n−1 + . . .+ a1t+ a0.

Agora, seja B(t) a adjunta clássica da matriz tI − A. Os elementos de B(t) são co-

fatôres da matriz tI−A, portanto, são polinômios em t de grau não excedende a n−1.

Assim,

B(t) = Bn−1tn−1 + . . .+B1t+B0,

onde os Bi, i = 0, · · · , n− 1, são matrizes quadradas n× n sobre um corpo R que são

independentes de t. Pela propriedade fundamental de adjunta clássica

(tI − A)B(t) = |tI − A|I

ou

(tI − A)(Bn−1tn−1 + . . .+B1t+B0) = (tn + an−1t

n−1 + . . .+ a1t+ a0)I.

Removendo os parênteses e agrupando os coecientes de t de potências correspondentes,

Page 60: Soluções de Sistemas de Equações Diferenciais Lineares

APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 53

segue que

Bn−1 = I

Bn−2 − ABn−1 = an−1I

Bn−3 − ABn−2 = an−2I

. . . . . . . . .

B0 − AB1 = a1I

−AB0 = a0I.

Multiplicando a equação matricial acima por An, An−1, . . . , A, I, respectivamente, ob-

temos

AnBn−1 = An

An−1Bn−2 − AnBn−1 = an−1An−1

An−2Bn−3 − An−1Bn−2 = an−2An−2

. . . . . . . . .

AB0 − A2B1 = a1A

−AB0 = a0I.

Somando as equações matriciais acima,

0 = An + an−1An−1 + . . .+ a1A+ a0I.

Em outras palavras, p(A) = 0. Portanto, A é um zero de seu polinômio característico.

Lema A.1.2. Autovetores associados a autovalores distintos são linearmente indepen-

dentes.

Demonstração. Como todo autovetor é não-nulo, então nenhum autovetor é linear-

mente dependente, então o resultado vale para um autovetor. Para mais que um au-

tovetor vamos provar por contrapisitiva, ou seja, autovetores linearmente dependente

possuem ao menos dois autovetores associados iquais.

Provemos por indução, primeiramente veriquemos para dois autovetores. Se-

jam v1, v2 ∈ Rn autovetores linearmente dependentes de A ∈ M(n), associados aos

autovalores λ1 e λ2, respectivamente. Então existe a ∈ R tal que a 6= 0 e v2 = av1.

Temos

λ2v2 = Av2

= aAv1

= aλ1v1

= λ1av1

= λ1v2

Page 61: Soluções de Sistemas de Equações Diferenciais Lineares

APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 54

donde,

λ2v2 − λ1v2 = 0,

ou seja,

(λ2 − λ1)v2 = 0.

Como v2 6= 0, então

λ2 − λ1 = 0.

Assim

λ2 = λ1.

Logo dois autovetores linearmente dependente possuem dois autovalores iquais. Su-

ponha que vale para k − 1 autovetores, ou seja, v1, v2, . . . , vk−1 ∈ Rn são autovetores

linearmente dependente de A associados aos autovalores λ1, . . . , λk−1, onde pelo menos

dois autovalores são iquais. Verequemos para k autovetores.

Sejam v1, v2, . . . , vk ∈ Rn autovetores linearmente dependente de A associados

aos autovalores λ1, . . . , λk, respectivamente. Se v1, . . . , vk−1 são linearmente depen-

dente, por hipótese de indução, para os autovetores v1, v2, . . . , vk, existe ao menos dois

autovalores iquais, e acaba a prova.

Suponha que v1, . . . , vk−1 são linearmente independente. Como v1, v2, . . . , vk for-

man um conjunto linearmente dependente e vk 6= 0 ∈ Rn, então vk é uma combinação

linear não trivial de v1, . . . , vk−1. Logo

vk =k−1∑i=1

aivi com algum ai 6= 0. (A.1)

Multiplicando (A.1) por λk, obtemos

λkvk =k−1∑i=1

aiλkvi. (A.2)

Por outro lado, aplicando (A.1) por A, segue que

Avk =k−1∑i=1

aiAvi ⇒ λkvk =k−1∑i=1

aiλivi. (A.3)

Subtraindo (A.2) de (A.3), obtemos

λkvk − λkvk =k−1∑i=1

aiλkvi −k−1∑i=1

aiλivi.

Page 62: Soluções de Sistemas de Equações Diferenciais Lineares

APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 55

Daí,

0 =k−1∑i=1

aiλkvi −k−1∑i=1

aiλivi

=k−1∑i=1

(aiλkvi − aiλivi)

=k−1∑i=1

ai(λk − λi)vi.

Como estamos supondo v1, . . . , vk−1 linearmente independente, decorre que

ai(λk − λi) = 0, 1 ≤ i ≤ k − 1.

Sendo algum ai 6= 0, resulta que

λk = λi,

para algum 1≤ i ≤ k − 1 e acaba a demonstração.

A.2 Diagonalização de Matrizes

Denição A.2.1. Uma matriz A ∈ M(n) é dita diagonalizável se A é conjugada a

uma matriz diagonal.

Proposição A.2.1. Uma matriz A ∈ M(n) é diagonalizável se, e somente se, existe

uma base de Rn constituída de autovetores de A. Mais precisamente, dadas as matrizes

A,Q ∈ M(n), temos: as colunas de Q formam uma base de autovetores de A se,

somente se, Q é invertível e Q−1AQ é uma matriz diagonal.

Demonstração. Se Avj = λjvj para cada vetor de uma base do Rn, então a matriz D

do operador T = T1, nessa base, é simplesmente a matriz diagonal

D = diag(λ1, λ2, . . . , λn).

Daí, se Q é a matriz de colunas v1, . . . , vn, então

AQej = Avj

= λjvj

= λjQej

= Qλjej

= QDej

para todo j = 1, . . . , n. Assim,

AQv = QDv, ∀v ∈ Rn.

Page 63: Soluções de Sistemas de Equações Diferenciais Lineares

APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 56

Logo,

AQ = QD,

ou seja, A e D são conjugadas por Q. Recíprocamente, observando que Dej = λjej

para cada vetor ej da base canônica do Rn resulta que

Avj = AQej

= QDej

= Qλjej

= λjQej

= λjvj,

ou seja, cada vetor coluna da matriz Q da conjugação de A com a matriz diagonal D

é necessariamente um autovetor de A.

Teorema A.2.1. Se a matriz A ∈ M(n) tem n autovalores distintos, então A é dia-

gonalizável.

Demonstração. Se A tem n autovalores distintos λ1, . . . , λn ∈ R associados aos au-

tovetores v1, . . . , vn ∈ Rn, então pelo Lema A.1.2, esses autovetores, v1, . . . , vn, são

linearmente independente. Logo forman uma base de Rn. Existe uma base de autove-

tores de A. Logo A é diagonalizável.

Exemplo A.2.1. Seja a matriz

A =

1 0 1

0 −2 1

0 0 −2

vimos que o seu polonômio característico é

pA(λ) = (λ− 1)(λ+ 1)(λ+ 2).

e seus autovalores são λ1 = 1, λ2 = −1 e λ3 = −2. Assim pelo teorema acima A é

diagonalizável e, pela Proposição A.2.1, A é semelhante a matriz diagonal

D =

1 0 0

0 −1 0

0 0 −2

.

Calculemos os autovetores associados aos autovalores. Conside v1 = (a, b, c) um auto-

vetor associado a λ1 = 1, então

λ1v = Av.

Page 64: Soluções de Sistemas de Equações Diferenciais Lineares

APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 57

Donde a

b

c

=

1 0 1

0 −2 1

0 0 −1

a

b

c

=

a+ c

−2b+ c

−c

.

Da iqualdade acima, obtemos

a = a+ c

b = −2b+ c

c = −c⇒

a = a

c = 0

b = 0

assim a é qualquer e b = c = 0. Logo v1 = (1, 0, 0) é um autovetor associado a λ1 = 1.

Fazendo o mesmo procedimento para os autovalores λ2 e λ3. Para λ2 = −1, temos

λ2v = Av,

donde −a−b−c

=

a+ c

−2b+ c

−c

−a = a+ c

−b = −2b+ c

c = c

⇒c = c

c = −2a

b = c

.

Assim v2 = (1,−2,−2) é um autovetor associado a λ2 = −1. Para λ3 = −2, temos

λ3v = Av,

ou seja, −2a

−2b

−2c

=

a+ c

−2b+ c

−c

−2a = a+ c

−2b = −2b+ c

2c = c

⇒c = 0

a = 0

b = b.

Assim v3 = (0, 1, 0) é um autovetor associado a λ3 = −2. Como v1, v2 e v3 são as

colunas de Q, então

Q =

1 1 0

0 −2 1

0 −2 0

,

ou seja, AQ = QD. Portanto, D é a matriz diagonal associada a A.

Page 65: Soluções de Sistemas de Equações Diferenciais Lineares

APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 58

A.3 Autovalores e Autovetores Complexos

Denição A.3.1. Um vetor não nulo w ∈ Cn é um autovetor complexo de uma matriz

real A ∈M(n) se existe γ ∈ C não real, tal que Aw = γw.

Proposição A.3.1. Dados uma matriz A ∈M(n), um número complexo não real γ e

um vetor não-nulo w ∈ Cn, temos:

• γ é um autovalor complexo de A se, e somente se, γ é um autovalor complexo de

A;

• w é um autovetor complexo de A com autovalor γ se, e somente se, w é um

autovetor complexo de A com autovalor γ;

• se w é um autovetor complexo de A então w,w é linearmente independente em

Cn.

Demonstração. Seja A uma matriz real, o polinômio característico pA(z) de A tem

coecientes reais e, portanto, pA(z) = pA(z). Considere γ um autovalor complexo de

A, então

pA(γ) = pA(γ) = 0 = 0

ou seja, γ também é um autovalor complexo de A.

Suponha agora w ∈ Cn um autovetor complexo de A com autovalor γ, ou seja,

Aw = γw.

Donde Aw = Aw, pois A é uma matriz de termos reais. Assim,

Aw = Aw = γw = γ w.

Logo w é um autovetor complexo de A associado a um autovalor complexo γ. Pro-

vemos agora que w,w é linearmente independente por contrapositiva. Suponha que

w e w são vetores linearmente dependente de A, associados aos autovalores γ e γ,

respectivamente. Então existe a ∈ R tal que a 6= 0 e w = wa. Daí,

γw = Aw

= aAw

= aγ w

= γaw

= γw.

Donde

γw − γw = 0⇒ (γ − γ)w = 0,

Page 66: Soluções de Sistemas de Equações Diferenciais Lineares

APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 59

como w 6= 0, então

γ − γ = 0,

ou seja,

γ = γ.

Contradição, pois se γ é um número complexo não real, então γ 6= γ. Portanto w,wsão linearmente independente em Cn.

Podemos escrever w ∈ Cn, um autovetor complexo de A ∈M(n) como

w = u+ iv

com u, v ∈ R. Em particular

w = u+ iv = u− iv.

Daí,

w + w = (u+ iv) + (u− iv)

= 2u,

ou seja,

u =1

2(w + w).

Fazendo agora

w − w = (u+ iv)− (u− iv)

= u+ iv − u+ iv

= 2iv,

ou seja,

v =1

2i(w − w)

são os únicos vetores em Rn tais que w = u+ iv.

Proposição A.3.2. Sejam A ∈ M(n) uma matriz real e w ∈ Cn um autovetor com-

plexo de A associado ao autovalor complexo a + ib ∈ C, com b 6= 0. Escrevendo

w = u + iv com u, v ∈ Rn dados por u = w+w2

e v = w−w2i

, temos que u, v é linear-

mente independente em Rn e

Au = au− bvAv = bu+ av.

Page 67: Soluções de Sistemas de Equações Diferenciais Lineares

APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 60

Demonstração. Suponha que w seja um autovetor complexo de A e sejam u, v ∈ Rn

tais que w = u+iv, como u = w+w2

e v = w−w2i

. Vamos supor que u, v seja linearmente

dependente em Rn, isto é, que exista α ∈ R tal que v = αu. De

v =w − w

2i

temos

w − w = 2iv

= 2iαu

= 2iα

(w + w

2

)= iα(w + w)

= iαw + iαw,

ou seja,

w − iαw = w + iαw,

donde,

w(1− iα) = w(1 + iα).

Como 1 − iα 6= 0 6= 1 + iα, w,w é linearmente dependente em Cn, o que contraria

a proposição A.3.1. Logo u, v é linearmente independente em Rn. Suponha agora

γ = a+ ib, com b 6= 0, o autovalor associado a w.

Au+ iAv = A(u+ iv)

= Aw

= γw

= (a+ ib)(u+ iv)

= (au− bv) + i(bu+ av)

= (au− bv) + i(bu+ av).

Igualando a parte real e imaginária, obtemos

Au = au− bvAv = bu+ av

como A ∈M(n) é uma matriz real, temos Au,Av ∈ Rn.

Exemplo A.3.1. Seja

A =

(a b

−b a

)

Page 68: Soluções de Sistemas de Equações Diferenciais Lineares

APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 61

uma matriz e w ∈ C2 um autovetor de A, onde w = (1, i). Então w = (1, i) =

(1, 0) + i(0, 1), ou seja, u = (1, 0) e v = (0, 1). Daí,

Au =

(a b

−b a

)(1

0

)

=

(a

−b

)

= a

(1

0

)− b

(0

1

)= au− bv,

por outro lado,

Av =

(a b

−b a

)(0

1

)

=

(b

a

)

= b

(1

0

)+ a

(0

1

)= bu+ av.

Exemplo A.3.2. Seja A ∈M(n) uma matriz tal que

A =

1 0 −2

−5 6 11

5 −5 −10

.

calculando o seu polinômio característico, obtemos

pA(λ) = det(Iλ− A)

= λ3 + 3λ2 + λ− 5

= (λ− 1)(λ+ 2− i)(λ+ 2 + i)

os autovalores generalizados de A são 1 e −2± i, temos (1, 1, 0) o autovetor associado.

Tomando w = (z1, z2, z3) ∈ C3, para γ = −2 + i, temos

0 = ((−2 + i)I − A)w

=

−3 + i 0 2

5 −8 + i −11

−5 5 8 + i

z1

z2

z3

=

(−3 + i)z1 + 2z3

5z1 + (−8 + i)z2 − 11z3

−5z1 + 5z2 + (8 + i)z3

.

Page 69: Soluções de Sistemas de Equações Diferenciais Lineares

APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 62

Tomando z1 = 2, temos z3 = 3−i e z2 = −3+i, de modo que w = (2,−3+i, 3−i) ∈ C3.

Daí,

Au = A

2

−3

3

=

−4

5

−5

= −2

2

−3

3

− 0

1

−1

= 2u− v.

Assim

Q =

1 2 0

1 −3 1

0 3 −1

e D =

1 0 0

0 −2 1

0 −1 −2

.

Teorema A.3.1. Seja A ∈ M(n) uma matriz real e λ1, λ2 as raízes do polinômio

característico pA(λ). Então ocorre exatamente um dos casos de classe de conjugação

de matrizes.

1. Se λ1, λ2 são reais e λ1 6= λ2 então

A ∼

(λ1 0

0 λ2

);

2. Se λ0 = λ1 = λ2, λ0 ∈ R:

(a) dim Nuc(λ0I − A) = 2, então

A ∼

(λ0 0

0 λ0

)= λ0I

(b) dim Nuc(λ0I − A) = 1, então

A ∼

(λ0 0

1 λ0

),

sendo as colunas da matriz de conjugação dadas por qualquer vetor u fora do

autoespaço Nuc(λ0I − A) e o autovetor v associado a λ0.

Page 70: Soluções de Sistemas de Equações Diferenciais Lineares

APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 63

3. Se λ1 = a+ ib e λ2 = a− ib, com a, b ∈ R, b 6= 0, então

A ∼

(a b

−b a

)

sendo as colunas da matriz de conjugação dadas pela parte real e imaginárias de

qualquer autovetor complexo de A.

Demonstração. O caso 1 já foi demonstrado no caso geral de uma matriz n× n.Caso 2: Suponha que as raízes do polinômio característico de A sejam reais e

iquais, λ1 = λ2 = λ0 ∈ R. Então

pA(λ) = (λ− λ0)2

a) Se dim Nuc(λ0I − A) = 2, então dim Im(λ0I − A) = 0. Assim

λ0I − A = 0⇒ λ0I = A.

b) Se

dim Nuc(λ0I − A) = 1⇒ dim Im(λ0I − A) = 1

mas

(λ0I − A)(λ0I − A)2 = pA(A) = 0 ∈M(2).

Assim

dim Nuc(λ0I − A)2 = 2.

Daí,

(λ0I − A)[(λ0I − A)u] = 0,∀u ∈ Rn

e

Im(λ0I − A) ⊆ Nuc(λ0I − A)

Sendo

dim Im(λ0I − A) = dim Nuc(λ0I − A),

segue que,

Nuc(λ0I − A) = Im(λ0I − A).

Tomemos um vetor qualquer u ∈ R2 \ Nuc(λ0I − A), então u 6= 0 e (λ0I − A)u 6= 0.

Denindo

v = −(λ0I − A)u

obtemos que v 6= 0 e Au = λ0u+ v e pelo que vimos acima

v ∈ Im(λ0I − A) = Nuc(λ0I − A).

Page 71: Soluções de Sistemas de Equações Diferenciais Lineares

APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 64

Assim v é um autovetor de A associado a λ0 e u, v é base de R2. Além disso a matriz

Q ∈M(2) de colunas Qe1 = u e Qe2 = v. Escrevendo

J =

(λ0 0

1 λ0

),

temos

Je1 = λ0e1 + e2 e Je2 = λ0e2.

Daí,

AQe1 = Au

= λ0u+ v

= λ0Qe1 +Qe2

= Q(λ0e1 + e2)

= QJe1

e

AQe2 = Av

= λ0v

= λ0Qe2

= Qλ0e2

= QJe2

Portanto

AQ = QJ.

Caso 3: Suponha λ = a + ib, λ = a − ib, b 6= 0, w = u + iv, com u, v ∈ Rn

autovetor associado a λ. Como u, v é LI em R2, a matriz real Q ∈M(n) de colunas

Qe1 = u, Qe2 = v é invertível e

Au = au− bv e Av = au+ av.

Escreva

J =

(a b

−b a

),

temos

Je1 = ae1 − be2 e Je2 = be1 + ae2.

logo

AQe1 = Au

= au− bv= aQe1 − bQe2= Q(ae1 − be2)= QJe1

Page 72: Soluções de Sistemas de Equações Diferenciais Lineares

APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 65

e

AQe2 = Av

= bu+ av

= bQe1 + aQe2

= Q(be1 − ae2)= QJe2.

Portanto,

AQ = QJ.

Exemplo A.3.3. Considere a matriz

A =

(3 −1

1 1

).

Seu polinômio característico é da forma

pA(λ) = λ2 − 4λ+ 4 = (λ− 2)2,

então, λ = 2 é um autovalor de A com multiplicidade algebrica 2. Daí,

(A− Iλ)v = 0,

ou seja, (1 −1

1 −1

)(x

y

)=

(0

0

),

donde x = y. Assim, os autovetores de A são da forma (x, x), x 6= 0. Logo

Nuc(A− 2I) =

[(1

1

)].

Portanto, a matriz A é semelhante a matriz

J =

(2 0

1 2

)e a matriz Q de conjugação linear tem como colunas w e v, onde v é um autovetor de

A e w é um vetor fora do subespaço Nuc(A− 2I). Note que

(A− λI)2w = 0, (A− λI)w 6= 0,

isto é, (1 −1

1 −1

)=

(0 0

0 0

).

Page 73: Soluções de Sistemas de Equações Diferenciais Lineares

APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 66

Assim

(A− λI)2w = 0⇔

(0 0

0 0

)(w1

w2

)=

(0

0

).

Logo podemos escolher w arbitrário desde que (A− 2I)w 6= 0. Escolha

w =

[1

0

]ou w =

[0

1

].

Portanto a matriz de conjugação Q é dada por

Q =

[1 1

0 1

].

Resolvendo,

y′ =

(2 0

1 2

)(y1

y2

)donde

y(t) =

(y1(t)

y2(t)

)=

(k1e

2t

k1te2t + k2

)é solução de y′ = Jy. Mas A ∼ J com matriz de conjugação Q,

AQ = QJ

e x(t) = Qy(t) é a solução procurada de x′ = Ax

A.4 Forma Canônica de Jordan

Teorema A.4.1. Seja T : V −→ V um operador linear, cujos polinômios característico

e mínimo são, respectivamente,

∆(t) = (t− λ1)n1 ...(t− λr)nr

e

m(t) = (t− λ1)m1 ...(t− λr)mr

onde os λi são escalares distintos. Então, T tem uma representação matricial diagonal

em blocos J , cujos elementos diagonais são da forma

Jij =

λi 0 0 . . . 0 0

1 λi 0 . . . 0 0

. . . . . . . . . . . . . . . . . .

0 0 0 . . . λi 0

0 0 0 . . . 1 λi

.

Para cada λi, os blocos correspondentes Jij têm as seguintes propriedades:

Page 74: Soluções de Sistemas de Equações Diferenciais Lineares

APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 67

1. Existe, ao menos um Jij de ordem mi; todos os outros Jij são de ordem ≤ mi;

2. A soma das ordens dos Jij é ni;

3. O número dos Jij é igual à multiplicidade geométrica dos λi;

4. O número dos Jij de cada ordem possível é determinado de maneira única por T .

A Demostração pode ser encontrado em [3]

Exemplo A.4.1. Suponhamos que os polinômios característico e mínimo de um ope-

rador T são, respectivamente,

∆(t) = (t− 2)4(t− 3)3 e m(t) = (t− 2)2(t− 3)2.

Então, a forma canônica de Jordan de T é uma das seguintes matrizes

2 0 0 0 0 0 0

1 2 0 0 0 0 0

0 0 2 0 0 0 0

0 0 1 2 0 0 0

0 0 0 0 3 0 0

0 0 0 0 1 3 0

0 0 0 0 0 0 3

ou

2 0 0 0 0 0 0

1 2 0 0 0 0 0

0 0 2 0 0 0 0

0 0 0 2 0 0 0

0 0 0 0 3 0 0

0 0 0 0 1 3 0

0 0 0 0 0 0 3

A primeira matriz ocorre se T tem dois autovetores independentes pertencentes ao

seu autovalor 2, e a segunda matriz ocorre se T tem três autovetores independentes

pertencentes a 2.

Exemplo A.4.2. Considere o polinômio característico ∆(t) = (t− 2)3(t− 5)2. Como

t− 2 tem expoente 3 em ∆(t), então 2 deve aparecer três vezes na diagonal principal.

Semelhantemente, 5 deve aparecer duas vezes. Assim, as possíveis formas canônicas

de Jordan são2 0 0 0 0

1 2 0 0 0

0 1 2 0 0

0 0 0 5 0

0 0 0 1 5

2 0 0 0 0

1 2 0 0 0

0 0 2 0 0

0 0 0 5 0

0 0 0 1 5

2 0 0 0 0

0 2 0 0 0

0 0 2 0 0

0 0 0 5 0

0 0 0 1 5

2 0 0 0 0

1 2 0 0 0

0 1 2 0 0

0 0 0 5 0

0 0 0 0 5

2 0 0 0 0

1 2 0 0 0

0 0 2 0 0

0 0 0 5 0

0 0 0 0 5

2 0 0 0 0

0 2 0 0 0

0 0 2 0 0

0 0 0 5 0

0 0 0 0 5

.

A formar de Jordan é denida pela multiplicidade geometrica do polinômio caracterís-

tico.

Page 75: Soluções de Sistemas de Equações Diferenciais Lineares

Referências Bibliográcas

[1] Doering, C. I.; Lopes, A. O.: Equações Diferenciais Ordinárias, IMPA, Rio de

Janeiro 2007.

[2] Figueiredo, D; Neves, A.: Equações diferenciais aplicadas, IMPA, Rio de Janeiro

2002.

[3] Homan, K; Kunze, R.: Álgebra Linear, LTC, Rio de Janeiro 1979.

[4] Lima, E. L.: Espaços Métricos, IMPA, Rio de Janeiro 2009.

[5] Lima, E. L.: Curso de Análise Vol.1, IMPA, Rio de Janeiro 2010.

[6] Lima, E. L.: Curso de Análise Vol.2, IMPA, Rio de Janeiro 2009.

[7] Lipschutz, S.: Álgebra Linear, McGraw-Hill do Brasil, São Paulo 1978.

[8] Meyer, K. R.; Hall, G. R.: Introduction to Hamiltonian Dynamical Systems and

the N-Body Problem, Springer - Verlag, New York 1992.

[9] Sotomayor, J.: Lições de Equações Diferenciais Ordinárias, IMPA, Rio de Janeiro

1979.

68