124
UNIVERSIDADE DA BEIRA INTERIOR Ciências Métodos Numéricos para resolução de Equações de Lyapunov Tiago Filipe Leitão Silva Dissertação para obtenção do Grau de Mestre em Matemática (2º ciclo de estudos) Orientador: Prof. Doutor Rui Manuel Pires Almeida Covilhã, Outubro de 2010

Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

  • Upload
    lamhanh

  • View
    223

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

UNIVERSIDADE DA BEIRA INTERIOR Ciências

Métodos Numéricos para resolução de

Equações de Lyapunov

Tiago Filipe Leitão Silva

Dissertação para obtenção do Grau de Mestre em Matemática

(2º ciclo de estudos)

Orientador: Prof. Doutor Rui Manuel Pires Almeida

Covilhã, Outubro de 2010

Page 2: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

ii

Page 3: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

iii

Dedicatória

À minha vida

Rita e Afonso

Page 4: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

iv

Page 5: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

v

Agradecimentos

A realização desta dissertação só foi possível com o apoio de diversas pessoas.

Agradeço ao Professor Doutor Rui Almeida, orientador deste trabalho, pelo contributo, pelo

apoio e pelo incentivo no decurso da elaboração desta dissertação.

Agradeço ainda à Rita e ao meu filho Afonso todo o estímulo e encorajamento.

A todos os que sempre tiveram palavras de incentivo no percurso de elaboração desta

dissertação, o meu sincero Obrigado.

Page 6: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

vi

Page 7: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

vii

Resumo

O objectivo desta dissertação é descrever, analisar e aplicar alguns métodos numéricos para

resolver a equação clássica de Lyapunov.

Estudamos condições que garantem a solubilidade das equações e estabelecemos relações

entre a fórmula contínua

+ + =* 0AX XA Q

e a fórmula discreta

− + =* 0AXA X Q .

O produto de Kronecker é usado de modo a permitir representações de equações matriciais e

o desenvolvimento de alguns métodos numéricos

Analisamos algumas decomposições matriciais que vão ser utilizadas no desenvolvimento de

alguns métodos numéricos directos nomeadamente Bartels-Stewart e Hessenberg-Schur.

Por fim, os subespaço de Krylov e alguns processos de ortogonalização permitem desenvolver

os métodos iterativos de Arnoldi e GMRES e os métodos directos de Ward e Kirrinnis.

Palavras-chave

Lyapunov, Krylov, Bartels-Stewart, Hessenberg-Schur, Matrizes, Equações Matriciais.

Page 8: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

viii

Page 9: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

ix

Abstract

The aim of this dissertassion is to describe, analyze and apply some numerical methods for

solving the classical equation of Lyapunov.

We study the conditions to ensure the equations solubility and establish relationships between

the continuous formula

+ + =* 0AX XA Q

and the discrete formula

− + =* 0AXA X Q .

The Kronecker product is used to allow representations of matrix equations and the

development of some numerical methods

We examine some matrix decompositions that will be used to develop some direct numerical

methods namely the Bartels-Stewart and Hessenberg-Schur methods.

Finally, Krylov subspace and some processes of orthogonalization make possible to develop

iterative methods of Arnoldi and GMRES and direct methods of Ward and Kirrinnis.

Keywords

Lyapunov, Krylov, Bartels-Stewart, Hessenberg-Schur, Matrix, Matrix Equations.

Page 10: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

x

Page 11: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

xi

Índice 0. Introdução 1 1. Noções Preparatórias 3

1.1 Conceitos Básico e Matrizes Especiais 3 1.2 Decomposições Matriciais 10

1.2.1 – Decomposição de Schur 11 1.2.2 – Decomposição de Jordan 20 1.2.3 – Factorização com uma Matriz Companheira 27

1.3 Critérios de Solubilidade da Equação de Lyapunov 30 1.3.1 – Teoremas de Existência e Unicidade 30 1.3.2 – Equivalência de duas classes de equações de Lyapunov 31 1.3.3 – Forma da Solução 34 1.3.4 – A estrutura das soluções 36

2. Métodos Iterativos usando o produto de Kronecker 41 2.1 O produto de Kronecker de duas matrizes 41 2.2 Formulação usando o produto de Kronecker 44 2.3 Método iterativo para o produto de Kronecker – KPIM 49

2.3.1 – Introdução 49 2.3.2 – O KPIM para a equação matricial discreta de Lyapunov 50 2.3.3 – O KPIM para a equação matricial continua de Lyapunov 60

3. Métodos para Problemas Pouco Densos 63 3.1 Método de Bartels-Stewart 63 3.2 Método de Hessenberg-Schur 68

4. Resolução da Equação de Lyapunov usando subespaços de Krylov 71 4.1 Introdução 71 4.2 Métodos Standard de Subespaços de Krylov para equações Lineares 71

4.2.1 – Introdução 71 4.2.2 – Subespaços de Krylov 72 4.2.3 – O Algoritmo de Arnoldi 74 4.2.4 - Métodos Standard de Subespaços de Krylov 75

4.2.4.1 GMRES 75 4.2.4.2 CG 81 4.2.4.3 CGNR 82 4.2.4.4 BCG 83

4.2.5 - Métodos para problemas com matrizes esparsas 84 4.2.5.1Algoritmo do Bloco de Arnoldi 84 4.2.5.2 Método de Arnoldi 87 4.2.5.3 Método GMRES 93

4.3 Métodos de Ward e Kirrinnis 95 4.3.1 – Método de Ward 95 4.3.2 – Método de Kirrinnis 99

5. Conclusões 105 Bibliografia 107

Page 12: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

xii

Page 13: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

1

0. Introdução

Esta dissertação incide, e tem como objectivo descrever, analisar e aplicar

eficientemente métodos numéricos para resolução de equações matriciais de Lyapunov,

contínuas (0.1) e discretas (0.2)

0* =++ QAXXA ; (0.1)

0* =+− QXXAA ; (0.2)

A equação de Lyapunov * 0AX X A C+ + = , assim como a equação Sylvestre

A X XB C− = , mais genérica devido ao factor que se usar para qualquer matriz B, surge

com alguma frequência em teoria de matrizes, ao nível, por exemplo, da diagonalização

por blocos de uma matriz triangular [48] e na teoria dos controlos lineares, onde são

aplicadas por exemplo na análise e desenho de sistemas físicos dinâmicos de tempo

contínuo, modelados por um sistema de equações diferenciais lineares [6]. Outras

aplicações destas equações em várias áreas da matemática aplicada podem ser

encontradas em [12, 13, 30] e referenciados noutros estudos de possíveis aplicabilidades

da equação.

Vários são os problemas de diferentes ramos da Matemática que podem ser

solucionados à custa da resolução deste tipo de equações, assim como a sua utilização

no estudo das propriedades de estabilidade ou de controlabilidade de um sistema físico

dinâmico modelado por um sistema de equações diferenciais ordinárias.

A formulação matricial de um sistema de equações lineares equivalente a este tipo de

equações e definida através do produto de Kronecker como é possível observar na

equação

( ) ( ) ( ) 0T Tn nA I I A vec X vec C⊗ + ⊗ + = ,

pode apresentar um elevado grau de esparsidade e que reproduz uma determinada

estrutura particular presente na matriz coeficiente A. Estas duas características, bem

como a dimensão do sistema devem ser tidas em conta na escolha do método mais

adequado para o problema que se pretende resolver.

A abordagem desenvolvida por Bartels e Stewart é dos métodos gerais mais citado na

literatura. Este algoritmo bem como a modificação, igualmente apresentado nesta

dissertação, o método de Hessenberg-Schur, utilizam uma decomposição de Schur de

Page 14: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

2

pelo menos uma das matrizes A e *A− e são recomendados para resolver problemas

cujas matrizes coeficientes são cheias e com dimensão reduzida.

A dissertação apresentada encontra-se organizada da seguinte forma:

• Capítulo 1 – contém referências a conceitos relativamente ao cálculo matricial

genérico. Serão abordadas decomposições matriciais mais usuais (Schur, Jordan

e Matriz Companheira). Por fim serão apresentados Critérios de Solubilidade

das Equações de Lyapunov.

• Capítulo 2 – será apresentado o conceito de produto de Kronecker, e exposto um

método iterativo, denominado por Método Iterativo do Produto de Kronecker –

KPIM, onde serão apresentados algoritmos para a sua resolução.

• Capítulo 3 – são abordados métodos para problemas pouco densos, onde se

incluem os métodos de Bartels-Stewart e de Hessenberg-Schur.

• Capítulo 4 – serão abordados os métodos de resolução para as equações de

Lyapunov onde se usam os Subespaços de Krylov, bem como são analisados os

métodos de Ward e Kirrinnis para as equações matriciais de Lyapunov;

• Capítulo 5 – serão apresentadas algumas conclusões.

Page 15: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

3

1. Noções Preparatórias

1.1 Alguns conceitos básicos e matrizes especiais

Seja n,mM o espaço vectorial das matrizes de dimensão nm× sobre C (Corpo dos

Complexos), ou nM no caso particular de nm = . A notação ( )ℜn,mM será adoptada

no caso de se pretender trabalhar apenas com matrizes reais.

O conjunto de todas as matrizes de dimensão nm× sobre um corpo é um espaço

vectorial para a soma usual de matrizes e produto usual de um escalar (elemento do

corpo) por uma matriz. Este espaço tem dimensão mn, sendo o conjunto de matrizes

com um elemento igual a 1 e os restantes nulos a base natural.

Qualquer matriz n,mMA∈ determina uma transformação linear (ou homomorfismo de

espaços vectoriais) mn: CC →ϕ definida por ( ) xAx =ϕ , nx C∈ . A matriz A é a

representação matricial de ϕ em relação às bases canónicas de nC e m

C .

Inversamente, seja f uma aplicação linear entre dois espaços vectoriais E e F, de

dimensão finita, e definidas as bases de E e F então f tem uma única representação

matricial A que é determinada pelas imagens obtidas por f dos vectores da base de E.

O núcleo e a imagem de uma matriz n,mMA∈ são, respectivamente, subespaços

vectoriais de nC e m

C , cujas dimensões se relacionam através de

ndimAImdimAKerdim ==+ nC

(1.1)

Pode ser útil fragmentar uma matriz em submatrizes chamadas blocos. A titulo de

exemplo, o produto AB pode ser calculado com recurso à fragmentação de B por

colunas, ou seja, ( )nbA,...,bA,bAAB 21= , com ( )nb...,,b,bB 21= . Uma matriz dada

possa ser dividida em blocos de diferentes maneiras (por linhas, por colunas,

considerando submatrizes nulas, …).

O resultado de operações com matrizes por blocos pode ser obtido efectuando o cálculo

com os blocos como se fossem simplesmente elementos das matrizes, isto é, para

efectuar o produto AB podemos fragmentar A e B em blocos ijA e ijB (com o número

de linhas de kjB igual ao número de colunas de ikA , e ficando A com tantas colunas de

submatrizes quantas as linhas de submatrizes de B) e calcular a submatriz ijC do

produto (fragmentado) pela regra ∑=k

kjikij BAC .

Page 16: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

4

Exemplo 1.1.

0 2 0 0

1 0 0 0

0 0 1 0

0 0 4 1

0 0 2 3

1 1 0 0

0 2 1 2

− −

11 0 0

0 0

A

I

=

12

21

31 32

0

0

B

B

B B

11 12

21

0

0

A B

B

=

0 0 4 6

0 0 4 1

1 1 0 0

= − −

.

Dentro da família das matrizes quadradas há sub-famílias que possuem determinadas

propriedades que as tornam atractivas do ponto de vista do cálculo numérico. A título de

exemplo temos que, os valores próprios de uma matriz triangular são os seus elementos

principais e o produto de duas matrizes triangulares superiores (inferiores) é ainda uma

matriz triangular superior (inferior).

Definição 1.1. Uma matriz quadrada ( ) nji MaA ∈= diz-se

Normal se *AAAA =*

,

Unitária se n* IAAAA ==* ,

Ortogonal se nTT IAAAA ==

As matrizes unitárias e as matrizes complexas ortogonais são geralmente diferentes

(exemplo 1.2), embora matrizes unitárias e matrizes reais ortogonais são exactamente as

mesmas.

Exemplo 1.2. 2

2

iA

i

=

− é ortogonal, mas não é unitária porque *

2A A I≠ .

As matrizes unitárias desempenham, no cálculo numérico matricial, um papel muito

importante, devido às seguintes propriedades:

1. A inversa de uma matriz unitária é a transposta da sua conjugada;

2. O produto de duas matrizes unitárias é ainda uma matriz unitária;

3. As colunas (ou as linhas) de uma matriz unitária constituem um conjunto

de vectores ortonormados.

Definição 1.2. O polinómio ( ) ( )AIdetp nA −= λλ é denomina-se polinómio

característico da matriz A e as suas n raízes (os valores próprios), não necessariamente

distintas, constituem o espectro de A, cuja notação será ( )Aσ . Cada vector v, não nulo,

que satisfaça a equação vvA λ= é um vector próprio associado ao valor próprio λ .

Page 17: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

5

Exemplo 1.3.

1 1 0

0 1 0

1 0 1

A

=

tem um único valor próprio 1λ = (raiz tripla de

( ) ( )31Ap λ λ= − ). Os vectores próprios associados a λ são da forma 31 ee βα + , sendo

C∈βα, .

Definição 1.3. A multiplicidade algébrica de um valor próprio λ , representado

por ( )λam , é a multiplicidade de raiz de ( )λAp e ao número de vectores próprios

linearmente independentes que lhe estão associados denomina-se multiplicidade

geométrica de λ . Se esta última ( )λgm for inferior a ( )λam então λ diz-se

defeituoso e, consequentemente, A é uma matriz defeituosa.

A matriz do exemplo anterior é defeituosa porque ( ) 3=λam e ( ) 2=λgm . Qualquer

matriz diagonal é não defeituosa.

Definição 1.4. Duas matrizes quadradas A e B da mesma ordem dizem-se

semelhantes se existe uma matriz invertível P tal que BPAP =−1 .

A matriz P é designada por transformação de semelhança. Matrizes semelhantes têm os

mesmos valores próprios, no entanto o inverso pode não ser verdadeiro (exemplo 1.4).

Exemplo 1.4. 1 2

0 1

e 2I têm os mesmos valores próprios mas não são semelhantes.

Dada a simplicidade de cálculo de inversas de matrizes, é preferível usar as matrizes

com transformação ortogonais, recorrendo a transformações de semelhança.

Definição 1.5. Uma matriz de Householder é uma matriz da forma

*w ww

wIHH

2

2−== , com 0≠w . (1.2)

A matriz H define-se completamente pelo vector w e é, simultaneamente, unitária e

hermítica, sendo ainda uma classe de matrizes ortogonais bastante utilizada como

transformações de semelhança.

Page 18: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

6

Exemplo 1.5. A matriz de Householder determinada por

1

0

1

0

w

=

é

0 0 1 0

0 1 0 0

1 0 0 0

0 0 0 1

− −

.

As matrizes de Householder revelam-se importantes pelo facto de se poderem usar para

criar zeros num vector real, ou seja, se for seleccionada uma matriz adequada é possível

induzir num dado vector real a direcção pretendida.

Teorema 1.1. Para cada vector real não nulo 1ex ≠ , existe uma matriz de Householder

H tal que 1exH β= .

Demonstração:

Seja 1exw β−= , com −=β sinal ( ) xx1 . No caso de 1x , a primeira coordenada do

vector x, ser nula então o seu sinal pode ser escolhido positivo ou negativo.

Seja H a matriz de Householder determinada por w.

Tem-se, 2w ( )1exwT β−= 1ewxw TT β−= xwT= ( ) 11 eex TT ββ −− xwT=

21 ββ +− x .

Mas, =xwT ( ) =− xex TT1β 2

x =− 1xβ 12 xββ − . Logo 2

w xwT2= .

Resulta que

( )xwww

xxH T2

2−= ( )xww

xwx T

T2

2−= 1ewx β=−= . �

Utilizando matrizes de Householder é possível obter uma factorização QR de uma

matriz ( )ℜ∈ nMA , onde Q é ortogonal e R triangular superior.

De acordo com o algoritmo descrito por Datta em [17], na j-ésima etapa 121 −= n,...,,j

é suficiente construir uma matriz de Householder ( )ℜ∈ nj MH tal que a coluna j da

matriz jjj AAH =−1 seja nula abaixo da diagonal principal, deixando inalteradas as j-1

primeiras colunas de 1−jA . No fim das n-1 etapas de aplicação do algoritmo, obtém-se

uma matriz triangular superior 01211 AH...HHA nnn −−− = . Desta igualdade resulta que

AAQR == 0 , fazendo 1−= nAR e 121 H...HHQ nnT

−−= . O próximo exemplo

ilustra isto mesmo.

Page 19: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

7

Exemplo 1.6. Pretende-se obter a factorização QR da matriz

2 0 2

1 1 1

0 1 2

A

= −

,

recorrendo para tal a matrizes de Householder. Constrói-se 1H de forma a que 11aH

seja múltiplo de 1e . Para isso, é bastante definir 1H de acordo com a demonstração do

teorema 1.1. Assim 1H é a matriz de Householder determinada pelo vector

( ) ( )T,,eaw 0111 111 =−−= . Tem-se,

1

0 1 0

1 0 0

0 0 1

H A A

− = −

1

1 1 1

2 0 2

0 1 2

A

− − = − − =

.

De seguida define-se uma matriz de Householder 2H de forma obter um vector com

terceira coordenada nula, quando multiplicada pela segunda coluna de 1A . Para atingir

este objectivo, basta determinar ( )ℜ∈ 2MH~

tal que ( )23:21 ,AH~

seja múltiplo de 1e e

fazer 2

1 0

0H

H

=

ɶ. H~

é a matriz de Householder definida por ( )2 1

0 11

1 1w e

= − − =

.

Logo,

2 1 1

1 0 0

0 0 1

0 1 0

H A A

= − −

2

1 0 1

0 1 2

0 0 2

A

− = − − =

.

Esta última é a matriz triangular superior R da factorização QR de A. A matriz ortogonal

Q é 21HHQ =0 0 1

1 0 0

0 1 0

= − −

e tem-se AQR= .

Definição 1.6. Uma matriz quadrada nMA∈ é de Hessenberg superior se

0=jia para 1+> ji e diz-se ainda irredutível caso 01 ≠+ i,ia , 1≥i .

De modo análogo, uma matriz de Hessenberg inferior é a transposta de uma matriz de

Hessenberg superior. Uma matriz quadrada simultaneamente de Hessenberg superior e

inferior é denominada tridiagonal.

Podemos usar as matrizes de Householder para reduzir uma matriz real A à forma de

Hessenberg superior (ou para a tridiagonalizar se A for simétrica), aplicando uma

transformação de Householder a uma matriz ( )ℜ∈ nMA , transforma-a noutra

Page 20: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

8

semelhante de forma a que uma coluna de A será orientada na direcção de um vector

desejado.

Esta particularidade das matrizes de Householder está patente no exemplo seguinte.

Para o concretizar será usado o algoritmo:

Dada ( )0 nA M∈ ℜ , para 221 −= n,...,,k transforma-se a k-ésima coluna de 1−kA nou-

tro vector com as últimas 1−− kn coordenadas nulas, mantendo inalteradas as

primeiras 1k − colunas de 1−kA através de:

1. Iguala-se x à k-ésima coluna de 1−kA já alterada através da substituição das pri-

meiras k componentes para zero;

2. Calcula-se −=β sinal ( ) xxk 1+ , onde 1+kx é a coordenada k+1 de x

(se 01 =+kx pode ser escolhido um dos sinais + ou -);

3. Seja kH a matriz de Householder determinada pelo vector 1+−= kexw β ,

4. Define-se kkkk HAHA 1−= .

Ao fim das n-2 etapas obtemos a matriz na forma de Hessenberg superior

HAHA Tn 02 =− , sendo a transformação de semelhança (de Householder)

221 −= nH...HHH .

Exemplo 1.7. Seja

2 1 0 0

0 2 1 0

0 0 2 1

1 0 0 2

A

=

. Aplicando o algoritmo descrito tem-se 4ex = ,

1−=β e

0

1

0

1

w

=

. Então, ww HAHA =1

2 0 0 1

1 2 0 0

0 1 2 0

0 0 1 2

− − = −

, e é uma matriz que já

está na forma de Hessenberg. A matriz de Householder wH definida pelo vector w é

1 0 0 0

0 0 0 1

0 0 1 0

0 1 0 0

.

Segundo Datta [17] os produtos de uma matriz de Householder H por um vector ou por

outra matriz podem ser calculados sem que H seja completamente explicitada.

Page 21: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

9

A esparsidade de uma matriz é uma propriedade importante no cálculo numérico matri-

cial, existindo algoritmos específicos que exploram esta característica. Uma matriz

companheira possui um elevado grau de esparsidade.

Definição 1.7. Uma matriz companheira (superior) ou de Frobenius é uma

matriz de Hessenberg superior irredutível da forma

=

−1

2

1

0

10

0

1

001

000

nd

d

d

d

K

⋮⋱

⋮⋱

(1.3)

É possível determinar facilmente o polinómio característico de uma matriz

companheira, de facto

( ) 012

21

1 dd...ddp nn

nn

nK −−−−−= −

−−

− λλλλλ . (1.4)

De referir ainda que a matriz com primeira linha igual a ( )0121 dddd nn ⋯−− e

última coluna nula abaixo do elemento 0d , diferindo de K exclusivamente nos

elementos indicados, tem o polinómio característico definido igualmente por (1.4).

Definição 1.8. Uma matriz nMA∈ diz-se semidefinida positiva se

0≥xAx* , para cada nx C∈ . (1.5)

Se a desigualdade estrita for satisfeita para cada 0≠x então A diz-se ainda definida

positiva.

Exemplo 1.8. Sejam 1 1

1 1A

=

, 1 1

1 1B

= −

e 1 2

2

xx

x

= ∈ℜ

. A é semidefinida positiva

porque ( ) 0221 ≥+= xxxAxT , mas não é definida positiva 0=xAxT , com 12 xx −= .

Por outro lado, visto que 2xxBxT = então B é definida positiva.

Existem propriedades que podem facilitar a aferição de uma matriz no que respeita à

definição ou não de positividade da mesma, tais como:

• o determinante e os elementos principais de uma matriz definida positiva são

positivos;

• o elemento com maior valor absoluto de uma matriz definida positiva é

principal;

Page 22: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

10

• uma matriz hermítica é definida positiva se e só se os seus valores próprios são

todos positivos;

Por vezes, no estudo de equações com matrizes é conveniente considerar os elementos

de uma matriz ordenados de modo apropriado como vectores.

Para finalizar esta secção define-se a forma de organizar convenientemente os

elementos de uma matriz num vector.

Definição 1.9. A cada matriz ( )nc,,cC ⋯1= de dimensão nm× vamos associar

um vector coluna ( ) 1,mnMCvec ∈ definido por

( )Cvec

=

nc

c

c

2

1

. (1.6)

Exemplo 1.9. Se

2 0 3

5 1 2

1 7 4

C

= −

então ( ) ( )TCvec 4,2,3,7,1,0,1,5,2 −= .

Podem surgir dois casos particulares quando C é uma matriz com uma única linha ou

coluna:

• ( ) CCvec = se C é um vector (coluna);

• ( ) TCCvec = se C é uma matriz linha.

1.2 Decomposições matriciais

De modo geral, transformar uma matriz no produto de duas ou mais matrizes facilita a

resolução do problema inicial. Com a decomposição de uma matriz por transformações

de semelhança obtemos outras matrizes com as quais é mais fácil de operar e que são

semelhantes à inicial. Será apresentada uma breve revisão de três das várias factoriza-

ções de matrizes: a decomposição de Schur, a forma canónica de Jordan e a factorização

com uma matriz companheira.

Page 23: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

11

1.2.1 - Decomposição de Schur1

Das diversas formas de factorizar uma matriz, a decomposição de Schur é uma das mais

úteis no cálculo numérico visto que, qualquer matriz nMA∈ , incluindo as matrizes

defeituosas, pode ser factorizada desta forma [78], podendo ser obtida usando matrizes

de transformação de semelhança bem condicionadas, como o são as matrizes ortogonais

(ou unitárias). Por esta razão, na prática a decomposição de Schur é frequentemente

utilizada [20, 30, 78].

Teorema 1.2. (Decomposição de Schur)

Sejam n...,,, λλλ 21 , os valores próprios da matriz nMA∈ . Existe uma matriz unitária

nMU ∈ tal que TUAU * = é uma matriz triangular superior. Como A e T são matrizes

semelhantes os valores próprios de A dispõem-se ao longo da diagonal principal de T,

isto é,

UAU *

1

2

3

0

n

λλ

λ

λ

× × × × × = ×

⋱ ⋮

T= (1.7)

Demonstração:

Provemos o teorema usando a indução matemática na ordem n de A.

O teorema é trivialmente verdadeiro para 1=n , usando 1IU = .

Suponhamos agora que o resultado é válido para qualquer matriz de ordem menor do

que n e mostremos que também é válido para matrizes de ordem n.

Seja u um vector próprio de nMA∈ associado ao valor próprio λ , uuA λ= , 0≠u .

Suponhamos que u é um vector unitário, caso contrário normaliza-se o vector dividindo

pela sua norma. É sempre possível seleccionar uma matriz V de dimensão ( )1−× nn tal

que ( )VuU =1 ( )11 −= nv,,v,u ⋯ seja matriz unitária. Neste sentido escolhemos 1−n

vectores da base canónica de nC que, conjuntamente com u, formem um conjunto de

vectores linearmente independentes.

De seguida utiliza-se o processo de Gram-Schmidt para os ortonormalizar. As colunas

de V são constituídas por estes últimos 1−n vectores.

1 Friedrich Heinrich Schur (1856-01-27 a 1932-03-18) – Matemático Alemão, nascido em Krotoszyn, Polónia

Page 24: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

12

Visto que ( )VuAUA =1 ( )VAuA= ( )VAuλ= então

11 UAU * [ ]*

*

uu AV

=

* *

* *

u u u AV

V u V AV

λλ

=

. (1.8)

Atendendo a que as colunas de 1U formam um conjunto de vectores ortonormados tem-

se

uu*λ ( ) λλ == uu* e uV * λ ( )uV *λ=

*1

*1n

v

u

v

λ

=

*1

*1

0

0n

v u

v u

λ

= =

⋮ ⋮ .

Assim, de (1.8) resulta

11 UAU * 0

0

B

λ × × =

*

0

u AV

B

λ =

, (1.9)

onde VAVB *= 1−∈ nM . Exceptuando λ , os valores próprios de A e B são iguais.

Assim, por hipótese de indução existe uma matriz unitária 1V tal que 111 TVBV * = é

uma matriz triangular superior.

Seja 11

1 0

0U U

V

=

. Como

1

1 0

0 V

é uma matriz unitária porque 1V o é, então U,

produto de duas matrizes unitárias, é unitária. Tem-se ainda que

UAU *

*

1 11 1

1 0 1 0

0 0U AU

V V

=

*

*1 1

1 1

1 0 1 0

0 0U AU

V V

=

. (1.10)

e atendendo a (1.9) obtemos

*

*

1

1 0

0U AU

V

=

*

0

u AV

B

λ 1

1 0

0 V

*1

1 0

0 V

=

*1

10

u AVV

BV

λ

*1

*1 10

u AVV

V BV

λ =

.

(1.11)

Mas 11 VBV * é a matriz triangular superior 1T , assim UAU **

1

10

u AVVT

T

λ = =

é

uma matriz triangular superior. �

Page 25: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

13

Deste teorema resulta que qualquer matriz quadrada é unitariamente semelhante a uma

matriz triangular. Além disso, se ( )ℜ∈ nMA e todos os seus valores próprios são reais

então os correspondentes vectores próprios podem ser escolhidos reais. Neste caso a

matriz U do teorema é real e ortogonal, conforme se constata no próximo exemplo.

Exemplo 1.10. Para a matriz

1 1 0

0 1 1

1 0 2

A

− − = −

que tem valores próprios

1674

745− ,

929

1674− e

745

929− , as matrizes unitária U e triangular superior T referidas no

teorema são (por exemplo):

864 238 514

3761 249 2803273 629 849

953 2552 917719 439 645

773 2741 1952

U

− − = − − − −

e

1674 1197 441

745 1537 803929 1873

01674 1295

7450 0

929

T

− − = − −

.

Este teorema permanece válido se a matriz T for considerada triangular inferior e

embora apenas demonstrado para o caso de ser triangular superior, apenas se torna

necessário uma redefinição da matriz unitária 1U : o vector próprio u constituiria a

última coluna de 1U , em vez da primeira.

Exemplo 1.11. Relativamente ao exemplo anterior, uma possível decomposição

da matriz A usando uma matriz T triangular inferior é

514 238 864

2803 249 3761849 629 273

917 2552 953645 439 719

1952 2741 773

A

− − = − − − −

7450 0

9291873 929

01295 1674

441 1197 1674

803 1537 745

− − − −

514 238 864

2803 249 3761849 629 273

917 2552 953645 439 719

1952 2741 773

T − − − − − −

.

Page 26: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

14

A factorização de Schur de uma matriz, usando uma matriz T triangular superior (ou

inferior) não é única. As colunas da matriz unitária U, conhecidas pela designação de

vectores de Schur, podem ser escolhidas de modo a que os valores próprios de A se

disponham, numa ordem predefinida, ao longo da diagonal principal de T.

Na demonstração do teorema de Schur seleccionámos para a primeira coluna da matriz

de transformação U um vector próprio associado a 1λ . Este primeiro vector de Schur é

sempre um vector próprio associado a algum ( )Aσλ∈ mas, como veremos a seguir, os

restantes vectores de Schur nem sempre o são, dependendo dos elementos não diagonais

da matriz T.

Consideremos agora uma decomposição de Schur TUAU* = da matriz nMA∈ .

Multiplicando-a à esquerda por ( )nu,...,u,uU 21= , resulta TUUA = e comparando as

colunas j de ambos os membros da última igualdade obtemos

∑−

=

+=1

1

j

iijijjj utuuA λ , n,...,j 1= . (1.12)

Conclui-se assim que o vector de Schur ju é também vector próprio associado ao valor

próprio jλ de A se a j-ésima coluna da matriz T for jj eλ .

Retomando o exemplo 1.10. podemos afirmar que as duas primeiras colunas de U são

vectores próprios associados a 11 =λ e 32 =λ , mas 3u não é um vector próprio

correspondente a 13 −=λ . De facto o vector de Schur 3u foi obtido por ortonormali-

zação de Gram-Schmidt do conjunto de vectores ( ){ }T,,,u,u 12121 − , sendo este último

um vector próprio associado a 13 −=λ .

Com base no teorema de Schur é possível deduzir conclusões de suma importância para

matrizes hermíticas. Apresentam-se de seguida algumas particularidades desta família

de matrizes.

Corolário 1.1. Qualquer matriz hermítica A é diagonalizável por intermédio de

transformações unitárias, isto é, existe uma matriz unitária U tal que UAU * é uma

matriz diagonal.

Os valores próprios de A são reais e os vectores próprios podem ser escolhidos

ortonormados.

Page 27: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

15

Demonstração:

Considere-se A uma matriz hermítica, AA* = .

Pelo teorema de Schur existe U ( )nu...,,u,u 21= unitária tal que TUAU * = é uma

matriz triangular. E

( )*** UAUT = == UAU ** TUAU * = ,

o que mostra que T é hermítica. Mas uma matriz triangular e hermítica é diagonal.

Os valores próprios de A dispõem-se ao longo da diagonal principal de T, visto A e T

serem matrizes semelhantes. Mas como os elementos principais de uma matriz

hermítica têm que ser reais, os valores próprios de A são números reais.

Falta provar que os vectores próprios de A podem ser escolhidos ortonormados. Sendo T

uma matriz diagonal, e atendendo ao dito anteriormente, podemos concluir que cada iu

é um vector próprio associado ao valor próprio ( )Ai σλ ∈ , n,...,i 1= . Como U é uma

matriz unitária as suas colunas são vectores ortonormados. �

Seja ( )ℜ∈ nMA então se AA* = então é simétrica, logo os valores próprios de uma

matriz real simétrica são também reais. Podemos seleccionar vectores próprios

correspondentes também reais, logo a matriz U referida no corolário, sendo ortogonal, é

ainda real.

Por outro lado que, se A não é simétrica, e dado que ( )λAp tem coeficientes reais,

então pode ter valores próprios complexos que ocorrem aos pares de valores

conjugados. Logo, na decomposição de Schur de uma matriz real as matrizes U e T

podemos ter elementos complexos. No entanto é possível obter uma factorização real de

uma matriz ( )ℜ∈ nMA com valores próprios complexos à custa de uma matriz

ortogonal e outra quase triangular ou (na forma) de Hessenberg, a qual é conhecida por

forma real de Schur de A.

Page 28: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

16

Teorema 1.3. (Decomposição real de Schur)

Se ( )ℜ∈ nMA , então existe uma matriz ortogonal ( )ℜ∈ nMQ tal que

TQAQT =

11 12 1

22 20

0 0

k

k

kk

T T T

T T

T

=

⋮ ⋮ ⋱ ⋮

, nk ≤≤1 ,. (1.13)

onde T é uma matriz triangular por blocos e cada iiT ou é um valor próprio real de A ou

é uma matriz de dimensão 22 × com um par de valores próprios complexos de A.

Demonstração:

Prove-se o teorema usando a indução matemática no número q de pares de valores

próprios complexos da matriz A.

Para 0=q , o teorema é verdadeiro uma vez que neste caso podemos seleccionar uma

matriz de transformação U real e ortogonal para a decomposição de Schur de A.

Admitamos válido o teorema para qualquer matriz real de ordem n, com menos de q

pares de valores próprios complexos e provemos que também é válido para uma matriz

( )ℜ∈ nMA com q pares de valores próprios complexos.

Seja βαλ i+= ( )Aσ∈ , com 0≠β . Visto que os vectores próprios associados a λ não

podem ser reais então existem ny,x ℜ∈ , com 0≠y , tais que ( ) ( )iyxiyxA +=+ λ .

Daqui resulta que

yxxA βα −= , xyyA βα += . (1.14)

e iyxu −= é um vector próprio associado a λ ( )Aσ∈ .

Assim, { }y,x geram um subespaço real de dimensão dois que, atendendo a (1.14), é

invariante para A. A independência linear dos vectores x e y pode ser deduzida a partir

das igualdades (1.14).

Se xy κ= , com 0≠κ , então

( ) yAx =+βκα ( ) == xA κ ( )xxA 2κβκακ −=

resultando 12 −=κ , impossível em ℜ . Através do método de Gram-Schmidt para

ortonormalizar os vectores x e y, obtemos { }y~,x~ .

É sempre possível construir-se uma matriz ortogonal ( )ℜ∈ nMQ1 cujas duas primeiras

colunas sejam os vectores x~ e y~ , respectivamente. Então, atendendo a que o

Page 29: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

17

subespaço de nℜ gerado por { }y~,x~ também é invariante para A provar-se (de forma

análoga à que usada na demonstração do teorema de Schur) que

11 QAQT 11 12

0

T T

B

=

, com ( ) { }λλσ ,T =11 .

Existe ( )ℜ∈ − 2nMQ~ ortogonal, por hipótese, tal que Q

~BQ

~T é uma matriz triangular

por blocos. Definindo 21

0

0

IQ Q

Q

=

ɶ asseguramos que QAQT é triangular por blocos.

Podemos sempre reordenar e colocar de acordo com uma ordem pré-definida, os blocos

diagonais da matriz T, correspondentes a cada valor próprio real ou a cada par de

valores próprios complexos de A.

Exemplo 1.12. Para a matriz

0 0 2

1 0 1

0 1 2

A

= −

que tem valores próprios –i, i e 2,

as matrizes unitária U e triangular superior T referidas no teorema 1.3 são (por

exemplo):

1 0.5 2

2 7.5 152 1 2

07.5 15

1 0.5 2

2 7.5 15

i i

i iU

i i

− − +

− + − + =

+ − −

; ( )

5 9 22

15 30

2 4.5 60

150 0

i i

iT i

i

− − − −

= −

.

Vamos agora usar a estratégia sugerida na demonstração do teorema 1.5,

baseada no conhecimento dos valores e vectores próprios de A, para obter uma

factorização real desta matriz. Aos valores próprios 2 e i estão associados,

respectivamente, os vectores próprios ( )T,,v 101= e yixu += , com ( )T,,x 120−= e

( )T,,y 012−= . Ortonormalizando o conjunto { }v,y,x através do processo de Gram-

Schmidt obtemos { }321 q,q,q , que definem as colunas da matriz de transformação

10 10

105 212 1 2

5 105 211 2 4

5 105 21

Q

− −

=

.

Page 30: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

18

Assim,

=QAQT

2 29 16

5 5 21 105

21 2 3

5 5 50 0 2

− − −

11 12

0 2

T T =

é uma forma real de Schur de A, onde ( ) { }i,iT −=11σ .

Na prática recorre-se ao método iterativo QR para obter a forma real de Schur de uma

matriz A, depois de se reduzir a matriz dada à forma de Hessenberg por transformação

de semelhança ortogonal.

Este é um processo iterativo baseado em repetidas factorizações QR de matrizes

ortogonais semelhantes a A, onde na k-ésima etapa de aplicação do método, determina-

se a factorização QR da matriz 1−kA : 111 −−− = kkk RQA , e define-se a “nova” matriz a

factorizar 11 −−= kkk QRA .

Sob certas condições a sucessão de matrizes 0A (matriz na forma de Hessenberg), 1A ,

2A , …, converge para uma matriz quase-triangular ou triangular, que é uma forma real

de Schur de A. Estudos detalhados sobre a convergência, a aplicação e formas de

melhorar a eficiência do método QR podem ser encontradas em [17, 30].

O resultado apresentado de seguida, e que será utilizado na demonstração da forma

canónica de Jordan não é mais que uma extensão do teorema de Schur que nos mostra

que qualquer matriz quadrada é sempre semelhante a uma matriz diagonal por blocos

[42].

Teorema 1.4. Se nMA∈ tem valores próprios distintos iλ com multiplicidade in ,

k,...,i 1= , então A é semelhante a uma matriz diagonal por blocos

11

22

0

0 kk

T

T

T

⋱, nk ≤≤1 ,

onde inii MT ∈ é triangular superior com todos os elementos diagonais iguais a iλ .

Page 31: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

19

Demonstração:

O teorema de Schur garante a existência de U tal que TUAU * = é triangular superior.

Considere-se que os n valores próprios iλ de A aparecem na diagonal principal da

matriz T ordenados segundo o índice, de 1 a k.

Construa-se uma sequência de transformações de semelhança s,rP ( sr < ) de forma a

anular os elementos desejados de T sem alterar a estrutura triangular desta matriz nem a

sua diagonal principal.

Para tal defina-se s,rns,r EIP α+= , onde { }0\C∈α e s,rE é a matriz que difere da

matriz nula na posição (r,s), onde tem o elemento 1.

Se sr ≠ , s,rns,r EIP α−=−1 para cada escalar α .

Assim, a matriz s,rs,r PTPT~ 1−= , para sr < , difere de T apenas nos elementos das

posições (1,s), (2,s), …, (r,s), (r,s+1), (r,s+2), …, (r,n).

Obtemos assim

irisis ttt~ α+= , 11 −= r,...,i ,

( )ssrrrsrs tttt~ −+= α e sjrjrj ttt~ α−= , n,...,sj 1+= .

Se ssrr tt ≠ , o elemento da posição (r,s) da matriz T pode ser transformado em zero sem

se alterar a estrutura relevante da matriz, escolhendo ( )ssrrrs tt/t −−=α .

Anulando sequencialmente os elementos das posições (n-1,n),

(n-2,n-1), (n-2,n),

(n-3,n-2), (n-3,n-1), (n-3,n),

…,

(1,2), (1,3), …, (1,n)

da matriz T, através de transformações de semelhança s,rP .

Quando ssrr tt ≠ , os zeros criados até uma determinada etapa não são alterados com as

posteriores transformações e a matriz resultante, semelhante a A, e que tem a forma

pretendida.�

No caso em que os valores próprios de ( )ℜ∈ nMA são todos reais, a matriz de

semelhança, que permite transformar A para uma matriz diagonal por blocos, pode ser

escolhida real.

Page 32: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

20

1.2.2. Decomposição de Jordan2

Já anteriormente vimos que uma matriz quadrada hermítica (simétrica se for real), ou

uma matriz com valores próprios distintos, é semelhante a uma matriz diagonal. No

entanto nem todas as matrizes complexas são semelhantes a matrizes diagonais. A

matriz triangular superior, mais próxima de uma matriz diagonal, em que podemos

transformar por semelhança qualquer matriz é a forma canónica de Jordan. Esta

decomposição é classificada de função descontínua da

matriz A por Demmel [20] e Golub [30], em oposição à factorização de Schur,

argumentando que pequenas perturbações numa matriz defeituosa podem alterar

completamente a sua forma de Jordan.

Definição 1.10. Um bloco de Jordan é uma matriz quadrada da forma

( )

1 0

1

0

rJ

λλ

λ

λ

=

⋱rM∈ , C∈λ . (1.15)

Esta matriz tem um único valor próprio λ com multiplicidade algébrica igual à sua

ordem.

Para a demonstração da existência de uma decomposição de Jordan de qualquer matriz

quadrada complexa apresenta-se o seguinte teorema que virá a ser de extrema utilidade.

Teorema 1.5. Dada nMA∈ estritamente triangular superior existem uma matriz inver-

tível S e números naturais mn,...,n,n 21 com 121 ≥≥≥≥ mn...nn e nnm

i i =∑ =1 tais

que

=− SAS 1

( )( )

( )

1

2

0 0

0

0 0m

n

n

n

J

J

J

⋱. (1.16)

Demonstração:

Mais uma vez será utilizada a indução matemática em n para a demonstração do

presente teorema.

Para 1=n , 0=A e o resultado é trivial.

2 Marie Ennemond Camille Jordan (1838-01-05 a 1922-01-22) – Matemático Francês, nascido em Lyon, França

Page 33: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

21

Suponhamos agora que o teorema é válido para qualquer matriz nas condições do

teorema com ordem inferior que n.

Considere-se a matriz nMA∈ estritamente triangular superior, fragmentada em blocos

0

0

TaA

B

=

, com ( )nT a...aaa 11312= .

Então por hipótese de indução, existe 1−∈ nMS~ invertível tal que

S~

BS~ 1−

( )( )

( )

1

2

0 0

0

0 0p

k

k

k

J

J

J

=

( )1

0 0

0

kJ

J

=

,

com 121 ≥≥≥≥ pk...kk , 11

−=∑ =nk

p

i i e 11 knMJ −−∈ .

Daqui resulta que

1

1 0

0 S−

ɶ

A1 0

0 S

ɶ 1

0

0

Ta S

S B S−

=

ɶ

ɶ ɶ( )

1

1 20

0 0 0

0 0

T T

k

a a

J

J

=

1A= ,

onde ( ) 1121 −∈= n,TTT MaaS

~a .

Procederemos agora à anulação dos elementos de Ta1 , recorrendo para isso à matriz de

semelhança

( )( )1

1

1

1

1

1 0 0

0 0

0 0

TT

k

k

n k

a J

I

I − −

=

Z , (1.17)

de modo a que permaneçam inalterados os restantes elementos da matriz 1A .

Assim,

ZZ 11A− ( )

1

1 2

2

0

0 0 0

0 0

T T

k

e a

J A

J

β

= =

, onde 11 eaT=β .

Page 34: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

22

Podemos ter duas possibilidades:

1. A primeira coordenada de Ta1 é não nula ( 0≠β ).

Neste caso transformamos Te1β num vector normalizado à custa de

1

11

0 0

0 0

0 0

k

n k

I

I

β

β − −

=

N , obtendo-se ( )1

1 2

3

0

0 0 0

0 0

T T

k

e a

A J

J

=

.

Definindo ( )

1

1

11 1 2

10

T ik i

i

n k

I e a J

I

−+ +

− −

− =

R , i=1,2,…, tem-se ( )

1

1

11 1 21

10

T ik i

i

n k

I e a J

I

−+ +−

− −

=

R e

1−iR

( ) ( )1

11 20

0

T ik iJ e a J

J

−+

iR( ) ( )

1 1 1 20

0

T ik iJ e a J

J

+ +

=

.

Como ( )

1 1 1 23

0

0

TkJ e a

AJ

+ =

, aplicando-lhe sucessivamente as transformações de

semelhança iR , com 1k passos no máximo obtém-se que 3A é semelhante à matriz

( )1 1 0 0

0

kJ

J

+

a qual tem a forma desejada.

2. Se 0=β .

Assim 2A é semelhante por permutação à matriz

( )1

2

0 0 0

0 0

0 0

k

T

J

a

J

. Mas por

hipótese de indução existe 1knMS

~~−∈ invertível tal que 1 20

0

TaS S J

J−

=

ɶ ɶɶ ɶ ɶ .

Daqui resulta que 2A é semelhante a ( )

10 0

0

kJ

J

ɶ

, podendo ser necessário

reordenar os blocos de Jordan para que esta última matriz tenha a forma pretendida.

De notar que se ( )ℜ∈ nMA tiver a estrutura requerida no teorema então todas as

matrizes de semelhança usadas na demonstração podem ser seleccionadas reais.

Page 35: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

23

Exemplo 1.13. Seja 0

0 0

xA

=

, 0≠x . A matriz

0

0 1

xS

=

é regular com

inversa 1 1 0

0 1

xS−

=

e =− SAS 1 ( )02J .

Tendo este resultado válido poder-se-á agora enunciar e demonstrar o teorema de

Jordan.

Teorema 1.6. (Forma canónica ou decomposição de Jordan)

Para cada mMA∈ existe uma matriz invertível P tal que

=− PAP 1

( )( )

( )

1

2

1

2

0

0p

m

m

m p

J

J

J

λ

λ

λ

⋱, (1.18)

onde mp ≤ , mm...mm p =+++ 21 e ( )11λmJ , ( )22

λmJ , ..., ( )pmpJ λ são os blocos

de Jordan da matriz A que têm os valores próprios desta na diagonal principal.

Demonstração:

Pelo teorema de Schur, temos que qualquer matriz mMA∈ é semelhante a uma matriz

triangular superior T que tem os valores próprios daquela na sua diagonal principal

dispostos numa ordenação predefinida. Seja U a matriz de semelhança.

O teorema 1.6. garante-nos a transformação por semelhança da matriz T, denominemo-

la por V, numa matriz diagonal por blocos D, onde cada bloco diagonal iiD , com

mk,...,,i ≤= 21 , é triangular superior com os elementos diagonais todos iguais

(analogia com um bloco de Jordan).

Seja λ o único valor próprio do bloco iiD . Então a matriz IDA iii λ−= é estritamente

triangular superior. Logo, pelo teorema anterior, é possível determinar uma matriz

invertível iS tal que

=−iii SAS 1

( )

( )

10 0

0 0m

i

i

J

J

⋱ .

Page 36: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

24

Assim,

=+= −− ISASSDS iiiiiii λ11( )

( )

10

0m

i

i

J

J

λ

λ

⋱ .

Definindo 1 0

0 k

S

P UV

S

=

⋱ assegura-se que PAP 1− é uma forma canónica de

Jordan da matriz A. �

De notar que no teorema anterior os valores próprios p,,, λλλ ⋯21 da matriz A não são

necessariamente distintos (veja-se o exemplo 1.16), bem como as ordens dos blocos de

Jordan. Por outro lado, temos que o número de blocos de Jordan correspondentes a um

( )Ai σλ ∈ é a multiplicidade geométrica desse valor próprio, e ainda que a

multiplicidade algébrica de iλ é igual à soma das ordens de todos os blocos de Jordan

que lhe estão associados.

No próximo exemplo ilustra-se o facto da redução à forma canónica de Jordan de uma

matriz ( )ℜ∈ nMA que tem apenas valores próprios reais, pode ser obtida à custa de

matrizes de semelhança também reais.

Exemplo 1.14. Uma decomposição de Jordan da matriz

1 1 3

0 1 1

0 0 2

A

− − = −

é

obtida à custa das matrizes

1 101

2 31

1 03

0 1 0

P

− − = −

e

1 0 0

0 2 0

0 0 1

J

= − −

. De facto,

=− PAP 1

10 1

30 0 1

1 71

2 2

AP

10 1

30 0 2

1 71

2 2

P

= − − − −

1 0 0

0 2 0

0 0 1

J

= − = −

.

Em analogia ao que se passa na factorização de Schur, a decomposição de Jordan de

uma matriz também não é única, no entanto o número e a ordem dos blocos de Jordan

Page 37: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

25

associados a cada valor próprio é fixo para cada matriz, o que varia é a ordenação dos

referidos blocos na diagonal da matriz do segundo membro de (1.18).

A estrutura por blocos da forma de Jordan de uma dada matriz A (mas não a matriz de

transformação de semelhança) é determinada pelos seus valores próprios e pelas

características das matrizes ( )ki IA λ− , com e k=1,…,m [42]. A titulo de exemplo, o

menor inteiro k para o qual ( ) ( ) 1+−=− ki

ki IAcarIAcar λλ é a ordem do bloco com

maior dimensão correspondente ao valor próprio iλ . Pretendendo obter uma

decomposição de Jordan de A usa-se o algoritmo fornecido pela demonstração do

teorema de Jordan, o qual será aplicado para a construção da matriz de semelhança que

por sua vez permite a obtenção de uma forma canónica de Jordan de uma matriz

triangular superior de ordem 6, no seguinte exemplo.

Exemplo 1.15. Seja

1 2 3 0 0 0

0 1 0 4 0 0

0 0 1 0 5 0

0 0 0 1 6 7

0 0 0 0 1 0

0 0 0 0 0 1

A

=

. Principiemos por transformá-la

numa matriz diagonal por blocos: Anula-se o elemento da posição (4,6) através de

6461 ,EIP α+= , com ( )664446 aa/a −−=α 27−= . Os restantes elementos que

sofrem alteração são definidos por 46 ii aa α+ , 321 ,,i = . Assim, a última coluna de

111

1 APAP =− é ( )T,,,,, 1000140 −− . A matriz 6262 7 ,EIP += permite agora anular o

elemento da posição (2,6) de 1A . Tem-se que a última coluna de 211

22 PAPA −= é

( )T,,,,, 1000014 − . Para finalizar esta primeira etapa, usa-se a transformação

6163 7 ,EIP −= . Então, definindo 321 PPPV = , tem-se

=− VAV 1 11 121

0 1

A AV V−

= −

11 0

0 1

A −

.

Vamos agora transformar a matriz estritamente triangular superior

5110 1IAB −= para a forma (1.16): Inicia-se esta etapa com a submatriz ( )5:45:40 ,B ,

Page 38: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

26

normalizando o seu elemento 6 à custa de 6 0

0 1

=

1N . Definindo 3

11

0

0

IT

= N

, a

partir de 0B obtém-se

101

11 TBTB −=

0 2 3 0 0

0 0 24 0

0 0 5

0 0 1

0

=

.

Continua-se com ( )5:35:31 ,B . É necessário anular o elemento 5. De acordo com (1.19)

a matriz de semelhança é 2

1 5 0

0 I

=

1Z . Como neste caso se tem 0=β é necessário

reordenar por permutação ( )1321 eeeS = os blocos de Jordan. Assim, com

22

1 1

0

0

IT

S

= Z

resulta que

211

22 TBTB −=

0 2 15 0 3

0 24 0 0

0 1 0

0 0 0

0

=

.

Passemos de seguida à normalização do elemento 24 da submatriz ( )5:25:22 ,B . A

matriz de semelhança 2N difere da matriz identidade porque tem na posição (1,1) o 24.

Então, usando 13

2

0

0

IT

= N

, a matriz 2B é transformada em

3B ( )( )

1

3

1

0 3

0 0 0

0 0 0

Ta

J

J

=

, onde ( )015481 =Ta .

Agora é necessário anular o 15 à custa de 3

1

1 15 0 0 0

0 0

0 0

I

I

=

2Z e posteriormente

normalizar o 48 através de 3

48 0 0

0 0

0 0 48

I

=

3N . Daqui resulta 4B

( )( )

4 1

1

0 3

0 0

J e

J

=

Page 39: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

27

sendo 324 NZ=T . Para concluir esta segunda etapa falta anular o vector 13e que, de

acordo com o caso 1 da demonstração do teorema 1.5, é conseguido com a

transformação 4 2

1

3

0

I e

I

− =

R . Logo, para 1 2 3 4S T T T T= R tem-se

SAS 111− ISBS 10

1 += − ( )( )

4

1

0 0

0 0

JI

J

= +

( )( )

4

1

1 0

0 1

J

J

=

.

Em conclusão, definindo 1

0

0

SP V

I

=

assegura-se que PAP 1−

( )( )

( )

4

1

1

1 0

1

0 1

J

J

J

= −

é uma forma canónica de Jordan da matriz A.

Sejam m,,, λλλ ⋯21 os m valores próprios reais, não necessariamente distintos, de uma

matriz hermítica mMA∈ . Pelo corolário 1.4, existe uma matriz unitária U tal que

UAU ∗ 1 0

0 m

λ

λ

=

⋱ .

Como ∗− =UU 1 , fazendo UP = concluímos que uma factorização de Schur de uma

matriz hermítica é igualmente uma decomposição de Jordan da mesma matriz.

No entanto a implicação inversa pode ser falsa se a matriz invertível P da fórmula

(1.18) não for unitária.

Exemplo 1.18. A forma canónica de Jordan

1 0 0

0 2 0

0 0 4

J

=

da matriz

2 1 0

1 3 1

0 1 2

A

=

é obtida recorrendo à matriz

1 3 1 2 1 6

1 3 0 1 3

1 3 1 2 1 3

P

= − −

que não é

ortogonal.

1.2.3 - Factorização com uma matriz companheira

A factorização de uma matriz através da matriz companheira é uma decomposição não

unitária que é “análoga” à decomposição de Hessenberg, assim como a factorização de

Page 40: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

28

Schur tem uma decomposição “análoga” não unitária na factorização de Jordan (Golub

[30]).

O teorema seguinte diz-nos como construir a matriz de transformação de semelhança de

modo a reduzir uma matriz à forma de matriz companheira.

Teorema 1.7. Sejam mMA∈ e 1,mMv∈ um vector não nulo. Se a matriz (de Krylov)

( )vA,,vA,vA,vPP mA,v

12 −== ⋯ for regular então PAP 1− é uma matriz companheira.

Demonstração:

Seja mMA∈ , suponhamos que ( )vA,,vA,vA,vP m 12 −= ⋯ é uma matriz regular para

um dado vector não nulo v. Então o sistema de equações lineares

vAdP m−= (1.19)

é possível com solução única ( )Tmd,,d,dd 110 −= ⋯ . Provemos que KPPA = sendo a

matriz companheira K definida da seguinte forma

0

1

2

1

0 0 0

1 0 0

1

0

0 1 m

d

d

K d

d −

− − = − −

⋱ ⋮

⋱ ⋮

(1.20)

Se por um lado temos ( )vA,,vA,vA,vAPA m 12 −= ⋯ ( )vA,,vA,vA,vA m⋯32= , por

outro, e como jeP é igual à j-ésima coluna da matriz P temos que

( ) ( )dP,eP,,eP,ePd,e,,e,ePKP mm −=−= ⋯⋯ 3232 ( )dP,vA,,vA,vA m −= −12 ⋯ .

Visto que d é o vector solução do sistema (1.21) obtemos

( )vA,vA,,vA,vAKP mm 12 −= ⋯ .

Ou seja, KPAPKPPA =⇔= −1 . �

Exemplo 1.16. Uma decomposição de

1 1 3

0 1 1

0 0 2

A

− − = −

à custa de uma matriz

companheira é, por exemplo,

8 5 62

8 15 1

7 14 28

− −

0 0 2

1 0 1

0 1 2

18 5 62

8 15 1

7 14 28

−−

.

Page 41: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

29

É importante referir que nem todas as matrizes quadradas são semelhantes a uma matriz

companheira. Golub demonstra em [30] que a multiplicidade geométrica de cada valor

próprio de uma matriz de Hessenberg superior nMH ∈ , com os elementos da

subdiagonal não nulos (isto é, 01 ≠−i,ih para cada i), é igual a um. Podemos concluir

daqui que uma matriz quadrada só é semelhante a uma matriz companheira do seu

polinómio característico se a multiplicidade geométrica de cada um dos seus valores

próprios for igual a um. Contudo, o teorema seguinte estabelece que toda a matriz

quadrada é semelhante a uma matriz diagonal por blocos sendo os blocos diagonais

matrizes companheiras.

Teorema 1.9. Para cada matriz mMA∈ existe uma matriz invertível V tal que

=− VAV 1

1

2

0

0 p

K

K

K

⋱, (1.21)

onde mp ≤ , mm...mm p =+++ 21 e iK , p,,i ⋯1= , é uma matriz companheira a qual

corresponde ao bloco de Jordan ( )imiJ λ da matriz A.

Demonstração:

Pelo teorema que estabelece a forma canónica de Jordan, dada mMA∈ existe uma

matriz invertível P tal que

=− PAP 1

( )

( )

1 1 0

0p

m

m p

J

J

λ

λ

⋱ .

Note-se que, para cada bloco de Jordan ( )imiJ λ , com p,,i ⋯1= , existe um vector não

nulo 1,miMv ∈ tal que a matriz

( ) ( )( ) ( )( )( )vJ,,vJ,vJ,vQ iiii

mimimimi

12 −= λλλ ⋯ . (1.22)

é não singular (Zhang [83]). Assim, pelo teorema anterior, temos que ( ) iimi QJQiλ1− é

uma matriz companheira que designaremos por iK .

Page 42: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

30

A matriz quadrada fraccionada por blocos =Q

1

2

0

0 p

Q

Q

Q

⋱, é regular com inversa

11

1

1

0

0 p

Q

Q

Q

=

⋱ . Logo,

1−Q

( )( )

( )

1

2

1

2

0

0p

m

m

m p

J

J

J

λ

λ

λ

⋱Q

1

2

0

0 p

K

K

K

=

⋱.

Assim, fazendo QPV = , obtemos o pretendido. �

Exemplo 1.17. Seja ( )( )

2

1

2 0

0 2

JA

J

=

. Como ( )( )2

1 3, 2

1 2P v J v

= =

é

invertível então ( )12

0 42

1 4P J P− −

=

K= é uma matriz companheira e 0

0 1

P

0

0 2

K

10

0 1

P−

é uma factorização de A do tipo (1.21).

1.3 Critérios de Solubilidade da Equação de Lyapunov3

Uma equação matricial é uma equação envolvendo várias matrizes, havendo pelo menos

uma desconhecida. Nesta secção iremos observar as diversas formas de representação

das equações de Lyapunov, comparando-as.

1.3.1 Teoremas de Existência e Unicidade

Seja nA M∈ , e seja ( )Aσ ⊂ ℂ o conjunto de valores próprios de A.

Teorema 1.10 A equação continua de Lyapunov 0* =++ QAXXA tem uma

única solução X para qualquer termo não homogéneo Q se e só se

0λ µ+ ≠ . (1.23)

para qualquer ( ), Aλ µ σ∈ .

3 Aleksandr Mikhailovich Lyapunov (1857-06-06 a 1918-11-03) – Matemático Russo, nascido em Yaroslavl, Russia. Aluno de Pafnuty Lvovich Chebyshev e Professor de Aleksandr Nikolaevich Korkin e Yegor Ivanovich Zolotarev

Page 43: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

31

Demonstração

A equação matricial de Lyapunov é equivalente sistema de equações 0Ax q+ =ɶ ɶ ɶ , onde

à I A A I= ⊗ + ⊗ , ( )q vec Q=ɶ e ( )x vec X=ɶ

Assim é suficiente mostrar que a matriz

à I A A I= ⊗ + ⊗ ,

É não singular se e só se

0λ µ+ ≠ ,

para qualquer ( ), Aλ µ σ∈

Pelo lema de Schur existe uma matrix unitária de n por n U tal que

*R U AU= ,

é uma matriz triangular superior e a diagonal principal está preenchida com os valores

próprios de A.

Como a matriz

( ) ( )( ) ( ) ( )* * *U U I A A I U U I U AU U AU I I R R I⊗ ⊗ + ⊗ ⊗ = ⊗ + ⊗ = ⊗ + ⊗

É claramente similar a à I A A I= ⊗ + ⊗ , e é triangular superior.

Podemos ver igualmente que α é valor próprio de à se e só se 0λ µ+ ≠ , onde λ e µ são

valores próprios de A, e que à é não singular se e só se 0λ µ+ ≠ , para qualquer

( ), Aλ µ σ∈ . �

Teorema 1.11 A Equação discreta de Lyapunov 0* =+− QXXAA tem uma solução

única X para qualquer termo não homogéneo Q se e só se

1λµ ≠ , (1.24)

para qualquer ( ), Aλ µ σ∈

Demonstração

Demonstração similar à demonstração do teorema anterior. �

1.3.2 Equivalência de duas classes de equações de Lyapunov

Sejam nA M∈ , ( )Aσ ⊂ ℂ o conjunto de valores próprios de A, e o conjunto de

matrizes dadas por ( )1A S Aσ∈ ⇔ ∉ .

Page 44: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

32

Seja ( )A S∈ , então a transformada de Cayley ( )C A de A é dada por

( ) ( )( ) 1C A A I A I

−= + − .

A transformada de Cayley pode ser vista como uma extensão de função complexa

( ) 1

1

zz

+=

−,

que transforma { }1−ℂ em { }1−ℂ , com ( )( )z zφ φ = para todo { }1z∈ −ℂ .

Teorema 1.12 São válidas as seguintes afirmações:

1. A transformada de Cayley transforma S em S, e ( )( )C C A A= , para todo A S∈ .

2. Se A S∈ , então ( )Aλ σ∈ se e só se ( ) ( )( )C Aφ λ σ∈ .

3. A é estável se e só se ( )C A é convergente.

4. A é definida negative se e só se ( )2

1C A < .

Demonstração

1. Seja A S∈ . Então ( )C A está bem definida. Pretende-se mostrar que ( )C A S∈ ,

ou seja pretende-se mostrar que 1 não é valor próprio de ( )C A .

Seja ( ),wµ o par de valores próprios para ( )C A . Então

( )( ) ( ) ( ) ( ) ( )11 1 1 1A I A w w A I w A w Aw wµ µ µ µ−

+ − = ⇔ + = − ⇔ − = − + ,

Se 1µ = , então 0w = , o que é impossível porque w é valor próprio de ( )C A .

Donde se conclui que ( )C A S∈ .

Falta provar que ( )( )C C A A= .

Por definição

( ) ( ) ( ) ( ) ( ) ( )1 1 12 2C A A I A I A I I A I I I A I

− − −= + − = − + − = + − ,

logo,

( )( ) ( )( ) ( )( ) ( )( ) ( )( )( )( ) ( ) ( )

11 1 1

1

2 2C C A C A I C A I I A I A I

I A I A I A I I A

−− − −

= + − = + − −

= + − − = − + =

2. Sejam A S∈ , e ( ), vλ um par de valores próprios de A.

Por definição

( ) ( )1Av v A I v vλ λ= ⇔ ± = ± , e

( ) ( ) ( ) ( )11 1C A v A A v vφ λ= + − = .

Page 45: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

33

Ou seja, ( )( ), vφ λ é um par de valores próprios de ( )C A .

3. A é uma matriz estável se e só se o raio espectral de ( ) 1C A < , i.e. ( )C A é

convergente, pelo enunciado anteriormente.

4. Por definição

( ) ( ) ( ) ( ) ( )( ) 1T T TC A C A I A I A I A I A I I

− −− = − + + − − =

( ) ( ) ( ) ( ) ( )( )( ) ( ) ( )( )( )1 12

T T T T TA I A I A I A I A I A I A I A A A I− − −

= − + + − − − − = − + −

.

Ou seja,

( ) ( ) ( ) ( )( ) ( ) 12

T T TI C A C A A I A A A I−

− = − − + −

Se ( ) 1C A < , então é simétrica e definida positiva e admite a factorização de Cholesky

( ) ( )T TI C A C A LL− = .

Assim,

( ) ( ) ( ) 12

TT TA A A I LL A I−

− + = − −

é igualmente simétrica e definida positiva. De igual modo se A é definida negativa, tem-

se que ( ) ( )TI C A C A− tem de ser necessariamente simétrica e definida positive.

Como tal ( ) ( ) ( )2

1T

C A C A I C A< ⇔ < . �

A transformada de Cayley estabelece uma conexão entre as equações continuas e

discretas de Lyapunov.

Teorema 1.13 Seja A S∈ , então X é solução de equação continua de Lyapunov

0TAX X A Q+ + = , (1.25)

se e só se X é solução de equação discreta de Lyapunov

( ) ( ) ( ) ( )1

0 00, 2TTC A XC A X Q Q A I Q A I

− −− + = = − − , (1.26)

Demonstração

Trivial.

Page 46: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

34

1.3.3 Forma da Solução

Sejam ( )nA M∈ ℝ , e ( )Aσ o conjunto dos valores próprios de A .

A é estável se e só se

( ) ( )Re 0, Aλ λ σ< ∀ ∈ , (1.27)

e é convergente se e só se

0,jA j→ → ∞ , (1.28)

ou

( )1, Aλ λ σ< ∀ ∈ . (1.29)

Se A é estável, então ( )0, , Aλ µ λ µ σ+ ≠ ∀ ∈ ,

e a equação continua de Lyapunov tem uma solução única para qualquer que seja a

escolha do termo não homogéneo.

De igual forma se A é uma matriz real convergente, então ( )1, , Aλµ λ µ σ≠ ∀ ∈ e a

equação discreta de Lyapunov tem uma solução única para qualquer que seja a escolha

do termo não homogéneo.

Teorema 1.14 Se A é uma matriz estável real, então a solução da equação contínua de

Lyapunov (0.1) pode ser escrita da seguinte forma

0

TtA tAX e Qe dt∞

= ∫ . (1.30)

Demonstração

Dado a estabilidade da matriz A, então o integral existe, e se ( )X τ é dado por

( )0

TtA tAX e Qe dtτ

τ = ∫ ,

então

( ) ,X Xτ τ→ → ∞ ,

Por continuidade temos,

( ) ( ) T TAX X A Q AX XA Qτ τ+ + → + + .

Temos também que

( ) ( ) ( )( )

0

00,

T T

T T

T tA tA tA tA T

tA tA A A

AX X A Q Ae Qe e Qe A dt Q

de Qe dt Q e Qe

dt

τ

τ τ τ

τ τ

τ

+ + = + +

= + = → →∞

ou seja, 0TAX XA Q+ + = . �

Page 47: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

35

Teorema 1.15 Se A é uma matriz real convergente, então a solução da equação discreta

de Lyapunov (0.2) pode ser reescrita da seguinte forma

( )0

jj T

j

X A Q A∞

=

=∑ . (1.31)

Demonstração

Seja

( )1

0

n jj Tn

j

X A Q A−

=

=∑

Temos que

( ) 0, 0nT n T

n nAX A X Q A Q A n− + = → → ,

falta verificar que a sequência { }0n n

X∞

= é convergente.

Para tal é suficiente provar que a série

( )0

jj T

j

A Q A∞

=∑ ,

é absolutamente convergente, i.e.

( )20

jj T

j

A Q A∞

=

<∞∑ .

Se 1A < seria imediato, mas apenas sabemos que A é convergente, ou seja ( ) 1Aρ < .

De modo geral,

( )1

2,j jA A jρ→ →∞ ,

Ou seja existe N inteiro tal que

1

2

1 11,

2 2n nA n N

ρ ρρ ρ

− −− < < + < ≥

.

Este resultado deriva da teoria spectral da algebra de Banach.

Sejam 2

1NAε = < e { }2

max : 0,1,2,..., 1rC A r N= = − < ∞ .

Assim é possível estimar

( ) 2

2 220 0

jj T j

j j

A Q A Q A∞ ∞

= =

≤∑ ∑

1 12 22

2 22 20 0 0 0

N NqN r q r

q r q r

Q A Q Aε∞ − ∞ −

+

= = = =

= ≤ ≤∑∑ ∑∑

Page 48: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

36

2 2 222 2

0

1

1q

q

C N Q C N Qεε

=

≤ = <∞−∑

Podemos assim concluir

( )0

jj T

j

X A Q A∞

=

=∑,

está bem definida e satisfaz 0TAXA X Q− + = . �

1.3.4 A estrutura das soluções

Teorema 1.16 Seja A uma matriz quadrada real tal que 0λ µ+ ≠ , para ( ), Aλ µ ρ∈ , e

seja X a solução da equação continua de Lyapunov (0.1). Então as afirmações seguintes

são verdadeiras:

• Se Q é simétrica, então X é simétrica.

• Se A é estável, e se Q é simétrica e (semi)definida positiva, então X é simétrica e

(semi)definida positiva.

Demonstração

Através de transposição, temos que X e TX satisfazem a mesma equação. Pelo teorema

da unicidade Teorema 1.10 temos TX X= .

A segunda afirmação decorre da aplicação de (1.30). �

Teorema 1.17 Seja A uma matriz quadrada tal que 1λµ ≠ , para ( ), Aλ µ ρ∈ , e seja X a

solução da equação discreta de Lyapunov (0.2). Então as afirmações seguintes são

verdadeiras:

• Se Q é simétrica, então X é simétrica.

• Se A é estável, e se Q é simétrica e (semi)definida positiva, então X é simétrica e

(semi)definida positiva.

Demonstração

Através de transposição, temos que X e TX satisfazem a mesma equação. Pelo teorema

da unicidade Teorema 1.11 temos TX X= .

A segunda afirmação decorre da aplicação de (1.31). �

Neste trabalho incidiremos quase exclusivamente no caso especial de quando A é uma

matriz real estável (convergente) e TQ BB= , onde B é uma matriz real. Se A é uma

Page 49: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

37

qualquer matriz quadrada real tal que AB está definida, então o subespaço de Krylov

( ),lK A B é dado por

( ) 2 1, ... , 1,2,...l nlK A B Ran B AB A B A B l− = ⊆ = ℝ ., (1.32)

É claro que ( ) ( )1, ,l lK A B K A B+⊆ para 1,2,...l = , e existe um inteiro m tal que

( ) ( ), ,m lK A B K A B= , para todo o l m≥ .

A m chamamos o grau de B sobre A.

O subespaço de Krylov

( ) ( ), ,mK A B K A B= , (1.33)

É o invariante mais pequeno de A que contém Ran B .

Teorema 1.18 Seja A uma matriz quadrada real tal que 0λ µ+ ≠ , para

( ), Aλ µ ρ∈ , e seja B uma matriz real tal que AB está definida, e seja X a solução da

equação continua de Lyapunov

0T TAX XA BB+ + = . (1.34)

Seja V a matriz com colunas ortonormais, tal que ( ),Ran V K A B= . Então

TX VYV= , (1.35)

onde Y é a única solução de equação reduzida

0T T THY YH V BB V+ + = , (1.36)

com TH V AV= .

Demonstração

Por definição ( ),Ran V K A B= é invariante de A, ou seja AV VH= , com TH V AV= .

Sabemos que ( ) ( )H Aσ σ⊂ , que por sua vez implica que a equação (1.36) tem uma

solução única Y . Seja ( ), xα um par de valores próprios de H. Então x Hα α= , e assim

Vx VHx AVxα = = , donde ( ),Vxα é um par de valores próprios de A.

Seja Y a solução única de (1.36). Então TVYV é a solução única de equação original de

Lyapunov (1.34).

Assim, temos

T T T T T T T TAVYV VYV A BB VHTV VV BB VV+ + = +

( ) 0T T T TV HY YH V BB V V= + + = ,

porque Ran B Ran V⊆ , e Y é a solução da equação (1.36).

Page 50: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

38

Pelo teorema da unicidade, Teorema 1.10, temos TX VYV= . �

Teorema 1.19 Sejam A uma matriz real estável e B uma matriz real tal que AB está

definida, e X a solução de

0T TAX XA BB+ + = .

Então temos ( ),Ran X K A B= .

Demonstração

Pelo Teorema 1.18 temos que

( ),Ran X K A B⊆ ,

porque 0λ µ+ ≠ , para ( ), Aλ µ ρ∈ .Contudo como A é estável é possível aplicar o

Teorema 1.14,e temos

0

TtA T tAX e BB e dt∞

= ∫ .

Ou seja ( ),Ran X K A B⊇ , ou ainda ( ),Ker X K A B⊥

⊆ .

Se 0Xv = , então

00

TT T tA T tAv Xv v e BB e v dt∞

= = ∫ ,

Ou seja, 0, 0T tAv e B t= ≥ .

Derivando sucessivamente em ordem a t, temos que,

0, 0, 0,1, 2,...T j tAv A e B t j= ≥ = ,

e fazendo 0t = , temos 0, 0,1, 2,...T jv A B j= = Ou seja ( ),v K A B⊥

= . �

Estes dois teoremas e técnicas usadas na sua demonstração são igualmente usados para

o caso discreto.

Especificamente temos os seguintes teoremas.

Teorema 1.20 Seja A uma matriz quadrada tal que 1λµ ≠ , para ( ), Aλ µ ρ∈ , e seja B

uma matriz real tal que AB está definida, e seja X a solução da equação continua de

Lyapunov

0T TAXA X BB− + = .

Seja V a matriz com colunas ortonormais, tal que ( ),Ran V K A B= . Então

TX VYV= ,

onde Y é a única solução de equação reduzida

0T T THYH Y V BB V− + = ,

Page 51: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

39

com TH V AV= .

Teorema 1.21 Sejam A uma matriz real estável e B uma matriz real tal que AB está

definida, e X a solução de

0T TAXA X BB− + = .

Então temos ( ),Ran X K A B= .

Page 52: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

40

Page 53: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

41

2. Método Iterativo usando o produto de Kronecker

2.1 O produto de Kronecker4 de duas matrizes

O produto de Kronecker, depois do produto usual, é uma das mais importantes formas

de multiplicar duas matrizes, tornando-se assim bastante útil no estudo de equações

matriciais.

Definição 2.1. O produto de Kronecker, também designado por produto

tensorial ou produto directo, de duas matrizes A e B de dimensões nm × e ts× ,

respectivamente, é definido como sendo a matriz

11 12 1

21 22 2

1 2

n

nij

m m mn

a B a B a B

a B a B a BA B a B

a B a B a B

⊗ = =

⋮ ⋮ ⋮ ⋮

(2.1)

de dimensão ( ) ( )tnsm × .

Exemplo 2.1. Sejam

1

0

1

A

= −

, 2 1

0 4B

=

e [ ]1 3 1 1C = − .

Tem-se

1 1 3 1 1

0 0 0 0 0

1 1 3 1 1

C

A C C

C

− ⊗ = = − − −

,

[ ]2 1 6 3 2 1 2 1

1 3 1 10 4 0 12 0 4 0 4

C B B B B B− −

⊗ = − = − e

2 1 2 6 1 2 1 3 1 1

0 4 0 0 0 0 4 12 4 4

C CB C

C C

− − ⊗ = = −

.

O produto de Kronecker é usado de modo a permitir representações de equações

matriciais mais convenientes à sua resolução.

4 Leopold Kronecker (1823-12-07 a 1891-12-29) - Matemático Alemão, nascido em Liegnitz, Prússia (actual Legnica, Polónia). Aluno de Peter Gustav Diriclet e Professor de Georg Cantor

Page 54: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

42

Consideramos o seguinte resultado:

Teorema 2.1. Sejam mMA∈ , nMB∈ e n,mMD,C ∈ . Então

1. ( ) ( ) ( )CvecAICAvec n ⊗=

2. ( ) ( ) ( )CvecIBBCvec mT ⊗=

3. ( ) ( ) ( )DvecCvecDCvec ±=±

Demonstração:

1. Atendendo às definições da função vec e do produto de Kronecker temos

( ) ( )

1

2

0 0

0 0

0 0

n

n

cA

cAI A vec C

cA

⊗ =

⋮⋮ ⋮ ⋱ ⋮

1

2

n

Ac

Ac

Ac

=

⋮( )nAc...,,Ac,Acvec 21= ( )CAvec= .

2. Com base nas apresentadas anteriormente, podemos reescrever a segunda

igualdade da seguinte forma

( ) ( )CvecIB mT ⊗

11 21 1 1

12 22 2 2

1 2

m m n m

m m n m

n m n m nn m n

b I b I b I c

b I b I b I c

b I b I b I c

=

⋮ ⋮ ⋱ ⋮ ⋮

11

21

1

n

j m jj

n

j m jj

n

jn m jj

b I c

b I c

b I c

=

=

=

=

∑∑

∑⋮

11

21

1

n

j jj

n

j jj

n

jn jj

b c

b c

b c

=

=

=

=

∑∑

∑⋮

.

No primeiro membro da igualdade 2 temos que a coluna k da matriz produto CB, que

resulta da multiplicação de cada uma das linhas de C pela coluna k da matriz B, é dada

por

11 1 12 2 1

21 1 22 2 2

1 1 2 2

k k n nk

k k n nk

m k m k mn nk

c b c b c b

c b c b c b

c b c b c b

+ + + + + +

+ + +

11 1

21 2

1

1

n

n

k nk

m mn

c c

c cb b

c c

= + +

⋯⋮ ⋮ nknk bcbc ++= ⋯11 . (1.8)

Assim, ( )

= ∑ ∑ ∑= = =

n

j

n

j

n

j njjkjjjj bc,,bc,,bcvecBCvec1 1 11 ⋯⋯ .

3. Considerem-se C e D fraccionadas por colunas,

Page 55: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

43

( ) ( )( )nn dc,,dcvecDCvec ±±=± ⋯11 ( ) ( )1 1 1 1

n n n n

c d c d

vec C vec D

c d c d

± = = ± = ± ±

⋮ ⋮ ⋮

Lema 2.1 No Produto de Kronecker são válidas as seguintes relações:

1. Sejam CA⋅ e DB ⋅ produtos bem definidos, então

( ) ( ) ( ) ( )DBCADCBA ⋅⊗⋅=⊗⋅⊗

2. Se A e B são invertíveis, então ( ) 111 −−− ⊗=⊗ BABA ;

3. ( ) TTT BABA ⊗=⊗ .

Lema 2.2 Sejam ( )Aλ e ( )Bµ os espectros de nnA ×ℜ∈ e mmB ×ℜ∈ ,

respectivamente. Então

( ) ( ) ( ){ }mjniBABA jiji ,...,2,1;,...,2,1,,: ==∈∈=⊗ µµλλµλλ

De seguida dar-se-á alguns resultados acerca de métodos iterativos.

Seja NMA −= , então os pares de matrizes ( )NM , de A são denominados partição de

A se ( ) 0det ≠A uma partição é convergente se ( ) 11 <− NMρ , onde ( )Cρ denota o

espectro radial da matriz C . A partição descrita detêm o seguinte método iterativo:

bNxMxAx =−= , ou seja cRxbMNxMx +=+= −− 11 .

Assim é possível definir cRxx mm +=+1 como o método iterativo.

Lema 2.3 Seja o operador norma (x

RxR x 0max ≠= )

Se 1<R , então cRxx mm +=+1 converge para qualquer 0x .

Lema 2.4 Para todos os operadores norma ( ) RR ≤ρ . Para todo R e para todo

0>ε existe um operador norma ( ) ερ +≤ RR*

. A norma * depende de R e ε .

Page 56: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

44

Teorema 2.2. A iteração cRxx mm +=+1 converge para a solução de bAx=

para todos os 0x e para todos os b se e só se ( ) 1<Rρ .

2.2 Formulação usando o produto de Kronecker

A forma mais rudimentar de solucionar a equação matricial de Lyapunov (0.1) consiste

em transformá-la num sistema de equações lineares e posteriormente seleccionar um

método (numérico ou não) para resolver o sistema de equações lineares obtido.

Pormenorizando, considere-se a equação (0.1) onde ( ) mij MaA ∈= , ( )ij mQ q M= ∈

são dadas e ( )ij mX x M= ∈ é desconhecida. Então, efectuando os produtos de matrizes,

de

11 1 11 1 11 1 11 1 11 1

1 1 1 1 1

0m m m m m

m mm m mm m mm m mm m mm

a a x x x x a a q q

a a x x x x a a q q

+ + =

⋯ ⋯ ⋯ ⋯ ⋯

⋮ ⋱ ⋮ ⋮ ⋱ ⋮ ⋮ ⋱ ⋮ ⋮ ⋱ ⋮ ⋮ ⋱ ⋮

⋯ ⋯ ⋯ ⋯ ⋯

1 1 1 1 1 11 1 1 111 1

21 22 1 2 2 1 21 1 1 1

11 11 1 1 1

m m m m

j j j jm j j j mjj j j jm

m m m m

mj j j jm j j j mjj j j j

m m m m mm j j m j jm m j j m j mjj j j j

a x a x x a x aq q

q qa x a x x a x a

q qa x a x x a x a

= = = =

= = = =

= = = =

+ +

∑ ∑ ∑ ∑∑ ∑ ∑ ∑

∑ ∑ ∑ ∑

⋯ ⋯⋯

⋯⋯ ⋯

⋮ ⋱ ⋮⋮ ⋮ ⋮ ⋮ ⋮ ⋮⋯

⋯ ⋯

0

mm

=

Somando as matrizes coluna a coluna, obtemos o sistema com 2m equações lineares e

igual número de incógnitas seguinte

1 1 1 1 111 1

2 1 2 1 211 1

1 1 11 1

1 1 11 1

2 2 21 1

1 1

0

0

0

0

0

0

m m

j j j jj j

m m

j j j jj j

m m

mj j mj j mj j

m m

j jm j mj mj j

m m

j jm j mj mj j

m m

mj jm mj mj mmj j

a x x a q

a x x a q

a x x a q

a x x a q

a x x a q

a x x a q

= =

= =

= =

= =

= =

= =

+ + =

+ + = + + = + + = + + =

+ + =

∑ ∑

∑ ∑

∑ ∑

∑ ∑

∑ ∑

∑ ∑

Page 57: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

45

que é equivalente a

1 1 11 1

1 1

0, 1, 2,...,

0, 1, 2,...,

m m

ij j ij j ij j

m m

ij jm ij mj imj j

a x x a q i m

a x x a q i m

= =

= =

+ + = =

+ + = =

∑ ∑

∑ ∑

e, mais simplesmente, pode ser escrito por

1 1

0

1, 2,..., e 1, 2,...,

m m

ij jk ij kj ikj j

a x x a q

i m k n

= =

+ + =

= =

∑ ∑ (2.2)

Exemplo 2.2

A equação matricial

9 27 1 9 19 1

44 88 8 44 66 44 9 9 119 35 1 27 35 3

1 4 466 132 12 88 132 88

9 8 91 3 1 1 1 1

44 88 8 8 12 8

X X

− − − − + − − =

− −

é

equivalente ao sistema, cuja matriz dos coeficientes é

9 27 271 10 0 0 022 88 8 88 819 31 271 10 0 0 066 66 12 88 8

3 7 271 10 0 0 044 88 88 88 819 31 27 1 10 0 0 066 66 88 8 12

19 19 35 1 10 0 0 066 66 66 12 1219 3 371 10 0 0 066 44 88 264 12

3 7 271 10 0 0 04 88 88 88 83 19 371 10 0 0 044 88 66 264 12

3 31 10 0 0 044 88 44 88

− − −

− −

− − −

− −

− −

− − −

− −

− − 14

se considerarmos o vector das incógnitas

[ ]11 21 31 12 22 32 13 23 33

TX x x x x x x x x x= .

Page 58: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

46

Obtemos assim a solução,

6626 5629 1187

135 126 7025796 3755 2066

329 51 792311 12387 2107

44 190 50

X

=

De reparar que, para definirmos a matriz dos coeficientes no sistema do exemplo ante-

rior foi necessário considerar os elementos da matriz X (e também os de Q) ordenados

de modo apropriado como vectores. Uma possível ordenação é a definida em (1.7) pelo

operador (ou função) vec, que arruma os elementos de uma matriz, coluna a coluna,

num vector. Usando esta ordenação os vectores dos termos independentes e das

incógnitas do sistema (2.2) são

( )11 1 12 2 1,..., , ,..., ,..., ,...,T

m m m mmvecQ q q q q q q= e

( )11 1 12 2 1,..., , ,..., ,..., ,...,T

m m m mmvec X x x x x x x= ,

respectivamente e, deste modo, a matriz dos coeficientes que tem ordem 2m , pode ser

definida recorrendo ao produto de Kronecker como veremos de seguida.

Considere-se a equação matricial de Lyapunov 0TAX X A Q+ + = . Aplicando a ambos

os membros a função vec e atendendo ao teorema 2.1 tem-se

( )0 Tvec AX X A Q= + + ( ) ( ) ( )Tvec AX vec X A vec Q= + +

( ) ( ) ( )( ) ( ) ( )TT

m mI A vec X A I vec X vec Q= ⊗ + ⊗ +

( ) ( ) ( )m mI A A I vec X vec Q= ⊗ + ⊗ + .

Então o sistema de 2m equações lineares (2.2), que é equivalente à equação de

Lyapunov (0.1), pode ser definido, na forma matricial, por

( ) ( ) ( ) ( ) 0m mI A A I vec X vec Q⊗ + ⊗ + = (2.3)

A matriz dos coeficientes do sistema anterior pode ser, naturalmente, fraccionada por

blocos do seguinte modo

11 21 1

12 22 2

1 2

m m m m

m m m m

m m m m mm m

A a I a I a I

a I A a I a I

a I a I A a I

+ +

+

⋮ ⋮ ⋱ ⋮

. (2.4)

Page 59: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

47

Nesta matriz os blocos diagonais podem ser matrizes densas, dependendo dos elementos

de A, no entanto os restantes blocos são matrizes diagonais ou nulas. O número de ele-

mentos nulos nesta matriz é, no mínimo, ( )2 2 2 1m m m− + . Assim é provável que a

matriz (2.4) seja esparsa, podendo mesmo ter um grau de esparsidade elevado para

valores de m relativamente pequenos.

De facto, para 4=m , tem-se pelo menos 50% dos elementos nulos na matriz anterior.

O exemplo seguinte ilustra esta situação.

Exemplo 2.3 Dada a matriz

1 2 3

2 3 4

3 4 5

A

=

e, tem-se

3 3I A A I⊗ + ⊗ =

2 2 3 2 3

2 4 4 2 3

3 4 6 2 3

2 4 2 3 4

2 2 6 4 4

2 3 4 8 4

3 4 6 2 3

3 4 2 8 4

3 4 3 4 10

Note-se que os elementos nulos não foram assinalados propositadamente de forma a

realçar a estrutura da matriz, que tem um grau de esparsidade de 44%.

A tabela seguinte mostra a percentagem mínima de zeros da referida matriz (2.4) para

alguns valores da ordem da matriz A:

m

m

2 3 4 5 10 20

2 25

3 33 44

4 37.5 50 56

5 40 53 60 64

10 45 60 67.5 72 81

20 47.5 63 71 76 85.5 90

Page 60: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

48

Se a matriz coeficiente A da equação de Lyapunov não apresentar uma estrutura

específica (em banda, triangular, simétrica, …), então a matriz (2.4) também não

apresentará estas características particulares, como podemos observar no exemplo 2.2.

No entanto, no exemplo 2.3, a matriz (2.4) é simétrica em consequência de ambas as

matrizes A e B o serem. Mais, se forem ambas triangulares então a matriz do sistema

(2.3) também o poderá ser se para isso efectuarmos as trocas convenientes de linhas e

colunas. Assim, se A possuir uma determinada estrutura esta pode ser transferida para a

matriz (2.4).

Vamos agora supor que pretendemos determinar as soluções da equação de Lyapunov

(0.1) transformando-a no sistema (2.3) e, posteriormente, usando uma estratégia

eficiente de resolução de sistemas de equações lineares. A escolha do método a utilizar

requer um conhecimento aprofundado das várias opções disponíveis e uma ponderação

cuidadosa das vantagens e desvantagens face às características do problema concreto

que se pretende resolver. Em particular temos que ter em atenção três das características

da matriz coeficiente A, e que são:

1. A ordem,

2. O número de zeros que contêm,

3. A possibilidade de possuírem uma determinada estrutura que possa transferir-se

para a matriz (2.4).

No caso da matriz A ser densa, com dimensão menor ou igual a 5 e não possuir uma

determinada estrutura, é possível optar pelo método de eliminação de Gauss, usando

uma estratégia de escolha do pivot, para evitar os problemas de instabilidade que se

podem manifestar durante a aplicação do método. Se A tiver ordem razoável (maior que

6), mesmo que seja matriz densa, a matriz do sistema (2.3) já apresenta um grau de

esparsidade superior a 64%, como podemos observar na tabela atrás. Neste caso é de

todo conveniente o uso de um método iterativo (de Jacobi ou Gauss-Seidel, por

exemplo), tendo em atenção às condições que garantem a convergência do método a

utilizar.

Acerca deste assunto Datta [17] e Golub [30], apresentam de forma exaustiva de

métodos para a resolução de sistemas com equações lineares, dedicando Golub um

capítulo inteiro ao estudo pormenorizado dos sistemas com matrizes especiais

(definidas positivas, em banda, simétricas e tridiagonais por blocos).

Brandts menciona um estudo sobre a aplicação do método iterativo SOR à resolução da

equação (2.3) [12]. Este método que é apresentado detalhadamente por Starke em [6],

Page 61: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

49

analisando ainda a determinação do valor óptimo do parâmetro ω do método, é

segundo este autor, especialmente útil para resolver problemas em que apenas uma das

matrizes coeficientes A tem determinante muito próximo de zero. Starke propõe um

método híbrido ADSOR que compara com outras técnicas iterativas.

2.3 Método Iterativo para o Produto de Kronecker - KPIM

2.3.1. Introdução

Na análise de estabilidade de sistemas de controlo [14], temos necessidade de resolver

as seguintes equações matriciais de Lyapunov:

0* =+− QXXAA ;

0* =++ QAXXA ; (2.5)

com n nA ×∈ℝ e n nQ ×∈ℝ matrizes dadas, n nX ×∈ℝ a incógnita.

De notar que XQ, são Hermitianas (or symmetric real) e matrizes definidas positivas.

São equações deveras importantes em Teoria de Controlo, Comunicações e Sistemas de

Energia (power systems) [14], bem como as Equações Matriciais de Sylvester.

Existem vários métodos para resolução das Equações Matriciais de Lyapunov. Por

exemplo, para grandes (large) equações de Lyapunov é proposto usar o algoritmo

GMRES [45]. Muitos dos métodos directos de resolução baseiam-se em transformações

de matrizes, de forma a obter outras cuja solução seja facilmente calculada. A título de

exemplo temos a forma canónica de Jordan [35.], a matriz companheira [11, 10] e a

matriz de Hessenberg–Schur [3, 29].

Em áreas como Álgebra Matricial [30] os métodos iterativos são os mais populares, por

exemplo, Starke and Niethammer apresentam um método iterativo para resolução da

Equação de CT de Sylvester usando a técnica SOR (successive overrelaxation) [74], e

Mukaidani et al. discutiram um algoritmo iterativo para as equações algébricas de

Lyapunov generalizadas [53]. Para equações matriciais, soluções exactas são muito

importantes, mas por vezes, para análise de estabilidade em teoria de controlo, não é

necessário encontrar soluções exactas bastando para tal soluções aproximadas.

Igualmente se no sistema de matrizes tivermos parâmetros incertos, pode não ser

possível obter soluções exactas [22, 21, 25].

O uso do produto de Kronecker para expandir a equação matricial num sistema de

equações da forma bAx = é o método mais convencional de obter as soluções.

Page 62: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

50

Quando n é grande, aparecem dificuldades computacionais devido á memória

computacional necessária para a computação e inversão de grandes matrizes de

dimensão ( ) ( )22 nn × ou ainda de ( ) ( )22 22 nn × .

Será evitado este problema, construindo algoritmos iterativos eficazes para o sistema

linear bAx = que é obtido através do produto de Kronecker. Nestes algoritmos apenas

é preciso guardar as matrizes XA, e Q na equação matricial (2.4), neste processo não

será desfeita a esparsidade de A e apenas é necessária a utilização de matrizes simples.

No subcapítulo 2.2.3 será apresentado o KPIM para equações matriciais discretas de

Lyapunov 0* =+− QXXAA apresentando os algoritmos. No subcapítulo 2.2.7

mostrar-se-á a aplicação do KPIM às Equações Matriciais contínuas de Lyapunov

0* =++ QAXXA .

2.3.2. O KPIM para a equação matricial discreta de Lyapunov

Seja

0* =+− QXXAA (2.6)

a equação matricial discreta de Lyapunov onde n nA ×∈ℝ e n nQ ×∈ℝ são matrizes dadas

e n nX ×∈ℝ a matriz pretendida. De referir ainda que XQ, são Hermitianas (or

symmetric real) e definidas positivas.

Primeiro reescrevemos esta equação através do operador ( )⋅vec da seguinte forma:

( ) ( ) ( ) 0=+− QvecXvecAXAvec T

Do Teorema 1.2 e do lema 1.1, é equivalente a

( ) ( ) ( ) ( ) 0=+−⊗ QvecXvecXvecAA

Seja ( )vec X x= e ( )vec Q b= , assim pode ser reescrita da forma ( ) 0=+−⊗ bxxAA

(2.7)

Onde x é um vector de tem dimensão 2n formado pelas colunas de X , ou seja,

( )Tn

TT xxxx ,...,, 21= e ix é a coluna i de X ;

Similarmente ( )Tn

TT bbbb ,...,, 21= e ib é a i - ésima coluna de Q .

De (2.7) obtemos a seguinte iteração

( ) bxAAx kk +⊗=+1 (2.8)

a qual é denominada de KPIM da equação matricial (2.6).

Page 63: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

51

Teorema 2.3. Se ( ) 1<Aρ , então a sequência iterativo (2.8) obtida de (2.6) é

convergente.

Demonstração:

A matriz iterativa de (2.8) é AA ⊗ . Como ( ) 1<Aρ , então existe 10 << r tal que

( ) 1<< rAρ .

Do Lema 2.2, temos ( ) ( ) 122 <<=⊗ rAAA ρρ , assim é possível encontrar uma norma

matricial consistente tal que 2

*rAA ≤⊗ [75]. Subtraindo ( ) bxAAx +⊗= a

( ) bxAAx kk +⊗= −1 obtemos ( )( )xxAAxx kk −⊗=− −1 .

Assim para alguns k e um vector inicial 0x obtemos

*02

*0**1**xxrxxAAxxAAxx kk

kk −≤−⋅⊗≤−⋅⊗≤− − ;

Logo a sequência iterativa (2.8) é convergente. �

Proposição 2.1. Do Lema 2.2 sabemos que, se ( ) 1<Aρ , então ( ) ( )AAA 2ρρ =⊗ é

inferior.

Exemplo 2.4. Se ( ) 5,0=Aρ , então ( ) ( ) 25,02 ==⊗ AAA ρρ .

ALGORITMO 1

1: Obter a sequência iterativa de (2.7):

2: ( ) 0=+−⊗ bxxAA

3: Dados 0x e k :

4: for 1,2,...,m k= do

5: for 1,2,...,i n= do

6: ( )1m mi i ix A A x b+ = ⊗ +

7: end for

8: end for

9: Dado 0>ε , seja ( )kn

kkk xxxX ,...,, 21= , se ε<− −1kk XX , então pára, e kXX =

é a solução aproximada de (2.6); senão seja 1+= kk e goto 3

Page 64: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

52

Exemplo 2.4

Sejam

9 27 1

44 88 8 9 9 119 35 1

, 1 4 466 132 12

9 8 91 3 1

44 88 8

A C

− − = − =

e [ ]0 0 0 0 0 0 0 0 0 0T

X =

Aplicando o algoritmo exposto à equação de Lyapunov

0* =+− QXXAA

temos que

( )K A A= ⊗ é a matriz obtida através do produto de Kronecker

81 243 9 243 448 27 9 27 11936 3872 352 3872 4759 704 352 704 64

57 105 3 171 315 9 19 35 1968 1936 176 1936 3872 352 528 1056 96

9 27 9 27 81 27 31 11936 3872 352 3872 7744 704 352 704 64

57 171 19 105 315 35 3968 1936 528 1936 3872 1056 176

K

− − − −

− − − − −

− − − − −

− − − −

=

9 1352 96

361 397 19 397 76 35 19 35 14356 5201 792 5201 1081 1584 792 1584 144

19 19 19 35 35 35 1 1 12904 1936 528 5808 3872 1056 528 352 96

9 27 27 81 3 9 271 11936 3872 352 3872 7744 704 352 704 64

19 35 19 35 191 12904 5808 528 1936 3872 352

− − − −

− − − −

− − − − −

− − − 35 1528 1056 96

3 3 9 3 31 1 1 11936 3872 352 3872 7744 704 352 704 64

− − − − −

1ª Iteração 2501 1250 3369 225 843 5027 701 1529 3283

276 1193 377 26 196 615 714 383 360

T

X =

5ª Iteração 6247 9049 2913 2417 2308 2305 794 93615 4442

685 9230 326 281 529 282 815 23404 487

T

X =

10ª Iteração 12613 442 4298 4808 1261 2869 642 365839 4743

1383 451 481 559 289 351 659 91460 520

T

X =

15ª Iteração 12385 1817 4298 1617 1261 2869 642 367523 4743

1358 1854 481 188 289 351 659 91881 520

T

X =

Page 65: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

53

16ª Iteração 12385 1817 4298 1617 1261 2869 642 367527 4743

1358 1854 481 188 289 351 659 91882 520

T

X =

17ª Iteração 12385 1817 4298 1617 1261 2869 642 367527 4743

1358 1854 481 188 289 351 659 91882 520

T

X =

De notar que a 16ª iteração é igual à 17ª. Por este motivo o processo é terminado,

obtendo assim a solução

12385 1617 642

1358 188 6591817 1261 367527

1854 289 918824298 2869 4743

481 351 520

X

=

após 16 iterações.

O Algoritmo 1 é possível de ser alterado, reduzindo o tempo de computação usando

para isso a de composição de Hessenberg.

Seja HVVA T= a decomposição de Hessenberg de A , onde V é matriz ortogonal e

H é a matriz superior de Hessenberg. Assim (2.6) é transformada num sistema

equivalente usando HVVA T= , ou seja 0=+− TTTT VQVVXVHHVXV

Sejam, ainda XVXVT ˆ= , e QVQV T ˆ= . Obtemos assim

0ˆˆˆ =+− QXHXH T (2.9)

Consequentemente podemos resolver (2.9) usando KPIM.

ALGORITMO 2

1: Obter (2.9) e determinar a sequência iterativa similar a (2.7):

2: ( ) 0=+−⊗ fyyHH com ( ) yXvec =ˆ e ( ) fQvec =ˆ

3: Dados 0y e k , seja 010 =h e 00 =y

4: for 1,2,...,m k= do

5: for 1,2,...,i n= do

6: ( ) i

n

ij

mjij

mi fyhHy += ∑ −=

1

1

7: end for

8: end for

9: Dado 0>ε e ( )kn

kkk yyyY ,...,, 21= , se ε<− −1kk YY , então pára, e VYVX k

T= é

a solução aproximada de (2.6); Caso contrário seja 1+= kk e goto 3

Page 66: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

54

Exemplo 2.5

Sejam A, C e X as matrizes apresentadas no exemplo 2.4

Este algoritmo usa a matriz H obtida usando a decomposição de Hessenber da matriz A,

e onde TH PAP= .

Assim, obtemos as seguintes matrizes

1 0 0

964 2960

967 3761296 964

03761 967

P

= − − −

e

9 27 11 0 0 1 0 044 88 8

964 296 19 35 1 964 2960 0

967 3761 66 132 12 967 3761296 964 1 3 1 296 964

0 03761 967 44 88 8 3761 967

T

TH PAP

− − = = − − × − × − − − − −

9 82 1739

44 277 11690337 445 989

1167 1719 870311 345

02906 2906

− − − = − − − −

( )K H H= ⊗ é a matriz obtida através do produto de Kronecker da matriz H

81 134 317 134 659 185 317 185 531936 2213 10418 2213 7520 4201 10418 4201 2395

413 514 47 331 529 84 140 154 1236992 10217 2022 3872 6903 2497 3259 3999 7276

9 50 31 152 39 1140 0 011624 2059 27665 4325 69260 6455413 331 140 541

6992 3872 3259

K

− − − − − −

=

529 154 47 84 12310217 6903 3999 2022 2497 7276

321 203 321 167 203 236121 141 1411451 4294 6186 4294 2492 4793 6186 4793 18275

37 160 37 223 75 2370 0 033849 4667 37759 7256 174356 175679 31 39 50 152 1140 0 0 11624 27665 69260 2059 4325

− − − − − −

− − − − − − 645537 37 75 160 223 2370 0 0 33849 37759 174356 4667 7256 17567

79 79 48110 0 0 0 069792 175795 175795 34127

− − − − − −

1ª Iteração 1216 1430 6771 3529 942 16921 278 5818 1991

107 1827 377 531 125 1880 5431 1261 244

T

Y = − − − −

Page 67: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

55

5ª Iteração 2164 1747 3806 3378 3672 2550 268 4414 2026

237 1047 431 391 685 301 911 1027 249

T

Y = − − − −

10ª Iteração 7825 4004 2243 6073 1337 6430 630 202 2026

858 2383 254 702 250 759 2141 47 249

T

Y = − − − −

14ª Iteração 12157 2391 2243 2033 2321 6430 251 202 2026

1333 1423 254 235 434 759 853 47 249

T

Y = − − −

15ª Iteração 12385 1855 2243 2033 2321 6430 251 202 2026

1358 1104 254 235 434 759 853 47 249

T

Y = − − − −

16ª Iteração 12385 1855 2243 2033 2321 6430 251 202 2026

1358 1104 254 235 434 759 853 47 249

T

Y = − − − −

De notar que a 15ª iteração é igual à 16ª. Por este motivo o processo é terminado,

obtendo assim a solução

12385 2033 251

1358 235 8531855 2321 202

1104 434 472243 6430 2026

254 759 249

Y

− = − − −

após 15 iterações.

Para obter a solução final apenas é necessário fazer

12385 2033 2511 0 0 1 0 01358 235 853

964 296 1855 2321 202 964 2960 0

967 3761 1104 434 47 967 3761296 964 2243 6430 2026 296 964

0 03761 967 254 759 249 3761 967

T

TX P YP

− = = − − × − − × − − − − −

12385 1617 642

1358 188 6591817 1261 367527

1854 289 918824298 2869 4743

481 351 520

=

Comparemos os tempos de computação necessários a cada um dos algoritmos expostos

anteriormente.

Page 68: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

56

O tempo de computação necessário no Algoritmo 1 é de 234 nn − em cada iteração,

assim, para k iterações será necessário fazer 234 knkn − operações. É ainda necessário

guardar as matrizes iXQA ,, e 1−iX , gastando para isso 24n .

Quanto ao Algoritmo 2, temos:

1. Reduzir a matriz A a uma matriz de Hessenberg superior:

35

3TH VAV n= →

2. Determinar iy em cada iteração, onde ni ,...,2,1=

23 2 6 2iy n ni n→ + + − :

Este processo de k iterações despende

( )( ) knknknnninkn

i2522623 23

1

2 −+=−+−∑ =.

3. Obter a aproximação da solução de (2.3):

34TkX V Y V n= →

4. Calculando o tempo necessária para guardar as matrizes:

21

9 3ˆ, , , , 12 2m mH V Y Y Q n n− → + − :

Assim o tempo necessário ao Algoritmo 2 é de

3 217 9 32 5 2 1

3 2 2k n k n k n

+ + + − − −

.

Nota 2.1. Da análise anterior é possível verificar que o tempo dispendido pelo

Algoritmo 2 é quase metade do tempo utilizado pelo Algoritmo 1 quando o número de

iteração é grande, i.e., k é grande.

No Algoritmo 1 obtivemos mi

mm xxx 121 ,...,, − quando se procedeu à determinação de mix ,

assim é possível obter a sequência iterativa que é similar ao método de Gauss–Seidel:

i

n

is

msis

i

j

mjij

mi bxaxaAx +

+= ∑∑

=

−−

=

11

1

Pegando no Algoritmo 1 e com a sequência anterior, é possível reescrevê-lo a partir do

passo 3 da seguinte forma:

Page 69: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

57

ALGORITMO 1 [*]

1: Obter a sequência iterativa de (2.7):

2: ( ) 0=+−⊗ bxxAA

3: Dados 0x e k :

4: for 1,2,...,m k= do

5: for 1,2,...,i n= do

6: i

n

is

msis

i

j

mjij

mi bxaxaAx +

+= ∑∑

=

−−

=

11

1

7: end for

8: end for

9: Dado 0>ε , seja ( )kn

kkk xxxX ,...,, 21= , se ε<− −1kk XX , então pára, e kXX =

é a solução aproximada de (2.6); senão seja 1+= kk e goto 3

Analisemos a convergência, após esta alteração.

Seja ULA += onde L é a parte triangular inferior de A e U a parte triangular

superior de A .

Pela sequência iterativa apresentada temos que

( ) ( ) bxAUxALI mm +⊗=⊗− −1 (2.10)

com a matriz iterativo dada por ( ) ( )AUALIG ⊗⊗−= −1

Lema 2.5 [20]. Seja a norma que satisfaz BAAB ⋅≤ . Então 1<X

implica

que XI − é invertível.

Assim, ( ) ∑∞

=

− =−0

1

i

iXXI , e ( )x

XI−

≤− −

1

11

Teorema 2.4 Se ( ) ( ) 1max <Aaii ρ para ni ,...,2,1= , onde iia são os elementos da

diagonal de A , então (2.10) é convergente.

Page 70: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

58

Demonstração

Do Lema 2.2 sabemos que ( ) 10 <=⊗ ALρ uma vez que 0=Lλ . Pelo Lema 2.4 para

todo o 0>ε existe um operador norma definido por ( ) εερ =+⊗≤⊗ ALAL*

,

assim ALI ⊗− é invertível para 10 << ε pelo Lema 2.5.

Como ( ) ( ) ( ) 1max <<=⊗ rAaAU ii ρρ , então pelo Lema 1.4 para todo 0>ε existe

um operador norma definido por ( ) εερ +<+⊗≤⊗ rAUAU**

.

Como todas as normas num espaço de dimensão finita são equivalentes, é possível

determinar a constante θ tal que ***

MM θ≤ para todas as matrizes M , assim

1***

<≤⊗≤⊗ θεθ ALAL para 11

1<

+<

θε .

Obtemos assim

( ) ( ) ( ) ( )

( )( )

1 1

** **** **

1 **

**

1

11

G I L A U A I L A U A

rU A

I L A

εθε

− −

= − ⊗ ⊗ ≤ − ⊗ ⋅ ⊗

+≤ ⋅ ⊗ ≤

−− − ⊗

Se θ

ε+−

≤1

1 r, então 1

**<G , logo (3.6) é convergente, onde 1

1

1

1

1<

+<

+−

θθr

. �

Podemos ainda reorganizar o passo 3 do Algoritmo 1 de outra forma:

ALGORITMO 1 [**]

1: Obter a sequência iterativa de (2.7):

2: ( ) 0=+−⊗ bxxAA

3: Dados 0x e k :

4: for 1,2,...,m k= do

5: for 1,2,...,i n= do

6: i

n

is

msis

i

j

mjij

mi bxaxaAx +

+= ∑∑

+=

−−

= 1

11

1

7: end for

8: end for

9: Dado 0>ε , seja ( )kn

kkk xxxX ,...,, 21= , se ε<− −1kk XX , então pára, e kXX =

é a solução aproximada de (2.6); senão seja 1+= kk e goto 3

A sequência iterativa obtida com esta alteração é

( ) ( ) bxAUxALI mm +⊗=⊗− −1ˆˆ (2.11)

Page 71: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

59

com a matriz iterativo ( ) ( )AUALIG ⊗⊗−=− ˆˆˆ 1

, onde L é a parte triangular inferior

de A e U a parte triangular superior A .

Teorema 2.5. Se ( ) ( ) 1max <Aaii ρ para ni ,...,2,1= , onde iia são os elementos da

diagonal de A , então (2.11) é convergente.

Demonstração

Do Lema 2.2, temos ( ) 10ˆ <=⊗ AUρ porque 0ˆ =U

λ . Pelo Lema 2.4 para todo o

0>ε existe um operador norma ( ) εερ =+⊗≤⊗ AUAU ˆˆ*

.

Como ( ) ( ) ( ) 1maxˆ <<=⊗ rAaAL ii ρρ , então ALI ⊗− ˆ é invertível pelo Lema 8.

Pelo Lema 1.4 para todo 0>ε existe um operador norma

( ) 1ˆˆ**

<+<+⊗≤⊗ εερ rALAL para r−< 1ε .

Como todas as normas, num espaço de dimensão finita, são equivalentes, é possível

encontrar uma constante θ tal que ***

MM θ≤ para todas as matrizes M , então

θεθ ≤⊗≤⊗***

ˆˆ AUAU .

Temos assim que

( ) ( ) ( ) ( )

( )( )

1 1

** **** **

1 **

**

ˆ ˆ ˆ ˆ ˆ

1 ˆ1ˆ1

G I L A U A I L A U A

U ArI L A

θεε

− −

= − ⊗ ⊗ ≤ − ⊗ ⋅ ⊗

≤ ⋅ ⊗ ≤− −− − ⊗

Se θ

ε+−

≤1

1 r, então 1

**<G , e (2.11) é convergente, com r

r−<

+−

11

1

θ. �

No Algoritmo 2, também é possível reescrever o passo 3:

ALGORITMO 2[*]

1: Obter (2.9) e determinar a sequência iterativa similar a (2.7):

2: ( ) 0=+−⊗ fyyHH com ( ) yXvec =ˆ e ( ) fQvec =ˆ

3: Dados 0y e k

Page 72: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

60

4: for 1,2,...,m k= do

5: for 1,2,...,i n= do

6: ( )1, 1 1

nm m mi i i j ij j ij iy H h y h y f−

− − == + +∑

7: end for

8: end for

9: Dado 0>ε e ( )kn

kkk yyyY ,...,, 21= , se ε<− −1kk YY , então pára, e VYVX k

T= é

a solução aproximada de (2.6); Caso contrário seja 1+= kk e goto 3

ALGORITMO 2[**]

1: Obter (2.9) e determinar a sequência iterativa similar a (2.7):

2: ( ) 0=+−⊗ fyyHH com ( ) yXvec =ˆ e ( ) fQvec =ˆ

3: Dados 0y e k

4: for 1,2,...,m k= do

5: for 1,2,...,i n= do

6: ( )1

1 1

n nm m mi ij j is s ij i s iy H h y h y f−

= − = += + +∑ ∑

7: end for

8: end for

9: Dado 0>ε e ( )kn

kkk yyyY ,...,, 21= , se ε<− −1kk YY , então pára, e VYVX k

T= é

a solução aproximada de (2.6); Caso contrário seja 1+= kk e goto 3

Relativamente a estes algoritmos e dado que são apenas variações dos algoritmos 1 e 2

com vista a uma melhor optimização do tempo gasto na sua execução não se vê a

necessidade de apresentação de exemplos.

2.3.3 O KPIM para a equação matricial continua de Lyapunov

Como A e TA não têm nenhum valor próprio comum a equação tem uma única

solução.

Seja I a matriz identidade nn× , e q um número real não nulo, assim a equação (2.5)

pode ser reescrita de forma equivalente

( ) ( ) ( ) ( ) qQAqIXAqIAqIXAqI TT 2=++−−− (2.12)

Page 73: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

61

Escolhamos q de forma a que ambas as matrizes ( )AqI − e ( )TAqI − sejam não

singulares. Multiplicando à esquerda por ( ) 1−− AqI e à direita por ( ) 1−− TAqI ,

obtemos

FEXEX T =− (2.13)

com

( ) ( )AqIAqIE +−= −1 ,

( ) ( ) 112−− −−= TAqIQAqIqF .

No termos do produto de Kronecker e do operador ( )⋅vec , podemos transformar a

equação (2.13) da seguinte forma ( ) ( ) ( ) 0=+− FvecXvecEXEvec T (2.14)

Usando as propriedades do produto de Kronecker do subcapítulo 2.1, a equação (2.14) é

equivalente a

( ) ( ) ( ) ( ) 0=+−⊗ FvecXvecXvecEE .

Sejam ( ) xXvec = e ( ) fFvec = , então a equação pode ser expressa como

( ) 0=+−⊗ fxxEE .

Assim, obtemos a seguinte sequência iterativa:

( ) fxEEx kk +⊗=+1 .(2.15)

Assim a equação (2.15) é a sequência iterativa de KPIM para a equação (2.5).

Lema 2.6. Se A é estável e 0>q , então ( ) 1<Eρ .

Demonstração Como A é estável, então ( ) 0Re <iλ , ni ,...,2,1= onde iλ é uma valor próprio de A .

Os valores próprios de E são ( ) ( )AAE qq λλλ −+= . Como ( ) 0Re <iλ e 0>q ,

então ( ) 1<Eρ . �

Teorema 2.6. Se A é estável e 0>q , então a sequência iterativa (2.15) derivada da

equação (2.5) é convergente.

Page 74: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

62

Demonstração

A demonstração é similar à do Teorema 2.5. �

Com vista a uma convergência mais rápida, é necessário escolher q de forma

apropriada.

É sabido que quanto mais pequeno é ( )Eρ , mais rápida se torna a convergência de

KPIM. Assim é necessário encontrar q que satisfaça a seguinte relação:

k

k

q q

q

k λ

λλ −

+<

maxmin0

, (2.16)

onde kλ ( )nk ,...2,1= são os valores próprios de A .

Corolário 2.1. Seja a matriz A de (2.5) estável e simétrica, e sejam minγ e maxγ os

valores próprios mínimo e máximo da matriz A , respectivamente, e seja ainda q uma

constante positiva. Então

maxminmaxmin

maxminargˆ γγλ

λγλγ

=

+=

≤≤k

k

q q

qq

k

que satisfaz (2.16).

Demonstração.

Torna-se óbvio que

( )

+

+=

max

max

min

min ,maxγ

γ

γ

γρ

q

q

q

qE

Se q é o tal ponto mínimo, então satisfaz 0ˆ min >+γq , 0ˆ max <+ γq , e

max

max

min

min

ˆ

ˆ

ˆ

ˆ

γ

γ

γ

γ

+=

+

q

q

q

q.

Assim,

maxminˆ γγ=q . �

Dado que para a resolução de equações contínuas o primeiro objectivo é transformá-las

em equações discretas, e dado que os algoritmos apresentados no subcapítulo 2.3.2, não

se vê necessidade de apresentação de exemplos.

Page 75: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

63

3 - Métodos para Problemas Pouco Densos 3.1 - Método de Bartels-Stewart

Bartels e Stewart [30] propuseram conjuntamente, um método para resolver a equação

matricial de Sylvester CBXXA =− , onde ( )ℜ∈ mMA , ( )ℜ∈ nMB e ( )ℜ∈ n,mMC

Este método usa uma decomposição de Schur da matriz B (se esta não for triangular por

blocos) para reduzir o problema inicial a outro equivalente, mas mais simples, cuja

solução pode ser determinada através da resolução sequencial de n sistemas, no

máximo, com m equações lineares (ou 2m equações, por cada par de valores próprios

complexos conjugados de B) e igual número de incógnitas.

Para se analisar o nosso caso, basta que TB A= − . Seja

=

qq

q

q

T

TT

TTT

T

0

222

11211

⋮⋱

, 1 q m≤ ≤ (3.1)

a matriz fragmentada de ordem m de uma forma real de Schur de TA , T TQ A Q T= ,

onde as submatrizes diagonais iiT , q,...,i 1= têm espectros disjuntos.

Multiplicando à direita por Q, a equação TAX X A C+ = TA X XQTQ C⇔ + = é

reduzida ao problema equivalente

AY YT F+ = , (3.2)

onde QXY = e QCF = . Consideremos estas duas últimas matrizes fraccionadas por

colunas, ou seja, ( )ny,...,y,yY 21= e ( )nf,...,f,fF 21= . Por um lado tem-se YA

( )nyA,...,yA,yA 21= , e por outro temos que a coluna k da matriz produto TY , que

resulta da multiplicação de cada uma das linhas de Y pela coluna k de T, é

nknk tyty ++⋯11 .

Comparando as colunas k de ambos os membros de (3.2), obtemos 1

n

k i ik ki

A y y t f=

+ =∑ ,

que é equivalente a

1

1

k

k i ik ki

A y y t f+

=

+ =∑ , (3.3)

Page 76: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

64

porque T é uma matriz quase triangular.

Se o elemento 01 =+ k,kt e as 1−k primeiras colunas 1y ,,… 1−ky da matriz das incó-

gnitas Y forem conhecidas, de (3.3) obtém-se o sistema equivalente

1

1

k

k k kk k i iki

A y y t f y t−

=

+ = −∑ ( )1

1

k

kk m k k ik ii

A t I y f t y−

=

⇔ + = −∑ (3.4)

que nos permite determinar a coluna ky da referida matriz.

Suponha-se que 01 ≠+ k,kt . Neste caso ky não pode ser determinado directamente da

igualdade das colunas k de ambos os membros da equação (3.2). Assim, para calcular-

mos o vector coluna ky da matriz das incógnitas Y é necessário resolver o sistema

resultante da comparação das k-ésima e (k+1)-ésima colunas de (3.2), que permite

determinar em simultâneo 1+ky . Tendo em atenção que T é uma matriz quase triangular

(3.1), 0=k,it para 1+> ki , da igualdade de matrizes obtemos o sistema de duas

equações seguinte

1

1 1,1

1

1 , 1 1 1, 1 1 , 11

k

k k kk k k k k i iki

k

k k k k k k k k i i ki

A y y t y t f y t

A y y t y t f y t

+ +=

+ + + + + + +=

+ + = −

+ + = −

∑, (3.5)

que escrito na forma matricial vem,

1,

, 1 1, 1

kk m k k m

k k m k k m

A t I t I

t I A t I+

+ + +

+ +

+1k

k

y

y

=

+1k

k

f

f 1

1 , 1

kik i

i i k i

t y

t y

= +

∑ . (3.6)

No caso particular da matriz A ser quase triangular superior e ordenando as equações

deste sistema de acordo com a permutação ( )m,m,,m,,m, 22211 ⋯++ , obtemos um

sistema com uma matriz em banda que é a mais próxima possível de uma matriz

triangular superior, podendo ser resolvido com um número de operações de ponto

flutuante da ordem de 2m [30].

Exemplo 3.1 Sejam

=

300

120

011

A , e 3IC = . A resolução da equação matricial

TAX X A C+ = reduz-se à resolução sequencial de três sistemas de equações lineares.

Page 77: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

65

Assim, para determinar 1x , a primeira coluna da matriz das incógnitas, é necessário

solucionar ( )11 3 1 1A a I x c+ = ( )( ) ( )3 11 1,0,0T

A I x⇔ + = . Então ( )1 1 2,0,0T

x = .

Calculemos 2x , temos

( )22 3 2 2 21 1A a I x c a x+ = + ( )3 2

0 1 3

2 1 0 0

0 0

A I x

⇔ + = +

2

1 12

1 4

0

x

⇔ =

.

Por fim resolve-se ( )33 3 3 3 31 1 32 2A a I x c a x a x− = + + , i.e.

( )3 3

0 1 3 1 12 0

3 0 0 0 0 1 4 0

1 0 0 1

A I x

+ = + + =

e tem solução ( )31 1 1120 30 6

T

x = − − . Então a solução da equação inicial é

( )1 2 3

1 3 1 12 1 120

, , 0 1 4 1 30

0 0 1 6

X x x x

− = = −

.

Golub [30] refere que o número de operações de ponto flutuante requeridas por este

algoritmo é da ordem de 32m , naturalmente calculados para o nosso caso.

No exemplo que se apresenta de seguida será necessário factorizar TA usando uma

decomposição de Schur, que será obtida recorrendo à função schur do Matlab.

Exemplo 3.2 Consideremos agora

2 1 1

0 4 3

1 0 1

A

− − = −

, logo

2 0 1

1 4 0

1 3 1

TA

− = − −

e

2 2 1

1 3 0

0 1 1

C

− = −

. Uma factorização de Schur possível para TA obtém-se à custa das

matrizes

1413 2200

1454 933408 905 985

2447 1317 1393408 905 985

2447 1317 1393

Q

− = − −

e

2174 2378 101

1189 1121 49934552 863

01189 280

0 0 1

T

− =

.

Page 78: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

66

Assim, a matriz QCF = do problema AY YT F+ = é

1283 504 985

525 317 1393440 13538 2378

933 5893 1121815 1810

02444 1317

− − − − − −

.

Determinemos ( )321 y,y,yY = :

1y : ( )11 3 1 1A t I y f+ = 1

641 1651 781

907 1088 622

T

y ⇔ =

2y : ( )22 3 2 2 12 1A t I y f t y+ = − 2

2273 349 991

1440 1436 2131

T

y ⇔ = −

3y : ( )33 3 3 3 13 1 23 2A t I y f t y t y+ = − − 3

1456 2667 1020

209 1906 367

T

y ⇔ = − −

Daqui resulta que a solução da equação TAX X A C+ = é

319 429 2640

1014 70 709506 685 5697

357 1203 4042641 3163 1395

482 1524 752

TX YQ

− = = − − − − − −

.

Por fim vamos ilustrar a aplicação do método à resolução de uma equação a matriz TA

tem valores próprios complexos.

Exemplo 3.3 Sejam

1 4 1

2 1 3

10 12

A

− = − − −

, logo

1 2 0

14 1 21 3 1

TA

= − − −

e

2 2 1

1 3 0

0 1 1

C

− = −

. Uma decomposição real de Schur da matriz TA obtém-se usando as matrizes

285 303 532

2501 608 6191629 759 326

1778 1960 31631909 1563 695

4969 2015 1388

Q

− − = − − −

e

633 477 3973

12301 217 12051516 633 1294

387 12301 1307718

0 0651

T

− − = − −

.

Page 79: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

67

Então o problema TAX X A C+ = reduz-se à resolução da equação AY YT F+ = , onde

QXY = e QCF =

6451 476 1769

2639 477 12422084 1094 219

791 659 398342 430 983

263 1107 2472

− − = − − − −

.

Como 021 ≠t então 1y e 2y são determinados simultaneamente resolvendo o sistema

11 3 21 3

12 3 22 3

A t I t I

t I A t I

+ +

1

2

y

y

1

2

f

f

=

, (3.7)

cuja matriz fragmentada, é 3 3

3 3

633 1516

12301 387477 633

217 12301

A I I

I A I

+ − +

.

Assim, a solução do sistema é

1y1108 3631 667

31 150 148T = − −

e 2y

1576 9382 2923

95 591 1754T =

.

Falta obter 3y , que se obtém resolvemos ( )33 3 3 3 13 1 23 2A t I y f t y t y+ = − − ,

Assim, 3

5899 4632 4343

146 913 825Ty

=

.

Concluindo, efectuamos o produto TQY para obtermos a solução desejada

3577 2317 121

76 76 19723 2113 9

76 76 19223 153 59

38 38 152

TX YQ

− − = = − − − − −

.

Para finalizar apresentam-se três apontamentos sobre o método de Bartels e Stewart.

1. No caso da matriz TA ser triangular inferior ou redutível a uma matriz triangular

inferior por blocos através da decomposição de Schur, este algoritmo será

aplicado analogamente. Neste caso a determinação da k-ésima coluna da matriz

solução obriga a que se conheçam previamente as últimas kn − colunas desta

matriz e, naturalmente, que seja a última coluna a primeira a ser determinada.

Page 80: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

68

2. Se A e B forem reais, cheias e transformadas ambas para a forma real de Schur

então o método apresentado permite solucionar a equação através da resolução

de sistemas de equações lineares cujas matrizes são quase triangulares e/ou em

banda.

3. Se a equação for solúvel com infinitas soluções este algoritmo permite

igualmente a determinação de todas elas. Neste caso um ou mais dos sistemas de

equações lineares (3.4) ou (3.6) são possíveis e indeterminados, sendo algumas

das coordenadas do vector coluna correspondente parâmetros da matriz solução.

3.2 - Método de Hessenberg-Schur

Golub, Nash e Van Loan, sugeriram, alguns anos mais tarde, uma modificação no

algoritmo de Bartels e Stewart, propondo que a matriz A fosse reduzida à forma de

Hessenberg [30]. Este algoritmo, que na bibliografia é frequentemente referido como

método Hessenberg-Schur, evita a determinação da decomposição de Schur da matriz

que supostamente tem maior ordem, à custa da resolução de n sistemas de equações

lineares diferentes com matrizes de Hessenberg superior.

Através do exemplo apresentado de seguida, é possível mostrar a aplicação do método

Hessenberg-Schur.

Exemplo 3.4 Seja

1 0 3

3 5 0

1 0 1

A

=

então

1 3 1

0 5 0

3 0 1

TA

=

. Os valores próprios de A

são: 5, 2131

780 e

571

780− .

Usando a função hess do Matlab obtivemos

1 0 0

684 2280

721 721228 684

0721 721

P

= − − −

, matriz de

Page 81: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

69

transformação, e

684 20891

721 734721 23 6

228 5 56 7

05 5

H

− = −

, matriz de Hessenberg superior tais que

TPHPA = .

Uma forma real de Schur de TA , T TQ A Q T= , pode ser obtida com as matrizes,

1 11700

2 13510 0 1

1170 10

1351 2

Q

= −

e

571 32

780 22131 1351

0780 520

0 0 5

T

− = − − −

.

Recorrendo às factorizações obtidas podemos transformar TAX X A C+ = na equação

T TPH P X X QTQ C+ = que é equivalente a ( ) ( )T T TH P XQ P X Q T P CQ+ = .

Determinemos a solução QXPY T= da equação quando

1 2 1

7 1 0

4 5 1

C

− = − −

.

Fazendo

780 7802

571 21311593 1506 721

433 215 285144 566 456

4643 307 103

TF P CQ

= = − − − −

,

temos:

( ) 11311 fyItH =− ⇔ 1

592 791 93

571 3929 295

T

y = −

,

e como 032 ≠t então 2y e 3y são determinados simultaneamente resolvendo-se o

sistema

22 3 32 3

23 3 33 3

H t I t I

t I H t I

− − − −

2

3

y

y

2

3

f

f

=

12 1

13 1

t y

t y

+

.

Page 82: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

70

A solução deste sistema é 2

968 864 557

2131 631 559

T

y = − −

e 2

9 787 883

8 650 632

T

y = −

.

Donde TQYPX =

1 9 9

8 8 879 311 109

88 440 26411 41 3

8 24 8

− = − −

.

Numericamente, uma factorização de Schur é usualmente obtida transformando-se a

matriz para a forma de Hessenberg superior e, numa segunda fase, aplicando-se um

método iterativo para gerar uma sequência de matrizes de Hessenberg que converge

para a forma triangular ou triangular por blocos [17, 78].

Golub e seus colaboradores mostraram que o método por eles apresentado pode ser mais

eficiente que o algoritmo de Bartels e Stewart, dependendo das dimensões do problema

[30].

A resolução da equação de Lyapunov através da função lyap do Matlab é baseada nos

dois algoritmos apresentados anteriormente.

Page 83: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

71

4. Resolução da Equação de Lyapunov usando

subespaços de Krylov

4.1. Introdução

A resolução de equações é um dos principais problemas matemáticos que surge, com

elevada frequência, em muitas áreas da ciência e da engenharia [17], onde o papel

relevante da equação de Lyapunov na teoria do controlo, é particularmente mencionado

na literatura [6, 13, 57].

Temos uma grande variedade de algoritmos numéricos para a resolução das equações de

Lyapunov, uns são recomendáveis a determinados casos particulares (a titulo de

exemplo, quando a matriz A possui a estrutura de matriz companheira), outros são mais

gerais (é possível determinar a solução desta equação recorrendo a um método

numérico de resolução de sistemas de equações algébricas lineares).

Sem se pretender uma abordagem exaustiva deste tema, serão apresentadas algumas das

metodologias que surgem na bibliografia para obter a solução das equações (0.1) e

(0.2), pressupondo sempre a solubilidade das mesmas.

Assim, no presente capítulo apresentar-se-ão formulações das equações de Lyapunov,

fazendo uma breve referência a alguns dos algoritmos numéricos que surgem na

bibliografia e são aplicáveis à resolução deste problema.

4.2 Métodos Standard de Subespaços de Krylov5 para Equações

Lineares

4.2.1 Introdução

Faremos neste subcapítulo uma breve abordagem aos Métodos de Subespaços de

Krylov para a resolução de sistemas de equações lineares do tipo Ax f= , onde A uma

matriz quadrada real e não singular e f um vector em nℝ .

Descrever-se-ão ideias e definições básicas e revistos alguns algoritmos. Serão dadas

referências quando forem aplicados os resultados deste subcapítulo às equações de

Lyapunov na forma de produto de Kronecker.

5 Alexei Nikolaevich Krylov – Engenheiro Naval, Matemático e memorialista – Nascido em Simbirsk Gubernia (Rússia) a 15 de Agosto de 1863 – 26 de Outubro de 1945

Page 84: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

72

4.2.2 Subespaços de Krylov

Seja A uma matriz quadrada não singular, e seja f um vector em nℝ .

Considere-se Ax f= , para nx∈ℝ

Lema 4.1 Existe p um polinómio mónico único, tal que

( ) 0p A f = , e ( ) 0q A f ≠ ,

Para todos os polinómios q não nulos e com grau inferior ao de p.

Demonstração

Pelo teorema de Cayley’s existe p um polinómio real de grau n, tal que ( ) 0p A = .

Assim o conjunto ( ){ }: : 0, 0kD k p P p p A f= ∈ ∃ ∈ ≠ =ℕ é não vazio e tem um

elemento pequeno m D∈ .

Seja q qualquer polinómio não nulo com grau inferior a m. Assim, ( ) 0q A f ≠ .

Sejam 1p e 2p polinómios mónicos reais de grau m tal que ( ) 0ip A f = . Como 1p e

2p são mónicos o grau de 1 2p p− estritamente inferior a m, e como

( )( )1 2 0p p A f− = , temos 1 2 0p p− = . �

Definição 4.1 O polinómio mínimo para f sobre A é o polinómio mónico p de

grau mínimo, tal que ( ) 0p A f = .

Seja p o polinómio mínimo de f sobre A e seja m o grau de p.

Temos então que

( )0

,m

jj

j

p t t tα=

= ∈∑ ℝ ,

onde , 0,1, 2,...,j j mα ∈ =ℝ , e 1mα = .

De notar que 0 0α ≠ , caso contrário,

( ) ( ) ,p t tq t t= ∈ℝ

onde q tem grau 1m− , e como A é não singular, temos que ( ) 0q A f = , o que viola o

m ser mínimo. Assim, 0 0α ≠ , e a solução de Ax f= é dada por 1

0

mj

jj

x A fβ−

=

=∑ , onde

0

1, 0,1,2,..., 1j

j j mα

βα

+= = − .

Page 85: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

73

Definição 4.2 Seja j um inteiro positivo. O subespaço de Krylov ( ),jK A j é

dado por

( ) { }2 1, , , ,..., jjK A j span f Aj A f A f−=

.

Lema 4.2 Seja m o grau de f sobre A, então

( ) ( )1, , ,j jK A f K A f j m+⊂ < ,

e

( ) ( ), , ,j mK A f K A f j m= = .

Demonstração

É claro pela definição que o subespaço de Krylov formam uma sequência crescente,

( ) ( )1, ,j jK A f K A f+⊆

Seja p o polinómio mínimo de f sobre A. Seja j m≥ . Podemos afirmar que

( ) ( ), ,j mK A f K A f= .

Assim, é suficiente mostrar que ( ) ( ), ,j mK A f K A f⊆ .

Seja ( ),jy K A f∈ dado, então ( )y w A f= onde w é um polinómio de grau inferior a j.

Factorizando w,

( ) ( ) ( ) ( )w x g x p x r x= + ,

onde o grau de r é estritamente inferior a m, temos

( ) ( ) ( ) ( ) ( )y w A f g A p A f r A f r A f= = + = ,

É efectivamente elemento de ( ),mK A f . Concluímos assim que ( ) ( ), ,j mK A f K A f=

Seja agora j m< , temos que ( ) ( )1, ,j jK A f K A f+⊂ .

Por definição, ( )1 ,jjA f K A f+∈ , mas admitamos que ( ),j

jA f K A f∉ .

Suponhamos que ( ),jjA f K A f∈ , então temos ( )jA f q A f= para um polinómio de

grau inferior a 1j− . Mas, assim ( )( ) 0jA q A f− = , contradizendo a definição de m.

Concluímos assim que ( ) ( )1, ,j jK A f K A f+⊂ . �

Corolário 4.1 Seja m o grau de f sobre A, então ( ),mK A f é o mais pequeno

espaço vectorial invariante.

Page 86: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

74

4.2.3 O Algoritmo de Arnoldi

O algoritmo de Arnoldi usa o processo de Gram-Schmidt para calcular uma base

ortonormada para ( ),jK A f . Como o algoritmo clássico de Gram-Schmidt é

numericamente instável, é possível usar o processo modificado de Gram-Schmidt e/ou

reortogonalizando para resolver parcialmente este problema.

Matematicamente, os quatro algoritmos possíveis são equivalentes. Todavia o processo

modificado de Gram-Schmidt é mais fiável to que o processo clássico de Gram-

Schmidt.

Reortogonalização melhora a qualidade da base em ambos os casos e se a

reortogonalização for aplicada, não temos, virtualmente, nenhuma diferença entre o

método clássico e o método modificado. A diferença entre as quatro variantes foi

investigada por Giroud, Langlou e Rozlosnik.

ALGORITMO DE ARNOLDI COM O PROCESSO MODIFICADO DE GRAM-SCHMIDT (MSG)

(ALGORITMO 7)

1: 1 2:v f f=

2: for 1,2,...,j k= do

3: :j jw Av=

4: for 1,2,...,i j= do

5: : Tij i jh v w=

6: :j j i ijw w v h= −

7: end for

8: , 1 2:j j jh w+ =

9: if , 1 0j jh + = then

10: 1 : 0jv + =

11: :k j=

12: Exit

13: Else

14: 1 , 1:j j jv w h+ += ɶ

15: end if

16: end for

Page 87: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

75

Seja m o grau de f sobre A, e seja k m≥ , então o algoritmo de Arnoldi termina

exactamente após m iterações, e devolve a factorização da forma

m m mAV V H= ,

onde

[ ]1 2 ...m mV v v v= ,

é a matriz espandida com colunas ortonormais ( ),mK A f , e

11 12 1

21 22 2

32

, 1

m

m

m

m m mm

h h h

h h h

hH

h h−

=

⋯ ⋯

⋯ ⋯

⋱ ⋮

⋱ ⋱ ⋮

,

é uma matriz superior quadrada de Hessenberg.

Se k m< o algoritmo de Arnoldi termina após exactamente k iterações, e devolve a

factorização da forma

1k k kAV V H+= ɶ ,

onde

[ ]1 2 ...k kV v v v= ,

é constituída pelas primeiras k colunas de mV , que expande ( ),kK A f , e

11 12 1

21 22 2

32

1, ,

1,

k

k

k

k k k k

k k

h h h

h h h

hH

h h

h+

+

=

⋯ ⋯

⋯ ⋯

⋱ ⋮ɶ

⋱ ⋱ ⋮.

4.2.4 Métodos Standard de Subespaços de Krylov

Serão abordados agora quarto métodos standard de subespaço de Krylov: GMRES, CG,

CGNR, e BCG.

4.2.4.1 GMRES

O método GMRES foi trabalhado por Saad e Schultz [62]. Pode ser usado para

resolução do sistema linear Ax f= .

Page 88: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

76

Dado 0x , o algoritmo GMRES cria o resíduo 0 0r f Ax= −

E constrói o subespaço de Krylov

( ) { }2 10 0 0 0 0, , , , ..., j

jK A r span r Ar A r A r−= .

Para cada j o algoritmo devolve uma solução aproximada ( )0 0,j jx x K A r∈ + , tal que a

norma do resíduo correspondente j jr f Ax= − é mínimo, i.e.,

( ){ }0 022min : ,j jr f Ax x x K A r= − ∈ + .

O procedimento básico é dado pelo seguinte algoritmo onde é usado o processo

modificado de ortogonalização Gram-Schmidt.

ALGORITMO GMRES COM O PROCESSO DE GRAM-SCHMIDT MODIFICADO (MSG)

(ALGORITMO 8)

1: 0 0 0 1 02, : , :r f Ax r v rβ β= − = =

2: for 1,2,...,j k= do

3: :j jw Av=

4: for 1,2,...,i j= do

5: : Tij i jh v w=

6: :j j i ijw w v h= −

7: end for

8: , 1 2:j j jh w+ =

9: if , 1 0j jh + = then

10: :k j=

11:

Goto 16

12: Else

13: 1 , 1:j j jv w h+ += ɶ

14: end if

15: end for

16: Resolver o problema 1k kH y eβ=ɶ para kky ∈ℝ

17: Define-se 0k k kx x V y= +

Page 89: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

77

Seja m o grau de 0r sobre A. Na aritmética exacta, os resíduos devolvidos pelo GMRES

satisfazem

1 22 2 2... 0mr r r≥ ≥ ≥ = ,

porque

( ) ( ) ( )1 0 2 0 0, , ... ,mK A r K A r K A r⊆ ⊆ ⊆ ,

e

( )10 0 0,mx x A r K A r−− = ∈ .

Encontra-se em falta uma teoria geral de convergência de GMRES sendo um tópico

que se encontra actualmente em investigação.

Lema 4.3 Os resíduos devolvidos pelo algoritmo GMRES satisfaz

( ) ( ){ }0 22min : , 0 1 0j jr p A r p P p= ∈ = = ,

onde jP é o conjunto dos polinómios de grau inferior a j.

Demonstração

A demonstração segue directamente de definição de GMRES.

Considere-se uma família específica de polinómios. Seja A uma matriz quadrada, tal

que 2

1I A− <

Então A é não singular e

( )1

0

j

j

A I A∞

=

= −∑ ,

donde

( )0

0j

j

I A I A∞

=

− − =∑ .

Seja kω o polinómio dado por

( ) ( )1

0

1 1k

j

kj

x x xω−

=

= − −∑ . (4.1)

Assim, k kPω ∈ e ( )0 1kω = .

Temos também

( )

( )

( )1

0

0

k

kj j

j j k

A

I A I A A I A

ω

− ∞

= =

= − − − −∑ ∑��

,

que implica

Page 90: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

78

( ) 222

21

k

k

AA I A

I Aω ≤ −

− −.

Definindo 2

I Aρ = − , e estimando 2 2 2

A I I A≤ + − , então

( )2

1

1k

k Aρ

ω ρρ

+≤

−. (4.2)

Como consequência temos os seguintes teorema.

Teorema 4.1 Se A é uma matriz tal que 2

1I Aρ = − < , e se kr é o resíduo

após k iterações do algoritmo GMRES, então

02 2

1

1k

kr rρ

ρρ

+≤

−.

Teorema 4.2 Sejam A uma matriz diagonalizável, e AC C= Λ onde C é não

singular e { }1 2, , ..., ndiag λ λ λΛ = _ = diag{λ1, λ2, . . . , λn}, é diagonal. Se

max 1 1jρ λ= − < , e se kr é o resíduo após k iterações do algoritmo GMRES, então

( )2 02 2

1

1k

kr C rρ

κ ρρ

+≤

−,

onde ( ) 12 2 2C C Cκ −= .

Demonstração

Seja p um polinómio, então ( ) ( ) 1p A Cp Cλ −=

donde

( ) ( ) ( ) ( )1222 2 22

p A C p C C pκ−≤ Λ = Λ .

Conjugando este resultado com o Lema 4.3 temos

( ) ( ) ( ) ( )0 0 2 02 2 22 2 2k k k kr A r A r C rω ω κ ω≤ ≤ ≤ Λ ,

e usando o resultado (4.2), completamos a demonstração. �

Lema 4.4 Sejam A uma matriz quadrada qualquer e nf ∈ℝ . Se I A− tem característica

k, então o grau de f sobre A é no máximo 1k+ .

Demonstração

Se A é matriz quadrada e nf ∈ℝ então

( ) ( ) { } ( ), ,j jK A f K I A f span f Ran I A= − ⊆ + −ℝ

,

para todo o 1,2,...j = .

Seja m o grau de f sobre A, então

Page 91: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

79

( ) { } ( ),jK A f span f Ran I A⊆ + −ℝ

que implica que a dimensão de ( ),mK A f é no máximo 1k+ . Como

{ }: 0,1, 2, ..., 1jA f j m= −

é a base de ( ),mK A f conclui-se que 1m k≤ + .

Corolário 4.2 Se A é uma matriz não singular com k perturbações da matriz

identidade, então o GMRES converge em no máximo k iterações.

Demonstração

Seja nf ∈ℝ . Pelo lema anterior, o grau m de f sobre A é no máximo 1k+ .

Assim, o algoritmo GMRES constrói uma base de ( ),mK A f e converge após no

máximo k aplicações de A. �

Existe outro caso onde os resíduos podem ser estimados. É o caso em que 1ρ = e que

foi estudado por Gamti e Philippe [26]. O teorema que agora se apresenta é uma

generalização do resultado obtido.

Teorema 4.3 Seja A uma matriz não singular e diagonalizável com AC C= Λ , onde C

é não singular e { }1 2, , ..., ndiag λ λ λΛ = é diagonal.

Suponhamos que existe um inteiro k e que 1ρ < , tal que

1 , 1, 2,...,j j kλ ρ− ≥ =

e

1 , 1, 2,...,j j k k nλ ρ− < = + + .

Se mr é o resíduo após m k≥ iterações do algoritmo GMRES, então

( ) ( )2 02 22

1

1m k

m kr C p rρ

κ ρρ

−+≤ Λ

−,

onde kp é o polinómio de grau k dado por

( ) 0, 1, 2,...,k jp j kλ = = pk(λj) = 0, j = 1, 2, . . . , k

e ( )0 1kp = .

Demonstração

De notar que kp está bem definido, porque A é não singular, ou seja 0jλ ≠ , para todo

j. Temos então que

Page 92: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

80

( )1

1k

kj j

xp x

λ=

= −

∏ .

Seja m k≥ e considere-se o polinómio

( ) ( ) ( )m k m kq x p x xω −= ,

onde m kω − é definido pela equação (1.36). Claramente ( )0 1mq = e

( ) ( ) ( )0 2 02 22 2m m mr q A r C q rκ≤ ≤ Λ ,

donde se obtém uma estimativa de ( )2mq Λ . Temos

( )( )

( )2

maxm mA

q qλ σ

λ∈

Λ = .

Embora por definição,

( ) ( ) ( ) 0, 1, 2,...,m j k j m k jq p j kλ λ ω λ−= = = ,

que implica

( ) ( )2

maxm m jj k

q q λ>

Λ ≤ .

Assim temos

( ) ( )( ) ( )( )2max maxm k j m k jj k j k

q p λ ω λ−> >

Λ ≤ .

Como 1 jλ ρ− < para j k> , temos

( ) 1,

1m k

m k j j kρ

ω λ ρρ

−−

+≤ >

−.

Podemos então concluir que

( ) ( )2 2

1

1m k

m kq pρ

ρρ

− +Λ ≤ Λ −

e como consequência

( ) ( )2 02 22

1

1m k

m kr C p rρ

κ ρρ

− +≤ Λ −

. �

Estes teoremas não implicam que GMRES convirja rapidamente, devido a 2κ poder tão

grande que os limites se tornam desadequados.

No entanto, se 2

1I A− < ou se A é não singular e I A− tem característica baixa, então

o GMRES converge rapidamente para a solução.

Page 93: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

81

4.2.4.2 CG

Tanto Lanczos [50], como Hestenes e Stiefel [36] foram os impulsionadores do

algoritmo que será agora exposto. Este algoritmo, algoritmo do gradiente conjugado

(Conjugate gradient), é aplicado a Ax f= , onde A é uma matriz simétrica definida

positiva. A formulação enunciada de seguida é a formulação standard do referido

algoritmo.

ALGORITMO STANDART CG PARA Ax f= (ALGORITMO 9)

1: 0 0 0 0,r f Ax p r= − =

2: for 0,1,2,...,j = até convergir do

3: ( ) ( ): , ,j j j j jr r Ap pα =

4: 1 :j j j jx x Apα+ = +

5: ( ) ( )1 1: , ,j j j j jr r r rβ + +=

6: 1 1:j j j jp r pβ+ += +

7: end for

De modo a estudar a convergência do CG é conveniente introduzir a Norma-A, que é

dada por ( ),A

x x Ax= .

Se A é simétrica e definida positive, então A é norma, e min max2 2A

x x xλ λ≤ ≤ .

Os lemas seguintes caracterizam as aproximações obtidas através do algoritmo CG.

Lema 4.5 (Saad [63]) Seja jx a aproximação obtida após j iterações do algoritmo CG, e

seja x a solução exacta, então jx é da forma

( )0 0j jx x q A r= + ,

onde jq é um polinómio de grau 1j− tal que

( )( )( ) ( )( )( )0 0minj jA AAx x I Aq A x x I Aq A x x− = − − = − −

Se A tiver k valores próprios distintos, então o algoritmo CG converge usando no

máximo k iterações.

O Lema seguinte pode ser usado para estimar a Norma-A do erro.

Page 94: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

82

Lema 4.6 (Saad [63]) Seja A simétrica e definida positive e considere o sistema linear

Ax f= . Se *x é a solução, e jx j-ésima aproximação obtida pelo algoritmo CG, então

* * 0

12

1

j

j AAx x x x

κκ

−− ≤ −

+ .

Vemos assim que se A é matriz simétrica definida positive, então o algoritmo CG

converge rapidamente.

4.2.4.3 CGNR

O algoritmo CGNR pode ser usado para resolver a solução do sistema linear Ax f= ,

onde A é uma matriz não singular em ordem a x.

ALGORITMO STANDART CGNR PARA Ax f= (ALGORITMO 10)

1: 0 0 0 0 0 0, : , :Tr f Ax z A r p z= − = =

2: for 0,1,2,...,j = até convergir do

3: :j jw Ap=

4: 2 2

2 2j j jz wα =

5: 1j j j jx x pα+ = +

6: 1 1: Tj jz A r+ +=

7: 2 2

1 2 2j j jz zβ +=

8: 1 1j j j jp z pβ+ += +

9: end for

A aproximação jx é tal que o resíduo correspondente

j jr f Ax= − ,

satisfaz

( ){ }0 022min : ,T T

j jr f Ax x x K A A A r= − ∈ + .

A diferença entre esta expressão e a expressão do algoritmo GMRES, é o subespaço

onde o resíduo é minimizado.

Este é algoritmo é basicamente o algoritmo CG aplicado à equações normais,

T TA Ax A f= ,

Page 95: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

83

onde a diferença mais importante reside no cálculo dos resíduos reais jr , bem como nos

resíduos jz das equações normais.

Este algoritmo mantém as propriedades de convergência do algoritmo CG.

4.2.4.4 BCG O algoritmo do gradiente biconjugado (biconjugate gradient), pode ser usado para

resolução de um sistema de equações (pair of adjoint equations),

Ax f= (4.3)

TA x g= (4.4)

ALGORITMO BCG PARA RESOLUÇÃO DE UM SISTEMA DE EQUAÇÕES (ALGORITMO 11)

1: * *0 0 0 0, Tr f Ax r g A x= − = −

2: for 0,1,2,...,j = até convergir do

3: ( ) ( )* *: , ,j j j j jr r Ap pα =

4: 1j j j jx x pα+ = +

5: * * *1j j j jx x pα+ = +

6: 1j j j jr r Apα+ = −

7: * * *1

Tj j j jr r A pα+ = −

8: ( ) ( )* *1 1: , ,j j j j jr r r rβ + +=

9: 1 1j j j jp r pβ+ += +

10: * * *1 1j j j jp r pβ+ += +

11: end for

O algoritmo BCG é reduzido ao algoritmo CG no caso especial em que TA A= é uma

matriz simétrica definida positive e f g= .

Este algoritmo termina prematuramente se ( )*, 0j jr r = para qualquer valor de j. Existe

pouca informação relativamente à sua convergência. O algoritmo não converge

necessariamente, e registo dos resíduos pode ser enganador e é necessário encontrar um

précondicionante bom.

Page 96: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

84

Este algoritmo é exposto, embora com todas as suas limitações, dados pretendermos

resolver as equações de Lyapunov

0T TAX XA BB+ + = ,

0T TA Y YA C C+ + = ,

as quais são matematicamente equivalentes às equações lineares standard

( ) ( ) 0TAvec X vec BB+ =ɶ ,

( ) ( ) 0T TA vec Y vec C C+ =ɶ ,

onde A I A A I= ⊗ + ⊗ɶ .

4.2.5 - Métodos para problemas com matrizes esprsas

Nesta secção serão apresentados métodos iterativos standards para as equações de

Lyapunov, onde A é uma matriz grande.

Começaremos por rever os métodos standards de Subespaços de Krylov para resolução

de equações de Lyapunov. É ainda necessário fazer uma breve introdução ao algoritmo

do bloco de Arnoldi que é uma extensão do algoritmo básico de Arnoldi discutido no

subcapítulo 4.2.3.

4.2.5.1 - Algoritmo do Bloco de Arnoldi

Definição 4.3 Sejam A uma matriz quadrada de dimensão n, B uma matriz de

dimensão n p× , e seja j um inteiro positivo. O bloco do subespaço de Krylov ( ),jK A B

é definido por

( ) 2 1, ... j njK A B Ran B AB A B A B− = ⊆ ℝ ,

i.e. ( ),jK A B é a representação da transformação linear : jp nφ →ℝ ℝ dada por

( )

1

22 1... j

jp

x

xx B AB A B A B

x

φ −

=

⋮.

Fica claro que o bloco dos subespaços de Krylov forma uma sequência crescente

( ) ( )1, ,j jK A B K A B+⊆ , j∈ℕ ,

e existe m tal que

( ) ( ), ,j mK A B K A B= , para todos j m≥ .

Page 97: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

85

Esta observação justifica a seguinte definição.

Definição 4.4 O m mais pequeno tal que ( ) ( ), ,j mK A B K A B= , para todos j m≥ é

chamado de grau de B sobre A .

O algoritmo do bloco de Arnoldi pode ser usado para determinar uma base ortonormal

para os subespaços de Krylov ( ),jK A f . Uma versão do algoritmo do bloco de Arnoldi

é dada pelo seguinte Algoritmo. Se forem corridos k m≤ iterações do algoritmo,

obtemos a matriz kV definida por

[ ]1 2 ...k kV Q Q Q= ,

com colunas ortonormadas geradas por ( ),kK A B . Se definirmos kH como os bloco

superior da matriz de Hessenberg dada por

11 12 1

21 22

32 33

, 1 ,

0

k

k

k k k k

H H H

H H

H HH

H H−

=

⋯ ⋯

⋯ ⋯ ⋮

⋯ ⋮

⋮ ⋱ ⋱ ⋱ ⋮

⋮ ⋱ ⋱

,

então

1 1,T

k k k k k k kAV V H Q H E+ += + , k m< ,

onde kE é constituída pelas últimas kp colunas da matriz identidade de dimensão

k kn n× e m m mAV V H= , k m= .

Os números kp e kn são criados pelo algoritmo de forma a não se perder rasto da

partição das matrizes kV e kH . Especificamente, kV é uma matriz de dimensão kn n× e

ijH uma matriz de dimensão i jp p× .

O algoritmo termina após k m= iterações.

Os blocos da subdiagonal 1,i iH + não são necessariamente triangulares superiores, mas

são permutações de matrizes triangulares superiores.

É importante notar que qualquer característica de B , bem como os blocos de vectores

intermédios jW reflecte-se no bloco de mV e mH , especificamente temos

( )1p rank B= ,

Page 98: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

86

ALGORITMO DOS BLOCOS DE ARNOLDI COM PIVOTAÇÃO DE COLUNAS (ALGORITMO 12)

1: Determinar

11 121 2

ˆ ˆ0 0

R RBP Q Q

= , (4.5)

using a característica revealing QR algoritmo with column pivoting

2: for 1,2,...,j k= do

3: 1 2 1 2: , , , , :j j j jV Q Q Q n p p p = = + + + … ⋯

4: :j jW AQ=

5: for 1,2,...,i j= do

6: : Tij i jH Q W=

7: :j j i ijW W QH= −

8: end for

9: if 0jW = then

10: 1 1 1: 0, : , 0j j j jQ n n p+ + += = =

11: :k j=

12: return

13: else

14: Determinar

( 1) ( 1)

( 1) ( 1) 11 121 2

ˆ ˆ0 0

j jj j

j j

R RW P Q Q

+ ++ +

=

using a característica revealing QR algoritmo with column pivoting

15: ( ) ( )1 ( 1) ( 1) 11 1 1 1, 11 12: , : ,j j j

j j j j j jp rank W Q Q H R R P+ + + −+ + + = = =

16: end if

17: end for

e

( )1j jp rank W+ =

para 1,2,...,j m= .

Podemos ainda indicar que as matrizes jH satisfazem

Tj j jH V AV= ambas para j m< e para j m= .

Page 99: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

87

Se A é uma matriz esparsa, então a parte mais dispendiosa do algoritmo do bloco de

Arnoldi é o processo modificado de Gram-Schmidt.

4.2.5.2 - Método de Arnoldi

O método de Arnoldi para equações de Lyapunov foi mostrado por [65] que considerou

o caso de 1p = , e Jaimoukha e Kasenally [44] que estenderam o método para o caso

geral de 1p > . A convergência deste método foi estudada por Simoncini e Druskin

[68].

Serão feitos comentários ao longo da apresentação deste algoritmo tendo em vista a

estabilidade e limitações deste método.

Sejam jV , e jH as matrizes geradas aplicando o algoritmo dos blocos de Arnoldi às

matrizes A e B, i.e.

1 1, ,Tj j j j j j jAV V H Q H E j m+ += + < , e m m mAV V H= .

Considerem-se as aproximações da forma

Tj j j jX V YV= ,

onde jY é uma matriz quadrada com dimensão jn .

Pelo Teorema 1.18 obtemos uma solução verdadeira para j m= .

O resíduo correspondente a jX é dado por

( ) T T T Tj j j j j j jR X AV YV V YV A BB= + + .

O método de Arnoldi devolve jY tal que a condição de Galerkin

( ) 0Tk k kV R X V = ,

é satisfeita.

O Teorema seguinte foi provado por Jaimoukha e Kasenally.

Teorema 4.4 Suponhamos que k m< iterações do algoritmo dos blocos de Arnoldi

foram feitos, então uma aproximação da forma Tj j j jX V YV= satisfaz a condição de

Galerkin ( ) 0Tk k kV R X V = , se e só se kY é solução de 0T T T

k k k k k kH Y Y H V BB V+ + = ,

onde a norma de Frobenius do resíduo ( )kR X é dado por

( ) 1,2 Tk k k k kF F

R X H E Y+= .

Page 100: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

88

Se foram feitos k m= iterações do Algoritmo dos Blocos de Arnoldi, então o resíduo

correspondente é zero e a solução exacta é obtida.

Demonstração:

A demonstração é elementar e pode ser encontrada em [44].

O problema fundamental é assegurar que cada uma das equações de ordem reduzida

The fundamental problem is to ensure that each of the reduced order equations

0T T Tk k k k k kH Y Y H V BB V+ + = ,

tem uma solução única kY . Se H é uma matriz real, então a equação de Lyapunov

0THY YH Q+ + =

tem uma solução única Y para cada escolha de Q se e só se 0λ µ+ ≠ para cada par de

valores próprios λ e µ para H.

No nosso caso a matriz original A é estável, o que nos garante que a equação original

tem uma solução única. Todavia, tal como se pode ver no exemplo, pode não ser

suficiente para assegurar que as equações de ordem reduzida têm solução única.

Exemplo 4.1:

Seja A uma matriz quadrada de ordem n dada por

Tn nA T e e= − , (4.6)

onde T é uma matriz diagonal-constante de Toeplitz dada por

0 1

1 0 1

0 1

1 0

T

− = −

⋱ ⋱ ⋱

e ne é a última coluna da matriz identidade de ordem n.

A matriz A é estável, mas se nB e= , então as equações de ordem reduzida

0T T Tk k k k k kH Y Y H V BB V+ + =

são singulares para todo o k, excepto se k m= .

Note-se que A está na forma de Hessenberg superior e como nB e= , as matrizes kH

são dadas por

( )1: ,1 :kH A k k= para 1, 2, ,k m= … .

Page 101: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

89

Para k m< ( ) ( )1: ,1 : 1 : ,1 :A k k T k k= é diagonal-constante, e é claro que as equações

correspondentes de ordem reduzida de Lyapunov são todas singulares. No entanto, se A

é definida negativa, i.e.

0TA A+ < ,

então TV AV é estável para qualquer matriz V de dimensão n p× com colunas

ortonormais e p n≤ .

A matriz A dada por (4.6) é definida não negativa.

É possível indicar o método de Arnoldi como Algoritmo 12. Resolvendo as primeiras k

equações de Lyapunov usando o método de Bartels-Stewart serão necessárias ( )4 3O k p

operações aritméticas e para avaliar os primeiros k resíduos serão necessárias ( )3 3O k p

operações aritméticas.

Quando n é grande, estes valores são insignificantes comparados com os valores depois

de decorridas k iterações do algoritmo dos blocos de Arnoldi, que é ( )2 2O np k .

Input: As matrizes jV e jH geradas após a execução do algoritmo dos blocos de

Arnoldi, para uma matriz A definida negativa e uma matriz B de dimensão n p× .

Output: Uma solução aproximada da forma Tj j j jX V YV= .

ALGORITMO PARA O MÉTODO BASICO DE ARNOLDI PARA EQUAÇÕES CONTÍNUAS DE

LYAPUNOV (ALGORITMO 13)

1: for 1,2,...,j = até convergir do

2: Resolver a equação de ordem reduzida 0T T Tj j j j j jH Y Y H V BB V+ + =

3: Calcular a norma de Frobenius ( ) 1,2 Tj k k k k FF

R X H E Y+= onde kE

consiste nas últimas kp colunas da matriz identidade de dimensão kn

4: end for

A convergência deste método foi estudada por Simoncini e Druskin [68], os quais

consideraram as equações de Lyapunov da forma

, 0T T TAX XA BB A A+ = = > .

Page 102: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

90

Teorema 4.5 (Simoncini e Druskin [68]) Sejam A uma matriz simétrica definida

positive, e minλ o menor valor próprio de A. Sejam minλ e maxλ os valores próprios de

minA Iλ+ e maxˆκ λ λ= .Então

2min

ˆ ˆ1 1ˆ ˆ ˆ 1

k

kX Xκ κ

λ κ κ

+ −− ≤ +

. (4.7)

Consideraram ainda o caso de ser não simétrica e provaram um conjunto de teoremas,

sendo o enunciado de seguida o mais simples.

Teorema 4.6 (Simoncini e Druskin [68]) Assuma-se que os campo de valores da matriz

real A está contido numa elipse de centro ( ),0c , 0c > , foco ( ),0c d± e semi-eixos 1a e

2a , com 1 2a a> , tal que 2 21 2d a a= − . Então

( )2

2 22 2

min

8 1

1

m

k

rX X

r rc dα

− ≤ − + −

, (4.8)

onde

( )2 2min2 min

1

2 2

cr c d

r r

αα

+= + + − , e 1 2

2r

α α+= .

Será mostrado agora que o método de Arnoldi pode ter um historial de resíduos

arbitrários:

Dado um inteiro positive n e a sequência de números reais { } 1

1

n

j jr

= é possível construir

uma matriz definida negativa A e um vector coluna nB∈ℝ , tal que o método de

Arnoldi devolve uma sequência de resíduos ( )jR X , para os quais

( ) , 1, 2,..., 1j jF

R X r j n= = − .

O lema seguinte constrói uma família de matrizes definidas negativas que não são

afectadas pelo algoritmo básico de Arnoldi, Algoritmo 7.

Page 103: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

91

Lema 4.7 Seja A uma matriz quadrada real de dimensão n, dada por

1 1

1 2 2

2

1 1

1

n n

n n

A

ε αα ε α

αε α

α ε− −

− − − − =

− − −

⋱ ⋱

, (4.9)

onde 0, 1,2,...,i i nε > = e 0, 1,2,..., 1i i nα > = − . Desta forma A é definida negativa.

Se B é o primeiro vector coluna da matriz identidade de dimensão n, então o grau de B

sobre A é n, e o algoritmo básico de Arnoldi, Algoritmo 6, devolve a factorização trivial

n nAI I A=

quando aplicada ao par ( ),A B .

Demonstração

A é definida negative, devido ao facto dos elementos da subdiagonal foram escolhidos

de forma a cancelarem os elementos da subdiagonal correspondente, i.e.

( ) { }1 2

1, ,..., 0

2T

nA A diag ε ε ε+ = − − − < .

Como A é uma matriz superior de Hessenberg, e cada 0iα ≠ para 1, 2,..., 1i n= − , então

os n vectores

, 0,1,..., 1jA B j n= −

formam um conjunto independente, consequentemente o grau de B sobre A é n.

O Algoritmo de Arnoldi aplicado ao par ( ),A B retornará uma base ortonormal V de

( ), nK A B =ℝ bem como H, uma matriz Hessenberg superior, tal que AV VH= .

Todavia, temos a factorização trivial n nAI I A= , e como A é uma matriz Hessenberg

superior com a subdiagonal positiva, e nI tem colunas ortonormais, temos que nV I= e

A H= .

Sejam 0, 1,2,...,i i nε > = e 0, 1,2,..., 1i i nα > = − .

Sejam A dada por (4.8) e B o primeiro vector coluna da matriz identidade de dimensão

n. Considere-se a Equação de Lyapunov 0T TAX XA BB+ + = .

É possível aplicar o método de Arnoldi porque A é definida negativa. A norma de

Frobenius do resíduo ( )jR X é dada por

Page 104: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

92

( ) 1,2 , 1, 2,..., 1Tj j j j j FF

R X H E Y j n+= = − ,

onde jE é a última coluna de matriz identidade de dimensão j e jY é a solução da

equação de ordem reduzida

0T T Tj j j j j jH Y Y H V BB V+ + = .

Como, por construção a matriz A não é afectada pelo processo de Arnoldi, temos que as

equações de ordem reduzida são

( ) ( ) ( ) ( )1: ,1: 1: ,1: 1: 1: 0, 1,2,...,T T

j jA j j Y Y A j j B j B j j n+ + = = (4.9)

e que a norma de Frobenius dos resíduos é dada por

( ) ( ) ( )2 1: , 2 1: , , 1, 2, ..., 1j j j j jF FFR X Y j j Y j j j nα α= = = − .

O número real jα é o valor da entrada ( )1,j j+ da matriz A, portanto não está

envolvida no calculo de jY . Se a thj linha de jY é não nula, então jα é possível

escolher ( )jF

R X de forma a obtermos qualquer valor desejado.

Como jY é simétrica, basta mostrar que a thj coluna de jY é não negativa.

É claro que 0jY ≠ , por causa dos termos não homogéneos Tj jB B são não nulos.

Todavia, apenas a entrada ( )1,1 desta matriz é não nula, e é possível usar esta estrutura

para mostrar que se ( ):, 0jY j = , então 0jY = , que é uma contradição.

Seja 1j > , colocando as thj colunas de ambos os lados de (4.9) temos que

( ) ( ) ( ) ( ) 11: ,1 : :, :, :, 1 0,j j j j jA j j Y j Y j Y jε α −− + − =

porque A tem apenas uma subdiagonal. Se as thj colunas de jY desaparecessem, então

esta expressão reduzia para ( ) 1:, 1 0j jY j α −− =

e como 1 0jα − >

temos que ( ):, 1 0jY j − = . Suponhamos que 1 i j< < e temos

estabelecido que ( ) ( ) ( ):, :, 1 ... :, 0j j jY i Y i Y j= + = = = , então podemos afirmar que

( ):, 1 0jY i − = .

Colocando as thi colunas de ambos os lados de (4.9) temos que

( ) ( ) ( ) ( ) ( ) 11: ,1 : :, :, 1 :, :, 1 0j j i j i j iA j j Y i Y i Y i Y iα ε α −− + − + − = .

Assumindo que cada coluna ( ):, 1jY i + e ( ):,jY i são nulas ficamos com

( ) 1:, 1 0j iY i α −− = donde ( ):, 1 0jY i − = .

Page 105: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

93

Conclui-se assim que se a última coluna de jY é nula, então jY é nula, o que é uma

contradição logo a última coluna de jY é sempre não nula.

Input: Inteiro 0n > , 0, 1, 2,..., , 0, 1, 2,..., 1j jj n r j nε > = > = − .

Output: n nA ×∈ℝ definida negativa, nB∈ℝ , tal que os resíduos devolvidos pela

método de Arnoldi, Algoritmo 13, satisfazem ( ) , 1, 2,..., 1j jF

R X r j n= = − .

ALGORITMO PARA CONSTRUÇÃO DE UMA EQUAÇÃO ESPECIAL DE LYAPUNOV

(ALGORITMO 14)

1: Definir ( ), : iA i i ε= − para 1, 2,...,i n= e ( ): :,1nB I= .

1: for 1,2,..., 1j n= − do

2: Resolver ( ) ( ) ( ) ( )1: ,1: 1: ,1: 1: 1: 0T T

j jA j j Y Y A j j B j B j+ + =

3: Definir ( )

:2 :,

jj

j F

r

Y jα =

4: Definir ( ) ( )1, : , , 1 :j jA j j A j jα α+ = + = −

5: end for

O Algoritmo 12 constrói uma equação de Lyapunov definida negativa para a qual o

método de Arnoldi tem um histórico de resíduos dados.

O método de Arnoldi não explora os fenómenos de característica baixa.

4.2.5.3 - Método GMRES

O método GMRES é devido a Jaimoukha e Kasenally [44], devolve uma aproximação

da forma Tj j j jX V YV= , onde as matrizes jV são determinadas aplicando o algoritmo dos

blocos de Arnoldi às matrizes A e B. A matriz jY é escolhida de forma a que a norma de

Frobenius do resíduo ( ) T Tj j jR X AX X A BB= + +

é minimizado sobre todas as

matrizes simétricas jY , i.e.

( ) ( ){ }: ,T Tj j j j j jFF

R X R X X V Y V Y Y= = = .

O problema de trabalhar o minimizante de jY é um problema linear dos mínimos

quadrados com 2jn desconhecidos, onde jn é o número de colunas de jV :

Page 106: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

94

( ) ( ) ( )2 2

T T T Tj j j j j j j j j

FR X AV Y V V Y V A BB A V vec Y b= + + = + ɶ ,

onde

( )j j j j jA V V AV AV V= ⊗ + ⊗ ,

é uma matriz de dimensão 2 2jn n× , e ( )Tb vec BB=ɶ .

Vejamos agora o quando é que este problema tem solução única.

Se A é definida positive, então ( )jA V tem característicagrande, porque

( ) ( ) 0 0 0T T T T T Tj j j j j j j j j j j j j jA V vec Y AV YV V YV A V AV Y YV A V= ⇒ + = ⇒ + = ,

que implica 0jY = , porque Tj jV AV é estável. De um modo geral, jn jp≤ e jn jp= são

possíveis.

Se A é definida negativa, então é possível determinar jY usando ( )6 6O j p operações

aritméticas, resolvendo as equações

( ) ( ) ( ) ( ) 0T T

j j j jA V A V vec Y A V b+ =ɶ .

Jaimoukha e Kasenally [44] deduziram um algoritmo, que tira partido da estrutura

especial do problema com vista a criar uma sequência de problemas mais pequenos que

podem ser resolver independentemente. Este algoritmo também requer ( )6 6O j p

operações aritméticas.

Esta abordagem tem, todavia, as seguintes limitações:

• Para que sja possivel pivotamento de colunas, é fundamental que os blocos

subdiagonais do bloco superior da matriz de Hessenberg jH produzido pelo

algoritmo do dos blocos de Arnoldi sejam triangulares superiores. Se o

algoritmo dos blocos de Arnoldi usa o pivotamento de colunas para tratar

degradação da característica, então esta estrutura perde-se.

• Cada aproximação é construída como uma combinação linear de soluções de

uma equação de Lyapunov especializada. A combinação linear a usar é dada

como solução de um sistema linear muito específico. Mas, infelizmente o

número de condições deste sistema linear tem a tendência para crescer

exponencialmente com o número de iterações até ao ponto de ser totalmente

impossível determinar que combinação linear utilizar.

Page 107: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

95

Pelas suas experimentações, Jaimoukha e Kasenally [44] observaram que o número de

iterações utilizadas no método de Arnoldi é ligeiramente maior do que o número de

iterações no método GMRES.

4.3 - Métodos de Ward e de Kirrinnis

Serão apresentadas duas estratégias mais recentes para resolver a equação de Lyapunov.

Ambas usam factorizações matriciais de uma das matrizes coeficientes da equação

(0.1), enquanto Ward emprega a decomposição de Jordan de uma matriz no algoritmo

por si proposto enquanto Kirrinnis usa a decomposição à custa de uma matriz

companheira com um propósito semelhante.

4.3.1 - Método de Ward

Ward [80] apresentou uma técnica para determinar a solução n,mMX ∈ da equação de

Sylvester CBXXA =− , onde mMA∈ , nMB∈ e n,mMC ∈ são matrizes

conhecidas, que consistia em reduzir apenas uma das matrizes coeficientes A ou B à

forma de Jordan.

Inicialmente esta abordagem foi proposta para resolver equações no caso de terem

solução única, tendo sido desenvolvida para o caso mais geral da equação

CBXXA =− poder ter múltiplas soluções. Tal como nos métodos apresentados no

capítulo anterior será feita a adaptação ao caso em estudo sendo TB A= − .

Seja JPAP =−1 uma decomposição de Jordan da matriz A. Multiplicando à esquerda a

equação TAX X A C+ = por 1−P obtemos ( )1 1 1 1TP A PP X P X A P C− − − −+ = , ou

equivalentemente

TJ Y Y A D+ = , (4.10)

onde XPY 1−= e CPD 1−= .

Transpondo ambos os membros de (4.10) e utilizando as propriedades da matriz

transposta, obtemos

( ) ( ) ( )T TTT T TD J Y Y A J Y Y A= + = + T T TY J AY= + .

Aplicando a função vec a ambos os membros da equação anterior e tendo em atenção o

teorema 2.1 resulta

Page 108: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

96

( )=TDvec ( )T T Tvec Y J AY+ ( ) ( )T T Tvec Y J vec AY= +

( )( ) ( )TT TmJ I vec Y= ⊗ ( ) ( )T

mI A vec Y+ ⊗

( ) ( )Tm mJ I I A vec Y= ⊗ + ⊗ .

Como tal, a equação matricial (4.10) é equivalente ao sistema de equações lineares

( ) ( )Tm mJ I I A vec Y⊗ + ⊗ ( )TDvec= . (4.11)

Ward [80] realçou o facto da matriz dos coeficientes deste sistema, designada por

nivelador da equação, ter uma estrutura por blocos que se assemelha à estrutura da

forma canónica de Jordan da matriz A. Ou seja, por cada bloco de Jordan ( )λrJ contido

em J, a matriz do sistema anterior contém uma submatriz por blocos (de ordem rm) da

forma

( )

0

0

m m

mr

m

m

I A I

I AS

I

I A

λ

λλ

λ

+ + =

+

⋱ (4.12)

que tem uma estrutura semelhante à de ( )λrJ .

Suponhamos que a matriz mMA∈ tem uma forma canónica de Jordan diagonal, i.e.,

=− PAP 11 0

0 m

λ

λ

para alguma matriz invertível mMP∈ . Assim, o sistema de equações lineares (4.11) é

equivalente a

1 0

0 m

L

L

− −

1

m

y

y

1

m

d

d

=

⋮ , (4.13)

onde i i mL A Iλ= − − ; m,...,i 1= , e ( )mT y,,y,yY ⋯21= , ( )m

T d,,d,dD ⋯21= . A

solução Y da equação (4.10) (se existir) obtém-se linha a linha, resolvendo

independentemente cada um dos m sistemas lineares iii dyL =− , cada um com m

equações.

Page 109: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

97

Consideremos agora o caso mais geral em que A tem uma forma canónica de Jordan

contendo p blocos de Jordan de ordens pm,,m,m ⋯21 com valores próprios

p,,, λλλ ⋯21 , respectivamente. Neste caso, tendo em atenção a fórmula (4.12), o

sistema de equações lineares (4.11) pode ser rescrito como

( )

( )

1 1 0

0p

m

m p

S

S

λ

λ

⋱1

m

y

y

1

m

d

d

=

⋮ , (4.14)

onde ( )mT y,,y,yY ⋯21= e ( )m

T d,,d,dD ⋯21= .

Este sistema pode ser dividido em p equações matriciais

( )imiS λ

1

i

k

k m

y

y

+

+

⋮ =1

i

k

k m

d

d

+

+

⋮ , com p,,i ⋯1= , (4.15)

onde 121 −+++= im...mmk para 1>i e 0=k se 1=i , correspondendo aos p blocos

de Jordan da forma canónica da matriz A.

Cada uma das equações (4.15) é independente das outras 1−p equações e a equação

matricial (4.10) tem solução se e só se cada uma das equações (4.15) a tiver.

Mostraremos agora como é obtida a solução da primeira equação (4.15). A forma de

determinar cada uma das outras equações é análoga.

Consideremos a equação

( )11λmS

1

1

m

y

y

⋮ =

1

1

m

d

d

1

1

1

0

0

n

n

L I

L

I

L

− − ⇔

⋱1

1

m

y

y

⋮ =

1

1

m

d

d

⋮ , (4.16)

sendo 1 1 mL A Iλ= − − . Multiplicando os dois membros à esquerda pela matriz triangular

inferior

Page 110: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

98

1 1 1

1

21 1

3 21 1 1

1 2 31 1 1 1

0m

m

m

m m mm

I

L I

L L I

L L L

L L L L I− − −

⋮ ⋮ ⋮ ⋱ ⋱

(4.17)

reduzimos o sistema (4.16) à forma

1

1

21

31

1

0 0

0

0 0

0

0 0 0

m

m

m

m

m

L I

L I

L I

I

L

− − − −

⋱ ⋮

⋱ ⋱

⋮ ⋮ ⋮ ⋱

1

1

m

y

y

1 1

1 1

1

1 1 2

21 1 1 2 3

1 21 1 1 2 1 1m m

m m

d

L d d

L d L d d

L d L d L d d− −−

+ + += + + + +

(4.18)

que é equivalente a

++++=−

+++=+−

++=+−

+=+−

=+−

−−−

−−−−

11111

111

11

1122

111

111

123

112

111

1

32112141

31

2113121

1211

mmmmm

mmm

mm

ddLdLdLyL

ddLdLyyL

ddLdLyyL

ddLyyL

dyyL

⋮. (4.19)

Consideremos agora a última equação do sistema anterior da qual conhecemos o segun-

do membro, porque tanto a matriz 1L como os vectores 121 md,,d,d ⋯ ficam

completamente determinados no momento em que é conhecida uma decomposição de

Jordan da matriz A. Logo a existência de solução única para esta última equação

depende apenas do determinante de 1L .

Como ( ) ( )1 1det det nL A Iλ= − − 0≠ porque 1λ não é um valor próprio de TA− (uma

matriz quadrada e a sua transposta têm o mesmo espectro).

Nestas condições da última equação de (4.19) obtém-se

( ) ( )11

111112

211

11

1

11 mmmmm ddLdLdLLy ++++−= −

−−−⋯ ∑

=

−−=1

11

m

ii

i dL . (4.20)

Page 111: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

99

e substituindo 1y nas restantes equações podemos determinar completamente a solução

do sistema (4.19).

Em conclusão, é um método para resolver a equação de Sylvester (no caso analisado

nesta dissertação TB A= − ) que requer a determinação de um conjunto de sistemas de

equações lineares em número igual ao de blocos de Jordan, da matriz transformada para

esta forma canónica.

De modo análogo se determinaria a solução da equação com a transformação de TA .

No exemplo seguinte será aplicado o método quando A é uma matriz que já se encontra

na forma canónica de Jordan.

4.3.2 - Método de Kirrinnis

A ideia geral deste algoritmo consiste em transformar as matrizes A e B para uma forma

particular (de matrizes companheiras) de forma a tornar possível uma resolução mais

célere.

Inicialmente, e para introduzir a descrição deste método, considerou-se o caso particular

de TA− ser uma matriz de Hessenberg inferior com os elementos da sobrediagonal

iguais a um, i.e.,

11

12 22

1 2

1 0

1

T

m m mm

a

a aA

a a a

− − − = −

⋮ ⋮ ⋱

, (4.21)

onde

11 12 1

22 21

1

0

m

m

mm

a a a

a aA

a

− = −

⋮ ⋱ ⋮.

Como foi visto, a equação TAX X A C+ = é equivalente ao sistema de 2m equações

lineares ( ) ( ) ( )m mI A A I vec X vec C⊗ + ⊗ = . Atendendo a especificidade da matriz

TA− , a matriz dos coeficientes do sistema anterior pode ser rescrita como

Page 112: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

100

0 0

0 0

0 0

A

A

A

⋮ ⋮ ⋱ ⋮

11 21 1

22 2

0

m m m m

m m m m

m mm m

a I a I a I

I a I a I

I a I

− +

⋱ ⋱ ⋮

11 21 1

22 2

0

m m m m

m m m m

m mm m

A a I a I a I

I A a I a I

I A a I

+ − + =

− +

⋱ ⋱ ⋮.

Suponhamos que a última coluna mx da matriz das incógnitas X é conhecida. Então do

produto da última linha da matriz anterior por ( ) ( )1 , ,TT T

mvec X x x= ⋯ e igualando-a à

última “coordenada” mc de ( ) ( )1 , ,TT T

mvec C c c= ⋯ obtemos a equação

( )1m m mm m m mI x A a I x c−− + + = ( )1m mm m m mx A a I x c−⇔ = + − .

Por sua vez esta permite determinar directamente a penúltima coluna da matriz solução

X. Da igualdade do produto da penúltima linha da matriz por blocos anterior por

( )Xvec com 1mc − , resulta

( )2 1, 1 1 , 1 1m m m m m m m m m mI x A a I x b x c− − − − − −− + + + = 2 1 , 1 11

m

m m i m i mi m

x A x a x c− − − −= −

⇔ = + −∑ ,

sendo obtida a antepenúltima coluna 2mx − da solução.

Deste modo, as primeiras 1−n colunas da matriz X são obtidas recursivamente através

de

1

m

k k i k i ki k

x A x a x c−=

= + −∑ , com 2≥≥ kn . (4.22)

A principal questão prende-se no cálculo prévio de mx para se possível a aplicação

desta fórmula.

Kirrinnis mostrou em [48] que a última coluna da matriz X é a solução da equação

( ) ( )1

1 11

.T Tl

m

m lA Al

p A x c p A c−

+− −=

= − +∑ , (4.23)

onde TlA− é a submatriz de TA− quadrada de ordem l, contida nas primeiras l linhas e l

colunas, onde ( )λBp e ( )λlB

p representam, respectivamente os polinómios

característicos das matrizes TA− e TlA− .

Page 113: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

101

Se TA− for uma matriz de Hessenberg com uma estrutura dada por (4.21), o algoritmo

de Kirrinnis permite reduzir a determinação da solução da equação matricial à resolução

de um único sistema de m equações lineares (4.23) para se conhecer a última coluna da

solução, e posterior determinação directa das restantes colunas por substituição

regressiva.

Este algoritmo é igualmente válido para o caso em que TA− é uma matriz de

Hessenberg superior com os elementos da subdiagonal iguais a um. Neste caso temos

uma resolução análoga, devendo-se determinar inicialmente a primeira coluna da matriz

X .

Considere-se agora o caso mais geral de ser necessário reduzir A e TA− à forma de

matrizes companheiras usando transformações de semelhança.

Sejam 1−= PKPA A e 1AA QK Q−

−− = decomposições das matrizes A e A− ,

respectivamente, usando matrizes companheiras do tipo (1.3).

Então a equação TAX X A C+ = é transformada na equação

( )TA AK Y Y K F−+ = (4.24)

onde TQYPX = e ( )1 1 TF P C Q− −= . A solução Y pode ser calculada através das

fórmulas ( )11 1 0

m mm mA d A d A d I−−+ + + +⋯ 2 1

1 2 3m

m mx c Ac A c A c−= + + + +⋯ e

1k k km m kx Ax a x c− = + − , com 2m k≥ ≥ , visto ( )TAK− ser uma matriz companheira do

tipo

−−−−

=

−1210

1000

100

010

ndddd

B

⋱⋱⋮⋮ .

Para terminar TQYPX = .

Page 114: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

102

Exemplo 4.2

Os espectros de

2 1 1

2 3 5

0 1 8

A

− = − −

, 2053 1657 2003, ,

680 1057 237 −

e de

2 1 1

2 3 5

0 1 8

TA

− − − = − − −

,

2053 1657 2003, ,

680 1057 237 − −

não têm nenhum valor próprio em comum.

Então a a equação TAX X A C+ = tem uma solução única.

Seja

5 2 1

10 4 5

1 1 7

C

− = − −

.

Determinemos as factorizações de A e A− usando matrizes companheiras.

Seja ( )1 0 0T

v = . A matriz ( )vA,vA,vP A,v2= que é igual a

1 2 2

0 2 2

0 0 2

P

= − −

é

não singular com inversa 1

1 1 2

1 10

2 21

0 02

P−

= − − −

.

Então pelo teorema 1.9 resulta que AKPAP =−1 é uma matriz companheira, tendo-se

0 0 40

1 0 17

0 1 7AK

− =

.

Calculemos agora AK− . Considere-se ( )1 0 0T

v = , temos então que a matriz

( )( )2

, , ,v AQ v Av A v− = − −

1 2 2

0 2 2

0 0 2

− = −

é regular com inversa 1

1 1 2

1 10

2 21

0 02

Q−

= −

.

Assim,

Page 115: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

103

QBQK TBT

1−=

0 0 40

1 0 17

0 1 7

= −

.

Como (4.24) é equivalente à equação TAX X A C+ = depois de aplicadas estas

transformações temos

0 0 40

1 0 17

0 1 7

Y

0 0 40

1 0 17

0 1 7

Y

+ −

15 1 5

3 14

4 23 7

62 4

− − = − − −

, com TQYPX = .

Assim, a última coluna da matriz solução da equação reduzida é obtida resolvendo o

sistema

( )3 237 17 40A A AK K K I+ − − 2

3

1 515

3 14

4 26 3 7

2 4

A Ay K K

− = + − + −

⇔ 3

80 560 3920

0 158 1106

14 98 844

y

− − −

435

473

4393

4

= − −

⇔3

251

1264293

1264177

1264

y

− = − −

.

Uma vez conhecido 3y , as restantes duas colunas de Y obtêm-se directamente.

Temos assim que

2

997

1264577

126427

1264

y

− = −

e 3

4451

12642441

675725

1264

y

= −

Como tal

Page 116: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

104

4451 997 251 915 529 19

1264 1264 1264 1264 158 6321 2 2 1 2 22441 577 293 787 67 235

0 2 2 0 2 2675 1264 1264 158 158 158

0 0 2 0 0 2725 27 177 317 75 177

1264 1264 1264 632 158 316

T

X

− − − − −

= − − − = − − −

− − −

é a solução da equação TAX X A C+ = .

Page 117: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

105

5. Conclusões

Visando uma síntese de métodos que actualmente são usados com vista a obter soluções

de um ponto de vista analítico de equações matriciais de Lyapunov, foi elaborada esta

dissertação onde são apresentados exemplos de solubilidade da mesma.

As equações referidas são da forma 0* =++ QAXXA para as equações do tipo

contínuas 0* =+− QXXAA e para equações do tipo discretas, onde , mA Q M∈ são

matrizes conhecidas.

Como os espectros de A e *A− são disjuntos é possível afirmar que tem sempre

solução única. No caso de m2 ser pequeno ou moderado é possível usar um método

directo para solucionar o sistema de equações lineares que resulta da reformulação da

equação através do produto matricial de Kronecker. Sempre que m2 for grande é

preferível seleccionar um método iterativo para o mesmo fim.

Apesar das diversas potencialidades evidenciadas por cada método, é sempre possível

desenvolver melhoramentos. Usando todas as vantagens apresentadas por cada método,

vários investigadores têm investigado no sentido de criar algoritmos híbridos de forma a

obter algoritmos mais céleres e eficazes. Dado que os sistemas de controlo exigirem um

número bastante grande de equações pelo facto de dos processos modernos se tornarem

cada vez mais complexos com muitas entradas e saídas, este tipo de equações

continuam a ser um tema de grande relevo tendo várias aplicações em diferentes

domínios.

Embora seja uma era em que os computadores têm a tendência de evolução célere ao

nível da velocidade, existe a necessidade de obter algoritmos igualmente rápidos pelo

simples facto de se pretender analisar problemas cada vez mais complexos. Assim, o

tempo despendido pelo computador ou o custo da simulação, bem como a qualidade dos

resultados obtidos são aspectos essenciais a ter em conta em termos de eficiência do

método numérico utilizado. Com este objectivo têm surgido nos últimos anos métodos

cada vez mais eficazes na rápida e eficaz resolução de problemas que a simulação

numérica origina, permitindo assim recorrer a modelos matemáticos mais complexos e

fiáveis e originando tempos de processamento realistas.

Page 118: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

106

Por norma, a complexidade matemática dos modelos torna inexequível o

desenvolvimento de soluções analíticas. Como tal, a simulação numérica constitui um

desafio e praticamente a única resposta de resolução deste tipo de problemas. Estes

algoritmos numéricos que originem resultados precisos com um consumo de tempo de

computador razoável, são ferramentas essenciais para a sua abordagem, especialmente

em sistemas de grande dimensão.

Page 119: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

107

Bibliografia

[1] Agudo, F. R. D., Análise Real, Vol. III, Escolar Editora, Lisboa (1992).

[2] Antoulas, A.C.. Approximation of large-scale dynamical systems. SIAM, first

edition, 2005

[3] Barraud, A., A numerical algorithm to solve TA XA X Q− =− =− =− = , IEEE Trans.

Automat. Control 22 (1977) 883–885.

[4] Bartels, R.H. and Stewart, G.W.. Solution of the matrix equation

AX X B C+ =+ =+ =+ = . Communication of the ACM, 15(9):820–826, 1972

[5] Baur, U. and Benner, P.. Factorized solution of the Lyapunov equation by

using the hierarchical matrix arithmetic. Computing, 78(3):211–234, 2006

[6] Beauwens, R. and Groen, P., Iterative Methods in Linear Algebra, IMACS,

Elsevier Science Publishers, North-Holland (1992), pp. 217-240.

[7] Beitia, M. A. e Garcia, J.-M., Sylvester Matrix Equation for Matrix Pencils,

Linear Algebra Appl. 232, pp. 155-197 (1996).

[8] Benner, P.. Factorized solution of the Sylvester equation with applications in

control. In Proceedings of the 16th Intl. Symp. on Mathematical Theory of

Networks and Systems, 2004

[9] Bischof, C. H.; Datta, B. N. e Purkayastha, A., A Parallel Algorithm for the

Sylvester Observer Equation, SIAM J. Sci. Comput. 17, No. 3, pp. 686-698

(1996).

[10] Bitmead, R., Explicit solutions of the discrete-time Lyapunov matrix

equation and Kalman–Yakubovich equations, IEEE Trans.Automat. Control

26 (1981) 1291–1294.

[11] Bitmead, R., Weiss, H., On the solution of the discrete-time Lyapunov matrix

equation in controllable canonical form, IEEE Trans.Automat. Control 24

(1979) 481–482.

[12] Brandts, J., A Comparasion of Subspace Methods for Sylvester Equations,

Preprint No. 1183, Mathematics Institute, Universiteit Utrecht (2001)

[13] Brandts, J., Computing Tall Skinny Solutions of AX XB C− =− =− =− = , Mathematics

and Computers in Simulation, Vol. 61, pp. 385-397 (2003)

[14] Chen, T., Francis, B.A., Optimal Sampled-data Control Systems, Springer,

London, 1995.

Page 120: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

108

[15] Chu, K-WE., The solution of the matrix equation AXB CX D Y− =− =− =− = and

(((( )))) (((( )))), ,YA DZ YC BZ E F− − =− − =− − =− − = , Linear Algebra Appl. 93 (1987) 93–105.

[16] Chuanqing, G., Zhaolu, T., A new iterative method for Lyapunov equations,

in: 14th Conference of the International Linear Algebra Society, 2007, pp. 43–

46.

[17] Datta, B. N., Numerical Linear Algebra and Applications, Brooks/Cole

Publishing Company, USA (1995)

[18] Deif, A. S.; Seif, N. P. e Hussein, S. A., Sylvester’s Equation: Accuracy and

Computational Stability, J. Comput. Appl. Math. 61, No. 1, pp. 1-11 (1995)

[19] Demko, S., Moss, W.F., and Smith, P.W.. Decay rates for inverses of band

matrices. Mathematics of Computation, 43(168):491–499, 1984

[20] Demmel, J.W., Applied Numerical Linear Algebra, SIAM, Philadelphia, 1997.

[21] Ding, F., Chen, T., Gradient based iterative algorithms for solving a class of

matrix equations, IEEE Trans. Automat. Control 50 (2005) 1216–1221.

[22] Ding, F., Chen, T., Iterative least squares solutions of coupled Sylvester

matrix equations, Syst. Control Lett. 54 (2005) 95–107.

[23] Duan, G.-Ren., On the Solution to the Sylvester Matrix Equation

AV BW EV F+ =+ =+ =+ = , IEEE Trans. Autom. Control 41, No. 4, pp. 612-614 (1996)

[24] Embree, M., How descriptive are GMRES convergence bounds. Technical

research report, Oxford University Computing Laboratory, 1999

[25] Fang, Y., Loparo, K.A. and Feng, X., New estimates for solutions of Lyapunov

equations, IEEE Trans. Automat. Control 42 (1997) 408–411

[26] Gamti, N. and Philippe, B., Comments on the GMRES convergence for

preconditioned systems. In Jerzy Wasniewski Ivan Lirkov, Svetozar Margenov,

editor, Large scale scientific computing: 6th international conference, LSSC

2007, Sozopol, Bulgaria, June 5-9, 2007, pages 41–51, New York, 2008.

Springer.

[27] Gardiner, J. D., Laub, A. J., Amato, J. J. and Moler, C. B., Solution of the

Sylvester Matrix Equation T TAXB CXD E+ =+ =+ =+ = , ACM Trans. Math. Softw.

18, No. 2, pp. 223-231 (1992)

[28] George, A. and Ikramov, Kh., Gaussian elimination is stable for the inverse of

a diagonally dominant matrix. Math. Comp, 73(246):653–657, 2003

Page 121: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

109

[29] Golub, G.H., Nash, S. and Van Loan, C.F., A Hessenberg–Schur method for

the matrix equation AX X B C+ =+ =+ =+ = , IEEE Trans. Automat.Control 24 (1979)

909–913.

[30] Golub, G.H. and Van Loan, C.F., Matrix Computations, third ed., Johns

Hopkins University Press, 1996.

[31] Grasedyck, L., Hackbusch, W., and Khoromskij, B.N., Solution of large scale

algebraic matrix Riccati equations by use of hierarchical matrices.

Computing, 70(2):121–165, 2003

[32] Greenbaum, A., Pták, V., and Strakos, Z., Any non increasing convergence

curve is possible for GMRES. SIAM Journal of Matrix Analysis and

Applications, 17(3):465–469, 1996

[33] Gugercin, S., Sorensen, D.C., and Antoulas, A.C., A modified low-rank Smith

method for large-scale lyapunov equations. Numerical Algorithms, 32(1):27–

55, 2003

[34] Hammarling, S.J., Numerical solution of the stable, non-negative definite

Lyapunov equation. IMA Journal of Numerical Analysis, 2(3):303–323, 1982

[35] Heinen, J., A technique for solving the extended discrete Lyapunov matrix

equation, IEEE Trans. Automat. Control 17 (1972) 156–157

[36] Hestenes, M.R. and Stiefel, E.L., Methods of conjugate gradients for solving

linear systems. Journal of Research of the National Bureau of Standards, Section

B, 49:409–436, 1952

[37] Higham N.J.. Accuracy and stability of Numerical Algorithms. SIAM,

Philidelphia, PA, USA, second edition, 2002

[39] Higham N.J.. Functions of Matrices: Theory and computation. SIAM, USA,

first edition, 2008

[40] Hochbruck, M. and Starke, G., Preconditioned Krylov subspace methods for

Lyapunov matrix equations. SIAM J. Matrix. Anal. Appl., 16:156–171, 1995

[41] Hodel, A.S, Tenison, B., and Poolla, K.R., Numerical solution of the Lyapunov

equation by approximate power iteration. Linear Algebra and its Applications,

236:205–230, 1996

[42] Horn, R.A. and Johnson, C.R., Matrix Analysis. Cambridge University Press,

New York, first edition, 1985

Page 122: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

110

[43] Hu, D. Y. e Reichel, L., Krylov-Subspace Methods for the Sylvester

Equation, Linear Algebra Appl. 172, pp. 283-313 (1992)

[44] Jaimoukha, I. and Kasenally, E., Krylov subspace methods for solving large

Lyapunov equations. SIAM J. Matrix Anal, 31:227–251, 1994

[45] Jbilou, K., Messaoudi, A. and Sadok H., Global FOM and GMRES algorithms

for matrix equations, Appl. Number. Math. 31 (1999) 97–109.

[46] Kågström, B. and Westin, L., Generalized Schur methods with condition

estimators for solving the generalized Sylvester equation, IEEE Trans.

Automat. Control 34 (1989) 745–751

[47] Kincaid, D. e Cheney, W., Numerical Analysis, Second Ed., Brooks/Cole

Publishing Company, USA (1996)

[48] Kirrinnis, P., Fast Algorithms for the Sylvester Equation CXBAXT =− ,

Theoretical Computer Science, Elsevier, No. 259, pp. 623-638 (2001)

[49] Kressner, D., Memory efficient Krylov subspace techniques for solving large-

scale Lyapunov equations. In IEEE International Conference on Computer

Aided Control Systems, pages 613–618, 2008.

[50] Lanczos, C., Solution of systems of linear equations by minimized iterations.

Journal of Research of the National Bureau of Standards, 49:33–53, 1952

[51] Larriba-Pey, J., Navarro, J. and Angel, Jorba. Spike algorithm with savings for

strictly diagonal dominant tridiagonal systems. Microprocessing and

Microprogramming, 39 (2-5):125–128, 1993

[52] Matsumoto, S., An Application of Schur’s Lemma to the Sylvester Equation

CBXXA =− , Mem. Konan Univ., Sci. Ser. 42, No. 1, pp. 125-134 (1995)

[53] Mukaidani, H., Xu, H., Mizukami, K., New iterative algorithm for algebraic

Riccati equation related to H control problem of singularly perturbed

systems, IEEE Trans. Automat. Control 46 (2001) 1659–1666

[54] Naumov, M. and Sameh, A.H., A tearing based hybrid parallel banded solver.

Journal of Computational and Applied Mathematics, accepted, 2008

[55] Nikitin, A. V. e Yasinskii, V. K., Iterative Procedure for Solution of Sylvester

Generalized Matrix Equation, Cybernetics and Systems Analysis, Vol. 36, No.

3, pp.472-474 (2000)

[56] Ogata, K., Designing Linear Control Systems with Matlab, Prentice Hall

International Editions, New Jersey (1994)

Page 123: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

111

[57] Penzl, T., A Cyclic Low Rank Smith Method for Large Sparse Lyapunov

Equations with Applications in Model Reduction and Optimal Control,

Preprint SFB 393, Technische Universitat Chemnitz (1998)

[58] Penzl, T., Eigenvalue decay bounds for solutions of Lyapunov equations: the

symmetric case. Systems Control Lett., 40(2):139–144, 2000

[59] Penzl, T.. Lyapack users’ guide. http://www.netlib.org/lyapack/guide.pdf, 2000

[60] Pina, H., Métodos Numéricos, McGraw-Hill, Lisboa (1995)

[61] Ribeiro, M. I., Análise de Sistemas Lineares, Vol. 1 e 2, Colecção Ensino da

Ciência e da Tecnologia, IST Press, Lisboa (2002)

[62] Saad, Y. and Schultz, M., GMRES: A generalized minimal residual algorithm

for solving nonsymmetric linear systems. SIAM J. Sci. and Stat. Comput.,

7(3):856–869, 1986

[63] Saad, Y., Iterative Methods for Sparse Linear Systems. SIAM, USA, second

edition, 2003

[64] Saad, Y., Numerical Methods for Large Eigenvalue Problems. Halsted Press,

New York, 1992

[65] Saad, Y., Numerical solution of large Lyapunov equations. Progr. Systems

Control Theory, 5:503–511, 1990

[66] Sabino, J., Solution of large-scale Lyapunov equations via the block modified

Smith method. PhD thesis, University of Houston, Texas, 2006

[67] Shoshitaishvili, A. e Yaroshevskaya, I., On the Solvability of the Sylvester

Equation, J. Math. Sci., New York 83, No. 4, pp. 550-553 (1997)

[68] Simoncini, V. and Druskin, V., Convergence analysis of projection methods

for the numerical solution of large Lyapunov equations.

http://www.dm.unibo.it/ ~simoncini/list.html, 2008

[69] Simoncini, V. and Szyld, D., Recent computational developments in Krylov

subspace methods. Numerical Linear Algebra and Applications, 14(1):1–59,

2007

[70] Simoncini, V., A new iterative method for solving large-scale Lyapunov

matrix equations. SIAM J. Scient. Computing, 29(3):1268–1288, 2007

[71] Smith, R.A., Matrix equation XA BX C+ =+ =+ =+ = . SIAM Journal on Applied

Mathematics, 16(1):198–201, 1968

Page 124: Métodos Numéricos para resolução de Equações de Lyapunov§ão.pdf · A formulação matricial de um sistema de equações lineares equivalente a este tipo de equações e definida

112

[72] Sorensen, D. and Zhou, Y., Direct methods for matrix Sylvester and

Lyapunov equations. Journal of Applied Mathematics, 6:277–303, 2003

[73] Sorensen, D.C., Implicit application of polynomial filters in a k-step Arnoldi

method. SIAM J. Matrix Anal. Appl., 13(1):357–385, 1992

[74] Starke, G. and Niethammer W., SOR for AX XB C− =− =− =− = , Linear Algebra Appl.

154 (1991) 355–375.

[75] Stewart, G.W. and Sun J.G., Matrix Perturbation Theory, Academic Press,

1990.

[76] Stewart, G.W., Matrix Algorithms. SIAM, first edition, 2001

[77] Sun, X., Application and accuracy of the parallel diagonal dominant

algorithm. Parallel Computing, 21:1241–1267, 1995

[78] Trefethen, L. N. and Bau, D. III, Numerical Linear Algebra, SIAM,

Philadelphia (1997)

[79] Wachspress, E., Iterative solution of the Lyapunov matrix equation. Applied

Mathematics Letters, 1(1):87–90, 1988

[80] Ward, A. J. B., A General Analysis of Sylvester’s Matrix Equation, Int. J.

Math. Educ. Sci. Technol., Vol. 22, No. 4, pp. 615-620 (1991)

[81] Watkins, D. S., Fundamentals of Matrix Computations, John Wiley & Sons,

Inc., New York (1991)

[82] Wimmer, H. K., The Generalized Sylvester Equation in Polynomial Matrices,

IEEE Trans. Autom. Control 41, No. 9, pp. 1372-1376 (1996)

[83] Zhang, F., Matrix Theory: Basic Results and Techniques, Universitext,

Springer-Verlag, New York (1999)

[84] Zhou, K., Doyle, J.C., and Glover, K., Robust and optimal control. Prentice

Hall, New Yersey, 1996

[85] Zhou, Y. and Sorensen, D.C., Bounds on eigenvalue decay rates and

sensitivity of solutions to Lyapunov equations. Technical research report TR-

02-07, CACM Rice University, 2002