100
1 CONTROLE ÓTIMO E ROBUSTO (SISTEMAS LINEARES – ELE 2732) Estas notas de aula são baseadas no livro de Kemin Zhou, John C. Doyle and Keith Glover, ROBUST AND OPTIMAL CONTROL, Prentice Hall, 1995. Este texto está no meu “site” http://www.fplf.org.br/pedro_varios/ . Tanto o texto (“Notas de aula”), como os graus e os avisos para os alunos, estão na pasta <Controle ótimo e robusto>. (Atenção: Existe uma pasta com o nome <Sistemas lineares> com o texto do curso dado nos anos anteriores. O conteúdo do curso era bem diferente, mas a consulta pode ser proveitosa). 1º. Capítulo – Teoria de Sistemas Lineares (conceitos básicos) O que se segue, em grande parte, já deveria ter sido visto na Graduação. Será (re)passado de forma um tanto rápida devido às nossa limitações de tempo. 1.1 Inversão de matrizes Seja a matriz quadrada e 11 12 21 22 A A A A A = , onde 11 A e 22 A também são quadradas. Suponha primeiramente que 11 A seja não-singular. Ora, 1 11 12 11 11 12 21 22 21 22 0 0 A A A I A A A A I A A = ; mas 1 1 11 12 11 12 1 21 21 22 22 21 11 12 0 0 I I A A I A A A I A A A AA A = ⎦⎣ . Esta última corresponde a operações elementares sobre as “linhas” (na realidade, blocos de linhas) da matriz 1 11 12 21 22 I A A A A ; por outro lado, 1 21 21 0 0 I I A I A I = , como se verifica imediatamente. Então, da primeira igualdade acima em vista das duas seguintes, temos 1 11 12 11 11 12 1 21 22 21 22 21 11 12 0 0 0 0 A A I A I A A A A A I I A AA A = . (1) Definindo 1 22 21 11 12 : A AA A ∆= e supondo que tenha inversa, temos da eq. de cima: 1 1 1 1 1 11 12 11 11 12 21 22 21 0 0 0 0 A A I A I A A A A A I I =

Notas de aula 1.pdf

Embed Size (px)

Citation preview

Page 1: Notas de aula 1.pdf

1

CONTROLE ÓTIMO E ROBUSTO (SISTEMAS LINEARES – ELE 2732) Estas notas de aula são baseadas no livro de Kemin Zhou, John C. Doyle and Keith Glover, ROBUST AND OPTIMAL CONTROL, Prentice Hall, 1995. Este texto está no meu “site” http://www.fplf.org.br/pedro_varios/ . Tanto o texto (“Notas de aula”), como os graus e os avisos para os alunos, estão na pasta <Controle ótimo e robusto>. (Atenção: Existe uma pasta com o nome <Sistemas lineares> com o texto do curso dado nos anos anteriores. O conteúdo do curso era bem diferente, mas a consulta pode ser proveitosa). 1º. Capítulo – Teoria de Sistemas Lineares (conceitos básicos) O que se segue, em grande parte, já deveria ter sido visto na Graduação. Será (re)passado de forma um tanto rápida devido às nossa limitações de tempo. 1.1 Inversão de matrizes

Seja a matriz quadrada e 11 12

21 22

A AA

A A⎡ ⎤

= ⎢ ⎥⎣ ⎦

, onde 11A e 22A também são quadradas.

Suponha primeiramente que 11A seja não-singular.

Ora, 1

11 12 11 11 12

21 22 21 22

00

A A A I A AA A I A A

−⎡ ⎤⎡ ⎤ ⎡ ⎤= ⎢ ⎥⎢ ⎥ ⎢ ⎥⎣ ⎦⎣ ⎦ ⎣ ⎦

;

mas1 1

11 12 11 121

21 21 22 22 21 11 12

00

I I A A I A AA I A A A A A A

− −

⎡ ⎤ ⎡ ⎤⎡ ⎤=⎢ ⎥ ⎢ ⎥⎢ ⎥− −⎣ ⎦ ⎣ ⎦ ⎣ ⎦

. Esta última corresponde a

operações elementares sobre as “linhas” (na realidade, blocos de linhas) da matriz 1

11 12

21 22

I A AA A

−⎡ ⎤⎢ ⎥⎣ ⎦

; por outro lado, 1

21 21

0 0I IA I A I

−⎡ ⎤ ⎡ ⎤

=⎢ ⎥ ⎢ ⎥−⎣ ⎦ ⎣ ⎦, como se verifica

imediatamente. Então, da primeira igualdade acima em vista das duas seguintes, temos

111 12 11 11 12

121 22 21 22 21 11 12

000 0

A A IA I A AA A A II A A A A

⎡ ⎤⎡ ⎤ ⎡ ⎤⎡ ⎤= ⎢ ⎥⎢ ⎥ ⎢ ⎥⎢ ⎥ −⎣ ⎦⎣ ⎦ ⎣ ⎦ ⎣ ⎦

. (1)

Definindo 122 21 11 12: A A A A−∆ = − e supondo que tenha inversa, temos da eq. de cima:

11 1 1111 12 1111 12

21 22 21

0 000

A A I AI A AA A A I I

− −−⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤= ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥∆ ⎣ ⎦⎣ ⎦ ⎣ ⎦⎣ ⎦

Page 2: Notas de aula 1.pdf

2

Calculando, a inversa de cada fator e efetuando o produto, obtemos: 1 1 1 1 1 1 1

11 12 11 11 12 21 11 11 121 1 1

21 22 21 11

A A A A A A A A AA A A A

− − − − − − −

− − −

⎡ ⎤+ ∆ − ∆⎡ ⎤= ⎢ ⎥⎢ ⎥ −∆ ∆⎣ ⎦ ⎣ ⎦

. (2)

Observe-se que de (1), temos imediatamente 1

11 11 22 21 11 12det[ ] det[ ]det[ ] det[ ]det[ ]A A A A A A A−= ∆ = − . (3) Suponha-se agora que 22A seja não-singular:

Definamos 111 11 22 21

ˆ A A A A−∆ = − . Cálculos análogos (na realidade, simétricos, melhor ainda, duais) aos acima, nos dão:

1 1 1 111 12 12 22

1 1 1 1 1 121 22 22 21 22 22 21 12 22

ˆ ˆ

ˆ ˆA A A AA A A A A A A A A

− − − −

− − − − − −

⎡ ⎤∆ −∆⎡ ⎤= ⎢ ⎥⎢ ⎥

− ∆ + ∆⎣ ⎦ ⎢ ⎥⎣ ⎦. (4)

E alternativamente a (4), 1

22 22 11 12 22 21ˆdet[ ] det[ ]det[ ] det[ ]det[ ]A A A A A A A−= ∆ = − . (5)

É claro que com as facilidades computacionais, ninguém iria calcular a inversa de uma matriz grande ou com muitos elementos fracionários. Mas a importância das fórmulas acima continua de pé, pois são usadas com freqüência em demonstrações. 1.2 Normas de vetores e matrizes Seja o vetor x no espaço complexo (ou real) de n dimensões, isto é, Cnx∈ , ou R nx∈ .

A norma p de x é definida como 1/

1:

pnp

ipi

x x=

⎛ ⎞= ⎜ ⎟⎝ ⎠∑ . (6)

Para p = 1, 2, ∞ , temos, respectivamente,

11

n

ii

x x=

= ∑ ; 2

21

n

ii

x x=

= ∑ e 1max ii n

x≤ ≤

. (7)

A norma-2 é chamada euclideana. Quanto às matrizes, o conceito mais importante é o de norma induzida, a qual é considerada como um operador sobre vetores. Seja a matriz Cm n

ijA a ×⎡ ⎤= ∈⎣ ⎦ . Então a

norma induzida p é definida como 0

sup p

x p

Ax

x≠. (8)

Pode-se demonstrar que as normas induzidas 1, 2 e ∞ são dadas por:

1 1 1max

m

ijj n iA a

≤ ≤=

= ∑ , max2( )A A Aλ ∗= e

1 1lim

n

iji n iA a

∞ ≤ ≤=

= ∑ , (9)

onde, na segunda expressão acima, maxλ indica o maior auto-valor da matriz e A∗ é a matriz transposta conjugada, ou seja, a transposta da matriz com todos os seus elementos complexos substituídos pelos seus conjugados.

Page 3: Notas de aula 1.pdf

3

Uma outra norma importante, mas que não é norma induzida é a norma de Frobenius,

definida como : Traço( )F

A A A∗= . (10a) Recorda-se que o traço de uma matriz é a soma dos elementos da sua diagonal. Não é

difícil verificar que (faça um exemplo!): 2

1 1

m n

ijFi j

A a= =

= ∑∑ . (10b)

(Mas neste curso só usaremos normas induzidas). No que se segue o corpo F pode representar R (corpo dos reais) ou C (corpo dos complexos). A letra F para representar corpo vem do inglês, cuja palavra para corpo é “field”. A norma euclideana tem propriedades importantes, dadas pelo: Lema: (11) Sejam os vetores F e Fn mx y∈ ∈ . 1. Suponha que n m≥ . Então x y= se só se existir uma matriz Fn mU ×∈ tal que

x = Uy e *U U I= , onde *( )⋅ é a transposta conjugada da matriz se ela for complexa e simplesmente transposta se ela for real. 2. Suponha que n = m. Então *x y x y≤ , onde ⋅ indica o valor absoluto de um escalar de F. Além disso, temos igualdade acima se x yα= , com Fα ∈ ou se y = 0. 3. x y≤ se só se existir uma matriz Fn n×∆∈ , com 1∆ ≤ tal que x y= ∆ . Além disso,

x y< se só se 1∆ < .

4. Ux x= para qualquer matriz unitária com dimensões apropriadas. (Recorda-se que uma matriz quadrada complexa U é dita unitária (ortogonal, se a matriz for real) se

* *U U I UU= = . Observe-se que a matriz da primeira propriedade acima deste lema não é unitária, porque não é quadrada). A seguir temos a seguinte propriedade importante de normas induzidas: Lema (12*) Seja A uma matriz particionada em blocos de sub-matrizes:

11 12 1

21 22 2

1 2

q

q

m m mq

A A AA A A

A

A A A

⎡ ⎤⎢ ⎥⎢ ⎥=⎢ ⎥⋅⎢ ⎥⎢ ⎥⎣ ⎦

.

Então para toda norma induzida, temos

Page 4: Notas de aula 1.pdf

4

11 12 1

21 22 2

1 2

qp p p

qp p pp

m m mqp p p

A A A

A A AA

A A A

⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥≤⎢ ⎥⋅⎢ ⎥⎢ ⎥⎣ ⎦

.

E temos uma igualdade entre os dois lados no caso da norma de Frobenius. 1.3 Valores singulares O conceito de valor singular, iσ , é definido no teorema seguinte, onde F é um corpo, por exemplo, o dos reais ou dos complexos, que são os dois corpos que nos interessam neste curso, principalmente o primeiro. Teorema (13a) Seja Fm nA ×∈ com posto p. Então existem matrizes unitárias

[ ]1 2 ... Fm mmU u u u ×= ∈ (13b)

[ ]1 2 ... Fn nnV v v v ×= ∈ (13c)

tais que A U V ∗= Σ , sendo 1 00 0Σ⎡ ⎤

Σ = ⎢ ⎥⎣ ⎦

e

1

21

0 00 0

0 0 p

σσ

σ

⎡ ⎤⎢ ⎥⎢ ⎥Σ =⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦

. (13 d)

onde 1 2 0pσ σ σ≥ ≥ ≥ > e min , p m n≤ . Prova: ZDG, pp. 32s. (ZDG são as iniciais dos autores do livro que é a base deste curso, citado logo ao início). • Os vetores iu e jv são denominados vetores singulares à esquerda e à direita, respectivamente, da matriz A. De (13 d) temos AV U= Σ , ou seja, i i iAv uσ= , (14a)

A V U∗ ∗= Σ , donde A U V∗ = Σ , ou seja, i i iA u vσ∗ = . (14b) D (14a) e (14b), temos 2

i i i i iA Av A u vσ σ∗ ∗= = (15a)

e, pelo mesmo método, 2i i iAA u uσ∗ = . (15b)

Estas duas expressões nos dão o método para calcular os valores singulares de uma dada matriz, bem como os respectivos vetores singulares. Com efeito, para calcular os valores singulares, das equações acima, vê- se que o quadrado de cada valor singular de A é o

Page 5: Notas de aula 1.pdf

5

auto-valor da matriz A A∗ e também da matriz AA∗ . E de (15b) vemos que cada vetor singular à direita de A é igual ao auto-vetor (à direita) de AA∗ , enquanto que de (15a), vemos que cada vetor singular à esquerda de A é igual ao autor-vetor (à direita) de A A∗ . Adotaremos a seguinte notação padrão:

max 1( ) ( )A Aσ σ σ= = = maior valor singular da matriz A.

min( ) ( ) pA Aσ σ σ= = = menor valor singular da matriz A. E temos as seguintes propriedades do maior e menor valores singulares:

1 2( ) max xA Ax Aσ = == ,

a segunda igualdade acima vindo de (9) e (15); 1( ) min x AxAσ ==

Segue-se outro resultado importante: Lema: (15*) Suponha que as matrizes A e ∆ sejam quadradas. Então, (i) ( ) ( ) ( )A Aσ σ σ+ ∆ − ≤ ∆ ; (ii) ( ) ( ) ( )A Aσ σ σ∆ ≥ ∆ ;

(iii) 1 1( )( )

AA

σσ

− = se A tiver inversa.

Prova: (i): 1( ) min ( )xA A xσ =+ ∆ = + ∆

1min x Ax x= − ∆≥

1 1min maxx xAx x= =≥ − ∆

= ( ) ( )Aσ σ− ∆ . Portanto, ( ) ( ) ( )A Aσ σ σ∆ ≤ + ∆ −− . A outra desigualdade, ( ) ( ) ( )A Aσ σ σ+ ∆ − ≤ ∆ , é obtida substituindo A por A+ ∆ e ∆ por -∆ na prova acima. (ii) 1( ) : min x A xAσ = ∆∆ =

= * * *1min x x A A x= ∆ ∆

1( )min x xAσ = ∆≥ = ( ) ( )Aσ σ ∆ ;

(iii) Seja *A U V= Σ , donde 1 1 *A V U− −= Σ . Portanto, 1 1( ) ( ) 1/ ( ) 1/ ( )A Aσ σ σ σ− −= Σ = Σ = , a segunda igualdade se devendo à estrutura diagonal de Σ . • Os resultados do próximo lema são fáceis de provar:

Page 6: Notas de aula 1.pdf

6

Lema: (15**) Seja Fm nA ×∈ , sejam U e V tais que *A U V= Σ , sejam e i ju v as colunas de U e V, respectivamente e os valores singulares sejam definidos como

1 2 1( ) ( ) .... ( ) ( ) .... 0r rA A A Aσ σ σ σ +≥ ≥ ≥ > = = , com min( , )r m n≤ . Então, 1. Posto(A) = r; 2. 1 2, , .... )Ker( ) span( r r nA v v v

+ += e 1 2, , .... )(Ker( )) span( rA v v v⊥ = ;

3. 1 2, , ....Im( ) span( )rA u u u= e 1 2, , ....(Im( )) span( )r r mA u u u+ +

⊥ = ;

4. A tem uma expansão diádica, isto é, * *

1

r

i i i r r ri

A u v U Vσ=

= = Σ∑ , onde

[ ]1 2r rU u u u= , [ ]1 2r rV v v v= e 1 2diag( , ,...., )r rσ σ σΣ = ;

5. 2 2 2 21 2 .... rF

A σ σ σ= + + + ;

6. 1A σ= ;

7. 0 0( ) ( ), 1, 2,..., min ,i iU AV A i p m nσ σ= = = , para matrizes unitárias apropriadas

0 0 e U V ; (Na 6ª. propriedade acima, trata-se da norma-2 induzida, como será costume neste texto: quando não se diz que norma é, será a 2). • Outros resultados úteis são os seguintes: Teorema: (15***)

Suponha 0γ > . As soluções X de X BC A

γ⎡ ⎤

≤⎢ ⎥⎣ ⎦

são dadas por:

* * 1/ 2 * 1/ 2( ) ( )X YA Z I YY W I ZZγ= − + − − , onde *A é a transposta conjugada da matriz A, W é uma contração arbitrária, isto é, 1W ≤ , Y e Z com 1Y ≤ e 1Z ≤ são soluções das seguintes eqs. lineares:

2 * 1/ 2 2 * 1/ 2( ) e ( )B Y I A A C I AA Zγ γ= − = − . Prova: ZDG, p. 42. • Lema: (15#) Sejam Fm nB ×∈ e Fk nC ×∈ . Suponha que * * e m k B B C C≥ = . Então eixste uma matriz

Fm kU ×∈ tal que *U U I= e B = UC. • Prova: ZDG, p. 37 Pode-se definir a raiz quadrada de uma matriz positiva semi-definida A por

1/ 2 1/ 2 *( ) 0A A= ≥ tal que 1/ 2 1/ 2A A A= .

Page 7: Notas de aula 1.pdf

7

A raiz quadrada de uma matriz pode ser calculada facilmente se a matriz for diagonalizável, isto é, se existir uma matriz U tal que *UAU = Λ , onde Λ é uma matriz diagonal constituida pelos auto-valores da matriz A. Então, se fizermos 1/ 2 1/ 2 *A U U= Λ , obtemos efetivamente 1/ 2 * 1/ 2 * *A U U U U U U= Λ Λ = Λ . Teorema de Parrott: (15##)

Defina-se 0 : min X

X BC A

γ⎡ ⎤

= ⎢ ⎥⎣ ⎦

. Então, [ ]0 max ,B

C AA

γ⎧ ⎫⎡ ⎤⎪ ⎪= ⎨ ⎬⎢ ⎥

⎣ ⎦⎪ ⎪⎩ ⎭.

Prova: ZDG, pp. 41s. Outro resultado que sreá muito útil mais ao fim do curso: Teorema: (15$)

Seja 0γ > . Então as soluções X tais que X BC A

γ⎡ ⎤

≤⎢ ⎥⎣ ⎦

são dadas por

* * 1/ 2 * 1/ 2( ) ( )X YA Z I YY W I Z Zγ= − + − − , onde W é uma “contração” ( 1W ≤ ) arbitrária, enquanto que Y e Z, com

1 e 1Y Z≤ ≤ são soluções das segintes eqs. 2 * 1/ 2 2 * 1/ 2( ) e ( )B Y I A A C I AA Zγ γ= − = − .

Prova: ZDG, p. 42. • 1.4 Equações de estado e Matrizes de transferência em Sistemas Lineares Consideraremos neste curso apenas sistemas lineares invariantes no tempo e de tempo contínuo. Parece muito restritiva esta opção, mas é a maneira de se tratar um grande número de problemas reais. Efetivamente, caso o sistema real não seja linear, ele pode ser linearizado, com boa aproximação, na vizinhança de “ponto de operação”. E quanto ao fato de os controladores modernos serem programas de computador, muitas vezes micro-processadores, e portanto de tempo discreto, de novo eles podem ser aproximados, cada vez mais, a sistemas de tempo continuo, dada a velocidade cada vez maior destes processadores. Seja o sistema definido para 0t t≥ : ( ) ( ) ( )x t Ax t Bu t= + , 0 0( )x t x= (16a) e ( ) ( ) ( )y t Cx t Du t= + , (16b) onde ( )x t , ( )u t e ( )y t são vetores com elementos reais, representando, respectivamente, o estado, a entrada (ou controle) e a resposta (ou saída) do sistema. Qualquer equação diferencial em ( )y t , e suas derivadas, e ( )u t , pode ser colocado na forma acima. Se a ordem da eq. diferencial for n , então a dimensão do vetor ( )x t também será n. As matrizes multiplicando ( )x t , ( )u t e ( )y t têm as dimensões apropriadas.

Page 8: Notas de aula 1.pdf

8

(Faça exemplos para se convencer da equivalência da representação dada em (16) e uma equação diferencial, caso isso seja novidade para você. Comece com caso bem simples, por exemplo, com ( )x t de dimensão dois e a matriz A diagonal. Aliás, esta é sempre a melhor maneira de entender alguma coisa em matemática: fazer exemplos, começando com os mais simples.) Denotemos por ˆ( )x s a transformada de Laplace de ( )x t e analogamente para ( )u t e

( )y t . Suponha 0 0x = . Aplicando transformada de Laplace a (16), temos ˆ ˆ ˆ( ) ( ) ( )sx s Ax s Bu s= + , (17a)

ˆ ˆ ˆ( ) ( ) ( )y s Cx s Du s= + , (17b) o que nos dá imediatamente

1ˆ ˆ( ) ( ( ) ) ( )y s C sI A B D u s−= − + . (18a) ou seja, 1( ) : ( )H s C sI A B D−= − + é a matriz de transferência do sistema. (18b) A expressão entre ( ) acima é a chamada matriz de transferência, às vezes também chamada função de transferência, especialmente quando o sistema é escalar, isto é, tanto y como u são escalares (não vetores). Exemplo: Calcular a matriz de transferência do sistema em que

[ ]1 2 1, , 1 1 , 0

0 1 0A B C D

−⎡ ⎤ ⎡ ⎤= = = =⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦

.

Solução:

[ ] [ ]11 2 1 2 11 1( ) 1 1 1 1

0 1 0 1 0( 1)( 1) 1s s

H ss ss s s

−+ − −⎡ ⎤ ⎡ ⎤ ⎡ ⎤= = =⎢ ⎥ ⎢ ⎥ ⎢ ⎥− ++ − +⎣ ⎦ ⎣ ⎦ ⎣ ⎦

. A realização de

ordem mínima desta função de transferência será dada por 1, e tais que 1A B C BC= − =

A realização de uma matriz (função) de transferência é a dimensão da sua matriz “A”, ou então a dimensão do espaço de estado correspondente de acordo com (16a). Dissemos que a segunda realização à direita é de ordem mínima, porque é de odem 1. Menor que esta seria uma realização de ordem zero, um ganho puro, o que não é o caso. Veremos adiante uma maneira de saber se uma realização é mínima sem ter que calculá-la É fácil verificar que a função de transferência, no caso escalar, é a transformada de Laplace da resposta, quando a entrada é um impulso. (Para provar isto, basta lembrar que a transformada de Laplace de um impulso é igual a um). A matriz de transferência será representada quase sempre da forma do lado direito da eq.:

Usam-se os separadores horizontal e vertical para diferenciar da matriz A BC D⎡ ⎤⎢ ⎥⎣ ⎦

.

1( )C sI A B D−− + = A BC D⎡ ⎤⎢ ⎥⎣ ⎦

(18c)

Page 9: Notas de aula 1.pdf

9

No exemplo acima podemos então escrever:

Esta igualdade parece estranha, mas não tem nada de estranho, pois o que está entre [ ] não são matrizes, mas funções de transferência, anotadas de modo não convencional. Esta notação alem de ser compacta, mostra claramente de que realização se trata. É claro que o modo convencional de indicar a igualdade acima é

[ ]11 2 1

( ) 0 10 1 0 1

s BCH ss s

−+ −⎡ ⎤ ⎡ ⎤= =⎢ ⎥ ⎢ ⎥− +⎣ ⎦ ⎣ ⎦

.

- Recorda-se que a solução de (16a) é dada por

0

0

( ) ( )0( ) ( ) ( )

tA t t A t

t

x t e x t e Bu dτ τ τ− −= + ∫ . (19)

Comparando esta com (17a), que supõe nulo o estado inicial, conclui-se facilmente

que a transformada de Laplace de 0

( ) ( )t

A t

t

e Bu dτ τ τ−∫ é 1 ˆ( ) ( )sI A Bu s−− . E da mesma

forma, pode-se conferir que a transformada de Laplace de 0( )0( )A t te x t− é

10( ) ( )sI A x t−− . (19*)

De (19) e de (16b), temos então

0

0

( ) ( )0( ) ( ) ( ) ( )

tA t t A t

t

y t Ce x t C e Bu d Du tτ τ τ− −= + +∫ , (20a)

esta sendo a resposta total no domínio do tempo. E a resposta total no domínio da chamada frequência complexa é, em vista de (18a) e de (19*):

1 1 10 0ˆ ˆ ˆ ˆ( ) ( ( ) ) ( ) ( ) ( ) ( ) ( ( ) ( )) ( )y s C sI A B D u s C sI A x t C sI A Bu s x t Du s− − −= − + + − = − + +

(20b) 1.5 Controlabilidade e observabilidade / Estabilizabilidade e detectabilidade Definição: (21) O sistema dado por (16a) é dito controlável se para quaisquer estados iniciais 0x , tempo final 1t e estado final 1x existir um controle seccionalmente contínuo ( )u ⋅ tal que a solução de (16a) satisfaça a 1 1( )x t x= . Do contrário, o sistema é dito incontrolável. (Frequentemente, ao invés da expressão “sistema dado em (16a) controlável / incontrolável”, diz-se abreviadamente “(A, B) controlável / incontrolável”).

1 2 11

( ) 0 1 00

0 1 0

BH s

C

−⎡ ⎤⎡ ⎤−⎢ ⎥= = ⎢ ⎥⎢ ⎥ ⎣ ⎦⎢ ⎥⎣ ⎦

, e tais que 1B C BC =

Page 10: Notas de aula 1.pdf

10

Observação: Daqui para frente a dimensão da matriz A será sempre n , a não ser que seja expressamente escrito o contrário. Teorema: As seguintes afirmações são equivalentes: (22) i) (A,B) é controlável;

ii) A matriz 0

( ) Tt

A T AcW t e BB e dτ τ τ= ∫ é positiva definida para todo t > 0.

(Esta matriz é denominada gramiano de controlabilidade). iii) A matriz de controlabilidade 2 1nB AB A B A B−⎡ ⎤= ⎣ ⎦C tem posto cheio, isto é, n. iv) A matriz [ ]A I Bλ− tem posto cheio (igual a n) para todo λ em C , o plano complexo. v) Se λ for um auto-valor de A e x for o respectivo auto-vetor à esquerda, isto, é,

Ax x λ∗ ∗= , então 0Bx∗ ≠ . vi) Os auto-valores de A + BF podem ser arbitrariamente escolhidos (com a restrição que os auto-valores complexos aparecem sempre em pares conjugados) por meio de uma escolha apropriada da matriz F . Prova: ZDG, pp. 48s. • Exemplo: (22*) Verificar se o sistema em que A e B são dadas a seguir é controlável.

1 1 2 1 10 1 1 , 0 10 0 2 1 0

A B−⎡ ⎤ ⎡ ⎤

⎢ ⎥ ⎢ ⎥= =⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦

Solução:Vamos usar o método (iii) do teorema acima. Temos que verificar se o posto de 2B AB A B⎡ ⎤⎣ ⎦ é igual ou inferior a 3.

Ora, efetuando, verifica-se que não é necessário calcular 2A B , pois

[ ]1 1 3 00 1 1 11 0 2 0

B AB⎡ ⎤⎢ ⎥= ⎢ ⎥⎢ ⎥⎣ ⎦

e nesta matriz a 2ª. a 3ª. e a 4ª. colunas são l.i, portanto o

sistema é controlável. O método acima, usando a matriz de controlabilidade, é, de longe, o mais usado, sendo também de fácil aplicação quando se usa computador, ainda que por sua natureza possa ter problemas quando o computador não consegue distinguir valores muito próximos, mas diferentes, de zero. Para resolver rapidamente o problema de verificar a controlabilidade por simples inspeção, ou quase, o 4º. método é muito conveniente, como se pode ver no seguinte Exemplo:

Page 11: Notas de aula 1.pdf

11

1 2 3 4 1 50 1 0 3 2 2

, 1 2 1 0 4 40 0 0 2 0 0

B

− −⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥−⎢ ⎥ ⎢ ⎥=⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦

.

Solução: usando o método (iv), temos

[ ]

1 2 3 4 1 50 1 0 3 2 21 2 1 0 4 4

0 0 0 2 0 0

I A B

λλ

λλ

λ

− − − −⎡ ⎤⎢ ⎥+ −⎢ ⎥− =⎢ ⎥− − −⎢ ⎥−⎣ ⎦

. E é claro que se 2λ = , a úllima

linha desta matriz se anula, e portanto o sistema não é controlável. A seguir, temos resultado importante, demonstrado há mais de 40 anos e que já foi enunciado como vi) do Teorema (22), mas que vale enfatizar: Teorema: (22**) É possivel posicionar arbitrariamente os autovalores do sistema (16a) através de realimentação do estado, u=Fx , se só se o sistema for controlável. • Note-se que através de realimentação de estado, a eq. de estado do sistema se torna

( )x A BF x= + . Os autovalores do sistema passam a ser os da matriz A+BF. O que este teorema diz é que através da realimentação de estado os autovalores da matriz A+BF podem ser escolhidos arbitrariamente através de matriz F apropriada se só se o sistema (16a) for controlável. (É claro que o posicionamento arbitrário dos autovalores deve respeitar o fato de que os autovalores complexos devem aparecer aos pares conjugados, uma vez que todas as matrizes envolvidas são, por hipótese, de números reais). Exemplo

Seja o sistema (16a) com 1 2 1

, 0 2 1

A B⎡ ⎤ ⎡ ⎤= =⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦

. Realimentando o estado com

[ ]1 2F f f= , temos [ ] 1 21 2

1 2

1 21 2 120 2 1

f fA BF f f

f f+ +⎡ ⎤⎡ ⎤ ⎡ ⎤

+ = + = ⎢ ⎥⎢ ⎥ ⎢ ⎥ +⎣ ⎦ ⎣ ⎦ ⎣ ⎦. Então temos que

os autovalores do sistema realimentado são dados pelas raízes do polinômio

1 2

1 2

1 2det

2f f

f fλ

λ⎛ ⎞− − − −⎡ ⎤⎜ ⎟⎢ ⎥− − −⎣ ⎦⎝ ⎠

= 21 2 2(1 ) 2f f fλ λ− + + + + . Escolhidos os autovalores do

sistema com realimentação de estado, os coeficientes do polinômio acima ficam definidos de modo único. Sejam a e b estes coeficientes. Então obtemos as eqs.

1 2 2(1 ) e 2f f a f b− + + = + = , o que nos dá 2 12 e ( ) 1f b f a b= − = − + + .

Page 12: Notas de aula 1.pdf

12

Vale observar que se a solução foi única neste caso, isto não ocorre em geral quando o controle u tem mais de uma componente Definição: (23) Um sistema ( ) ( )x t Ax t= é dito assintoticamente estável se todos os autovalores de A estiverem no semi-plano aberto da esquerda, ou seja, se Re[ ( )] 0Aλ < . Definição: (23*) Os autovalores da matriz A, chamada por alguns autores de matriz do sistema, são chamados polos do sistema. Exemplo: Vejamos se o sistema do exemplo (22*) é estável. Para isso, temos que calcular os autovalores da matriz A:

2

1 1 2det( ) det 0 1 1 ( 1) ( 2)

0 0 2I A

λλ λ λ λ

λ

⎛ − − ⎞⎡ ⎤⎜ ⎟⎢ ⎥− = − − = − −⎜ ⎟⎢ ⎥⎜ ⎟⎢ ⎥−⎣ ⎦⎝ ⎠

. Donde se vê que o sistema não

é assintoticamente estável, pois tem 3 autovalores da matriz A (ou polos do sistema) fora do semiplano aberto da esquerda, bastaria um. Observação: ao longo do texto o advérbio assintoticamente será às vezes omitido, e diremos simplemente que o sistema é estável se ele satisfizer à condicao acima. Mas isto é um abuso de linguagem, como se vê na seguinte análise: Considere o seguinte sistema:

( ) 1x t = , cuja solução é ( ) , sendo uma costante, um número real qualquerx t t a a= + . É claro que este sistema não é asssintoticamente estável, pois seu único polo é igual a 1. Mais ainda, ele é instável no sentido que o estado tende a infinito com o tempo. Considere agora este outro sistema:

( ) 0x t = . A solução desta eq. diferencial é ( ) constante x t t= ∀ . Ora, este sistema não é assintoticamente estável de acordo com a definição (23), pois seu único polo, igual a zero, não está no semiplano aberto da esquerda. Mas ele é instável? Não no sentido usual da palavra, pois não “explode”, seu estado não vai para infinito. Sistemas como este são ditos marginalmente estáveis. Considere este outro sistema:

0 11 0

x x⎡ ⎤

= ⎢ ⎥−⎣ ⎦. Seus polos são dados pela eq. 2 1 0λ + = , cujas raízes são jλ = ± ,

onde 1j = + − . Portanto o sistema não é assintoticamente estável de acordo com a definição (23). Ora, é fácil verificar que a solução das eqs. diferenciais do sitema é

1 2( ) sen cos , ( ) cos sen ,x t a t b t x t a t b t= + = − com a e b números reais quaisquer.

Page 13: Notas de aula 1.pdf

13

Verifica-se assim que este sistema, mesmo não sendo assintoticamente estável, não é instável, pois seu estado não “explode”, tal como no exemplo anterior. Ele é, tal como o outro, marginalmente estável. Como caracterizar, em termos de autovalores da matriz A estes sistemas que nem são instáveis nem assintoticamente estáveis e sim marginalmente estáveis? Deste exemplo e do anterior poderíamos concluir que os sistemas marginalmente estáveis são aqueles que têm pelo menos um polo no eixo imaginário? Efetivamente, todo sistema marginalmente estável tem pelo menos um polo no eixo imaginário e nenhum polo no semiplano aberto da direita. Mas como veremos agora, nem todo sistema que satisfaz a esta dupla condição é marginamente estável. Com efeito, considere os sistemas

0 00 0

x x⎡ ⎤

= ⎢ ⎥⎣ ⎦

e 00 0

ax x

⎡ ⎤= ⎢ ⎥⎣ ⎦

, com a sendo qualquer número real diferente de zero.

É imediato verificar que ambos os sistemas têm um polo duplo na origem, ou seja, 0λ = ,

com grau de multiplicidade 2. Integrando o primeiro sistema, obtemos: b

xc⎡ ⎤

= ⎢ ⎥⎣ ⎦

, b e c

sendo constantes, números reais quaisquer. Mas o segundo sistema nos dá aet f

xe+⎡ ⎤

= ⎢ ⎥⎣ ⎦

,

com e e f constantes, números reais quaisquer. Ora, este sistema não é portanto marginalmente estável (onde, é claro, e, alem de a, é diferente de zero), ele é instável, seu estado tendendo a infinito com o tempo. Para caracterizar os sistemas marginalmente estáveis, recordamos que uma matriz A é diagonalizável se existir, como o nome sugere, uma matriz não singular T tal que

1:A T AT−= =

1

21

0 00 0

diag( )

0 0

ni i

n

λλ

λ

λ

=

⎡ ⎤⎢ ⎥⎢ ⎥=⎢ ⎥⎢ ⎥⎣ ⎦

.

(Matrizes A e A que satisfaçam a 1A T AT−= são ditas similares). Ora nem toda matriz é diagonalizável, como se pode verificar na segunda matriz do último exemplo. Para ver isto, suponha que a dita matriz seja diagonalizável, ou seja, suponha que exista uma matriz T (escolhendo, sem perda de generalidade, a = 1 na matriz acima), tal que

1 0 1 0 00 0 0 0

T T− ⎡ ⎤ ⎡ ⎤=⎢ ⎥ ⎢ ⎥

⎣ ⎦ ⎣ ⎦. Seja então

a bT

c d⎡ ⎤

= ⎢ ⎥⎣ ⎦

. Então,

0 1 0 010 0 0 0

d b a bc a c dad bc

−⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤=⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥−− ⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦

.

Calculando, obtemos 20, 0, 0, 0 0bd bc cd d d= = = = ∴ = .

Page 14: Notas de aula 1.pdf

14

Mas da segunda igualdade acima, se b = 0, então 00

aT

c⎡ ⎤

= ⎢ ⎥⎣ ⎦

, que não tem inversa, e se

c = 0, temos 0 0a b

T⎡ ⎤

= ⎢ ⎥⎣ ⎦

, que também não tem inversa, donde se conclui que a matriz

0 10 0⎡ ⎤⎢ ⎥⎣ ⎦

não é efetivamente diagonalizável.

- Mas se uma matriz não é diagonalizavel, ela pode ser tansformada em matriz bloco diagonal da seguinte forma:

1

211

0 00 0

diag

0 0

qi i

q

JJ

A T AT J

J

−=

⎡ ⎤⎢ ⎥⎢ ⎥= = =⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦

, onde cada bloco da matriz ao lado tem a

forma:

1 0 00 1 00 0 0

10 0 0

i

i

i i

i

J

λλ

λ

λ

⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥=⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦

, onde este bloco, que é chamado bloco de Jordan, tem

na sua diagonal o auto-valor correspondente e 1’s na primeira sobre-diagonal. E o resultado seguinte caracteriza os sistemas marginalmente estáveis. Teorema: (24) Um sistema é marginalmente esstável se só se não tiver polo no semiplano aberto da direita e tiver pelo menos um polo no eixo imaginario e cada polo neste eixo com grau de multiplicidade maior do que 1 não pertencer a bloco de Jordan com ordem maior ou igual a dois. •

O exemplo acima com 0 10 0

A⎡ ⎤

= ⎢ ⎥⎣ ⎦

é um bloco de Jordan de ordem 2 e, como vimos, o

estado apresenta o “modo” t , alem de constante

Se 0 1 00 0 10 0 0

A⎡ ⎤⎢ ⎥= ⎢ ⎥⎢ ⎥⎣ ⎦

, temos um bloco de Jordan de ordem três, cujo estado apresentará o

“modo” 2t , alem de t e constante.

Page 15: Notas de aula 1.pdf

15

Se

0 1 0 0 00 0 0 0 0

0 0 0 1 00 0 0 0 10 0 0 0 0

A

⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥⋅

= ⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦

, temos dois blocos de Jordan, um de ordem dois e o

outro de ordem três. (O tracejado dentro da matriz é para separar os blocos, não tem nada a ver como matriz de transferência, claro...). O estado deste sistema apresentará os modos 2t , t e constante. - Passamos a outro conceito importante: Um sistema pode não ser controlável e, no entanto, ser estabilizável por meio de realimentação de estado, como se vê no seguinte Exemplo:

1 0 0,

0 1 1A B

−⎡ ⎤ ⎡ ⎤= =⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦

. Este sistema tem um polo “bom”, igual a -1, que dá origem a um

modo “bom” igual a te− , uma exponencial decrescente, e um polo “ruim”, igual a 1, que dá origem a um modo “ruim”, igual a te , uma exponencial cresente. Se realimentarmos o estado do sistema com [ ]1 2u Fx f f x= = , obtemos

1 2

1 01

A BFf f−⎡ ⎤

+ = ⎢ ⎥+⎣ ⎦. E os polos do sistema com realimentação de estado são dados

pelas raízes de 2( 1)( 1)fλ λ+ − − . Observe-se que uma das raízes deste polinômio é fixa, igual a -1, um polo “bom”. Podemos escolher o outro polo arbitrarimante igual a a < 0, fazendo 2 1f a+ = , donde 2 1f a= − . E assim temos a motivação para a Definição: (25a) O sistema (16a), ou mais compactamente, o par (A, B) é dito estabilizável se existir uma realimentação u = Fx tal que o sistema seja estável, isto é, A + BF seja estável. Esta estabilizabilidade é chamada de “estabilizabilidade por realimentação de estado”. Obtem-se o seguinte resultado: Teorema: (25b) As seguintes proposições são equivalentes: i) (A, B) é estabilizável. ii) A matriz [ ]A I Bλ− tem posto cheio (igual a n) para todo Re[ ] 0λ ≥ .

iii) Se λ for um autovalor de A tal que Re[ ] 0λ ≥ e x∗ for o respectivo auto-vetor à esquerda, isto, é, Ax x λ∗ ∗= , então 0Bx∗ ≠ . Exemplo: No exemplo antes da definição (25a), testando a condição ii) acima, temos

Page 16: Notas de aula 1.pdf

16

1 0 0Posto

0 1 1λ

λ+⎡ ⎤

⎢ ⎥−⎣ ⎦ é evidentemente cheio para todo λ no semiplano fechado da

direita, e portanto o par (A, B) é estabilizável. E passamos ao estudo da propriedade que é dual da controlabilidade: Definição: (26) O sistema (16), ou mais simplesmente, o par (C, A) é dito observável se para algum

1 0t > o estado inicial x(0) puder ser determinado conhecendo-se u(t) e y(t) no intervalo [0, 1t ]. Do contrário, o sistema é dito não-observável. Teorema: (27) As seguintes proposições são equivalentes: i) (C, A) é observável.

ii) A matriz 0

( ) Tt

A T AoW t e C Ce dτ τ τ= ∫ é positiva definida para todo t > 0. (Esta matriz é

o gramiano de observabilidade).

iii) A matriz de observabilidade 2

1

:

n

CCACA

CA −

⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥=⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦

O tem posto cheio (igual a n).

iv) A matriz A I

Cλ−⎡ ⎤

⎢ ⎥⎣ ⎦

tem posto cheio (igual a n) para todo λ complexo.

v) Sejam λ e y um auto-valor qualquer de A e seu respectivo auto-vetor à direita, ou seja, Ay = λ y. Então 0Cy ≠ . vi) Os auto-valores de A + LC podem ser escolhidos arbitrariamente por meio de uma escolha apropriada de L, com a restrição de que a todo auto-valor complexo deve corresponder um outro, que é seu complexo conjugado. vii) ( , )T TA C é controlável. A proposição vii) logo acima explica o que é entendido como “dualidade”. Prova: equivalência entre (i) e (iii): Com u = 0, temos

2(0) (0), (0) (0) (0), (0) (0) (0),y Cx y Cx CAx y Cx CA x= = = = = ..., ( 1) ( 1) 1(0) (0) (0)n n ny Cx CA x− − −= = .

Ou seja,

Page 17: Notas de aula 1.pdf

17

2

( 1) 1

(0)(0)

(0)(0)

(0)n n

y Cy CA

xy CA

y CA− −

⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥=⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦

Ora, por hipótese, conhecemos y e todas as suas derivadas no instante t = 0. Se a matriz acima tiver posto cheio, podemos determinar x(0) e se não tiver posto cheio, não podemos. A equivalência das outras condições pode ser demonstrada por dualidade com as condições de controlabilidade do teorema (22). • Observação: (28) De posse da definição de observabilidade acima, podemos acrescentar uma sétima proposição equivalente ao Teorema (22), a saber, vii) ( , )T TB A é observável. E definimos a propriedade dual da estabilizabilidade (25a): Definição: (29) (C, A) é detectável se A + LC for estável para alguma matriz L. Teorema: (30) As seguintes proposições são equivalentes: i) (C, A) é detectável.

ii) A matriz A I

Cλ−⎡ ⎤

⎢ ⎥⎣ ⎦

tem posto cheio (igual a n) para todo Re[ ] 0λ ≥ .

iii) Se λ for um auto-valor de A tal que Re[ ] 0λ ≥ e x for o respectivo auto-vetor à direita, isto, é, Ax xλ= , então 0Cx ≠ . iv) ( , )T TA C é estabilizável. Observação: À luz da definição de detectabilidade acima, podemos acrescentar uma quinta proposição ao Teorema (25), a saber, iv) ( , )T TB A é detectável. 1.6 Observadores e Controladores baseados em Observadores Na seção anterior vimos que a realimentação do estado do sistema permite o posicionamento arbitrário dos polos do sistema. Mas, e se não tivermos acesso ao estado do sistema para realimentá-lo? (Isto ocorre com frequência na prática). Uma alternativa é estimar o estado, ou “observá-lo”. A expressão “observar o estado do sistema” é menos feliz, como veremos, do que “estimar o estado do sistema”. Mas ela tem a ver como veremos, com sistema observável. Consideremos novamente o sistema dado pelas eqs. (16):

Page 18: Notas de aula 1.pdf

18

x Ax Buy Cx Du= += +

(16 bis)

(Supomos, como usual, que a matriz A é de ordem n). Um observador é um outro sistema com entrada (u, y) e cuja resposta deve estimar (num sentido definido logo adiante) o estado x de (16). Chamemos esta estimativa de x . Sejam então as eqs. do observador, cujo estado é q: q Mq Nu Ly= + − (31a) x Qq Ru Sy= + + (31b) M, N, L,Q, R e S devem ser escolhidos de tal forma que tenhamos ˆ( ) ( ) quando x t x t t→ →∞ .

Vejamos as condições de possibilidade para isto: Teorema: (31*) Existe um observador (que estime o estado de (16)) se só se (C, A) for detectável. Se isto ocorrer, existe um observador de ordem n (chamado de “observador de Luenberger”) dado por M = A + LC, N =B + LD, Q = I, R = 0, S = 0. Ou seja, as eqs. do observador de Luenberger são

( ) ( )q A LC q B LD u Ly= + + + − x q= , onde L é qualquer matriz tal que A + LC seja estável.

(Observe-se que, como vimos, a existência de L satisfazendo à última condição é garantida pela detectabilidade de (C, A)). Prova: Para provar a suficiência da condição de detectabilidade de (C, A), basta construir um observador que satisfaça a esta condição. E vamos verificar agora que o observador de Luenberger satisfaz efetivamente à condição. Substituindo y dado em (16b) na eq. acima do observador, temos

( ) ( )q A LC q B LD u LCx LDu= + + + − − = ( )A LC q Bu LCx+ + − . (31**) Definamos o erro: ˆe x x= − = q – x. Então temos da eq. acima do observador e de (16 bis) e = (A +LC)q + Bu – LCx – Ax - Bu = (A + LC)q – (A + LC)x = (A + LC)e. Ou seja, ( ) 0, quando e t t→ →∞ e portanto ˆ( ) ( ) quando x t x t t→ →∞ , como desejado. Para provar a necessidade, suponha que (C, A) não seja detectável. Considere um estado não nulo x(0) no subespaço não detectável. Pode-se demonstrar que este espaço é invariante sob A, ou seja, se x estiver neste subespaço, Ax também estará. Um observador deve ser capaz de estimar o estado da planta, qualquer que seja o controle u e qualquer que seja o estado inicial do mesmo observador. Então, seja q(0) = 0 e u(t) = 0 para todo t. As eqs. da planta (16) e do observador (31) se tornam x Ax= , q Mq LCx= − ,

Page 19: Notas de aula 1.pdf

19

x Qq SCx= + .

Ora, como x(0) está por hipótese no subespaço não detectavel, temos Cx(0) = 0 e como este subespaço é invariante sob A, temos da 1ª. eq. acima que C x(t) = 0 para todo t. Então da 2ª. eq. acima temos q(t) = 0 para todo t. E da 3ª. eq. acima concluímos que o estado estimado x é nulo para todo t, e portanto diferente de x(t). •

Vejamos um Exemplo: Projetar um observador para o seguinte sistema

1 0 13 1 2

x x u⎡ ⎤ ⎡ ⎤

= +⎢ ⎥ ⎢ ⎥−⎣ ⎦ ⎣ ⎦, y = [1 0]x.

Solução: Vamos ver primeiramente se o problema tem solução: temos que verificar se o sistema é detectável. Ora,

1 0Posto =Posto 3 1

1 0

I AC

λλ

λ−⎡ ⎤

−⎡ ⎤ ⎢ ⎥− +⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎢ ⎥⎣ ⎦

é claramente igual a 2 para qualquer λ no

semiplano fechado da direita: basta verificar que se λ =1, o posto é dois e para qualquer outro λ no semiplano fechado da direita o posto também é dois com mais forte razão. Então o sistema é detectável. Um dos autovalores de A +LC é igual a -1 e não pode ser mudado, qualque que seja L. Escolhamos o outro autovalor também igual a -1. Então devemos ter

2 2det( ) ( 1) 2 1I A LCλ λ λ λ− − = + = + + .

Seja 1

2

:l

Ll⎡ ⎤

= ⎢ ⎥⎣ ⎦

. Então, [ ]1

2

1 01 0

3 1l

A LCl⎡ ⎤⎡ ⎤

+ = + ⎢ ⎥⎢ ⎥−⎣ ⎦ ⎣ ⎦= 1

2

1 03 1

ll+⎡ ⎤

⎢ ⎥+ −⎣ ⎦.

Então, devemos ter 1 2

2

1 0det 2 1

3 1l

λ λλ

⎛ ⎞− −⎡ ⎤= + +⎜ ⎟⎢ ⎥− − +⎣ ⎦⎝ ⎠

,

o que nos dá 1 22, qualquer número reall l= − . Donde que 2

1 03 1

A LCl−⎡ ⎤

+ = ⎢ ⎥+ −⎣ ⎦.

E do Teorema (31*) temos as eqs. do observador:

2 2

1 0 213 1 2

q q u yl l− −⎡ ⎤ ⎡ ⎤⎡ ⎤

= + −⎢ ⎥ ⎢ ⎥⎢ ⎥+ − ⎣ ⎦⎣ ⎦ ⎣ ⎦, 2l sendo um número real qualquer, e

x q= .

- O observador acima tem a mesma ordem da planta, n. Há, como veremos agora, certa redundância, o observador pode ter ordem menor. A ideia de um observador de ordem mínima é a seguinte: Através de uma transformação de similaridade, ou o que é o mesmo, de mudança de base para o estado, fazemos C ter a forma

Page 20: Notas de aula 1.pdf

20

[ ]0C I= . E o estado de planta pode ser particionado correspondentemente como

1

2

xx

x⎡ ⎤

= ⎢ ⎥⎣ ⎦

. Donde que 1Cx x= , bastando estimar, através de observador, a componente

2x . - Como vimos na seção anterior, realimentado o estado de um sistema, podemos posicionar os seus polos onde bem desejarmos caso o sistema seja controlável. Mas para isso, é preciso que os polos possam ser acessados e medidos, o que não acontece muitas vezes. Vamos então realimentar o estado estimado através do observador de Luenberger, dado pela eq. do teorema (31*). Seja então

ˆu Fx= . Então, da eq. (31**), obtemos ˆ ˆ( )x A LC BF x LCx= + + − .

E substituindo ˆu Fx= na eq. de estado da planta, (16a), temos

ˆˆ

x A BF xLC A BF LC xx

⎡ ⎤ ⎡ ⎤ ⎡ ⎤=⎢ ⎥ ⎢ ⎥ ⎢ ⎥− + +⎣ ⎦ ⎣ ⎦⎣ ⎦

.

Ou ainda, substituindo ˆx x e= − na primeira eq. acima, temos 0

ˆˆ

e A LC eLC A BF xx

⎡ ⎤ +⎡ ⎤ ⎡ ⎤=⎢ ⎥ ⎢ ⎥ ⎢ ⎥− +⎣ ⎦ ⎣ ⎦⎣ ⎦

.

Esta última eq. mostra que os pólos do SMF, composto de planta e observador, são a união dos polos de A LC+ e os de A + BF. Ora, se a planta for controlável e observável, podemos posicionar arbitrariamente os polos do SMF mediante escolha apropriada das matrizes F e L. E note-se que se ao invés de a planta ser controlável e observável, ela for estabilizável e detectável, poderemos sempre estabilizar o SMF, mas neste caso os polos estáveis da planta ficam fixos, não podendo ser posicionados arbitrariamente, como vimos em exemplo. Substituindo ˆu Fx= em (31**), lembrando que x q= e que Cx = y – Du , temos ˆ ˆ ˆ ˆ( )x A LC x BFx LDFx Ly= + + + − = ˆ( )A BF LC LDF x Ly+ + + − .

Aplicando transformada de Laplace com condições nulas a esta eq., temos, com um pequeno, mas usual, abuso de notação, usando ˆ( )x s para a transformada de ˆ( )x t :

1ˆ( ) ( ) ( ) ( )x s sI A BF LC LDF L y s−= − − − − − . Mas ˆ( ) ( )u s Fx s= , donde

1( ) ( ) ( ) ( )u s F sI A BF LC LDF L y s−= − − − − − . A matriz de transferência entre u(s) e y(s) dada acima é a do controlador com base em observador. Denotemo-la por K(s). Então, temos

Page 21: Notas de aula 1.pdf

21

1.8 Sistemas em cascata, em paralelo e com realimentação. Conjugados e inversos. Sejam dois sistemas cujas matrizes de transferência são 1G e 2G dadas por

Considere a associação dos dois sistemas indicada no diagrama de blocos abaixo. Tal associação é chamada em cascata ou em série.

Figura 1 Observe-se que para que esta associação seja possível, o número de entradas de 1G deve ser igual ao de saídas de 2G . A matriz de transferência da associação acima é 1G 2G . No caso multi-variável, mesmo que o produto 2G 1G seja possível, tem-se em geral

1 2 2 1G G G G≠ . E isto porque o produto de matrizes não é, em geral, comutativo. Temos as seguintes fórmulas compactas:

Prova da 1ª. igualdade (a prova da 2ª. igualdade é em tudo semelhante): Vamos escrever a matriz de transferência da primeira igualdade na forma usual e denotemo-la por X(s):

[ ]1

1 1 2 1 21 1 2 1 2

2 2

( )0

sI A B C B DX s C D C D D

sI A B

−− −⎡ ⎤ ⎡ ⎤= +⎢ ⎥ ⎢ ⎥−⎣ ⎦ ⎣ ⎦

; (*)

1G 2G

( )0

A BF LC LDF LK s

F+ + + −⎡ ⎤

= ⎢ ⎥⎣ ⎦

1 11

1 1

( )A B

G sC D⎡ ⎤

= ⎢ ⎥⎣ ⎦

, 2 22

2 2

( )A B

G sC D⎡ ⎤

= ⎢ ⎥⎣ ⎦

1 1 2 1 2 2 2

1 2 2 2 1 2 1 1 2

1 1 2 1 2 1 2 1 1 2

0( ) ( ) 0

A B C B D A BG s G s A B B C A B D

C D C D D D C C D D

⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥= =⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦

(32a)

Page 22: Notas de aula 1.pdf

22

mas 11 1

1 1 2 1 1 1 2

2 2

( )0 0

sI A B C sI A I sI A B CsI A sI A I

−− −⎛ ⎞− − − ⎡ ⎤− −⎡ ⎤ ⎡ ⎤= ⎜ ⎟⎢ ⎥⎢ ⎥ ⎢ ⎥⎜ ⎟− −⎣ ⎦ ⎣ ⎦ ⎣ ⎦⎝ ⎠

=11

11 1 21

2

( ) 0( )0 ( )0

sI AI sI A B CsI AI

−−

⎡ ⎤⎡ ⎤ −−⎢ ⎥⎢ ⎥ −⎣ ⎦ ⎣ ⎦

=

1 1 11 1 1 2 2

12

( ) ( ) ( )0 ( )

sI A sI A B C sI AsI A

− − −

⎡ ⎤− − −⎢ ⎥−⎣ ⎦

. Então de (*), três linhas acima, vem

1 1 1 11 1 1 2 1 1 1 2 2 2 1 2 2 2 1 2( ) ( ) ( ) ( ) ( )X s C sI A B D C sI A B C sI A B D C sI A B D D− − − −= − + − − + − + . (#)

Por outro lado, temos ( )( )1 1

1 2 1 1 1 1 2 2 2 2( ) ( ) ( ) ( )G s G s C sI A B D C sI A B D− −= − + − +

= 1 1 1 11 1 1 2 2 2 1 2 2 2 1 1 1 2 1 2( ) ( ) ( ) ( )C sI A B C sI A B D C sI A B C sI A B D D D− − − −− − − −+ + +

= X(s) dado em (#), quatro linha acima. • Exemplo: Calcular a associação em cascata das matrizes de transferência, que têm as seguintes realizações:

[ ] [ ]1 1 1 1

1 8 2 1 22 3 1 , 1 1 , 2 0 4 e 5 1

4 2 1 0 1A B C D

⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥= − = − = = −⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥− −⎣ ⎦ ⎣ ⎦

,

2 2 2 2 2 2

1 2 0 10 0 10, , e 0

5 4 4 1 4 1A B C D ×

− − −⎡ ⎤ ⎡ ⎤ ⎡ ⎤= = = =⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦ ⎣ ⎦

.

Para exprimir a matriz de transferência 1 2( ) ( )G s G s de forma compacta, efetuamos os

produtos: [ ]1 2 1 2 1 2 1 23 2 1 2

8 84 11 , 0 , 4 49 , 0

4 1B C B D D C D D× ×

−⎡ ⎤⎢ ⎥= − − = = − − =⎢ ⎥⎢ ⎥⎣ ⎦

.

Então, temos:

Considere agora a associação em paralelo: (Observe-se que quando não há indicação no somador, os sinais de entrada são positivoa)

1 2( ) ( )

1 8 2 8 8 0 02 3 1 4 11 0 0

4 2 1 4 1 0 00 0 0 1 2 0 100 0 0 5 4 4 12 0 4 4 49 0 0

G s G s =

−⎡ ⎤⎢ ⎥− − −⎢ ⎥⎢ ⎥− −⎢ ⎥− −⎢ ⎥⎢ ⎥⎢ ⎥

− −⎣ ⎦

Page 23: Notas de aula 1.pdf

23

É claro que

( )1 2 1 2( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )y s G s u s G s u s G s G s u s= + = + Obtem-se a matriz de transferência equivalente:

Prova: O segundo lado da igualdade acima é

[ ] 1 2

11 1

1 22 2

00

D DsI A B

C CsI A B

+−⎡ ⎤ ⎡ ⎤

+⎢ ⎥ ⎢ ⎥−⎣ ⎦ ⎣ ⎦

1 1 1 2 2 2 1 21 1( ) ( )C sI A B C sI A B D D− −− − ++ + 1 1 1 1 2 2 2 2

1 1( ) ( )C sI A B D C sI A B D− −− − += + + = 1 2( ) ( )G s G s+ . • Exemplo: É claro que na associação em paralelo as duas matrizes de transferência têm que ter as mesmas dimensões. Seja

[ ]1 1 1 1

1 5 1, , 3 2 e 2

4 8 4A B C D

−⎡ ⎤ ⎡ ⎤= = = − =⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦

[ ]2 2 2 2

1 2 1, , 3 1 e 1

4 7 3A B C D

− −⎡ ⎤ ⎡ ⎤= = = =⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦

.

Portanto,

1 1

1 2 2 2

1 2 1 2

0( ) ( ) 0

A BG s G s A B

C C D D

⎡ ⎤⎢ ⎥+ = ⎢ ⎥⎢ ⎥+⎣ ⎦

(32b)

1G

2G

u y

1 2

1 5 0 0 14 8 0 0 40 0 1 2 10 0 4 7 33 2 3 1 3

G G

−⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥+ = − −⎢ ⎥⎢ ⎥⎢ ⎥−⎣ ⎦

Page 24: Notas de aula 1.pdf

24

- Considere-se agora a associação em realimentação na figura abaixo: 2 1 2 1 1 1 2 1

1 1( ) ( )G G G G G G G Gv u v v I u y v I u− −= − ∴ = + ∴ = = + . Ou seja, a matriz de transferência entre y e u é 1 2 1

1( )G G GI −+ = 1 2 11( )G G GI −+ . (32c)

Esta última igualdade se deve ao fato que 1 2 1 1 2 1( ) ( )G G G G G GI I+ = + .

Obtemos a seguinte matriz de transferência T(s), cuja demonstração é omitida posto que bastante trabalhosa. De (32c), o primeiro passo da demonstração é calcular 1 2G GI + usando (32a) e (32b). A seguir, temos a parte mais trabalhosa da demonstração, que é calcular 1 2

1( )G GI −+ , que é feito primeiramente transformando a matriz “A” em produto de matrizes bloco-diagonais, cujas inversas são imediatas. Este é o “pulo do gato”. O resto é rotina trabalhosa.Last not least, premultiplicar 1 2

1( )G GI −+ por 1G , usando novamente (32a). Obtem-se:

(32d) onde 12 1 2R I D D= + e 21 2 1R I D D= + . Exemplo: Sejam os sistemas 1 1 1 1 2 2 2 21, 2, 3, 0; 2, 1, 2, 0A B C D A B C D= − = = = = − = = = . Vamos calcular a matriz de transferência equivalente pelos dois métodos:

De (32c), temos 1 2 11( )G G GI −+ . Mas 1 2

6 2 e 1 2

G Gs s

= =+ +

, donde

1 2 11

2 2

6 1 6 ( 2)( 1) 6 12( ) 2 61 1 3 14 3 141+2 1

G G Gs s sI

s s s s s ss s

− + + ++ = = =

+ + + + + ++ +

.

2G

1G

_

Figura 3

u y

v

1 1 11 1 2 12 1 1 12 2 1 21

1 1 12 12 1 2 2 1 21 2 2 1 21

1 1 112 1 12 1 2 1 21

A B D R C B R C B RT B R C A B D R C B D R

R C R D C D R

− − −

− − −

− − −

⎡ ⎤− −⎢ ⎥= −⎢ ⎥⎢ ⎥−⎣ ⎦

Page 25: Notas de aula 1.pdf

25

E por outro lado, da expressão de T acima, vem

E portanto,

[ ] [ ]1

2

1 4 2 2 4 213 0 3 03 2 0 3 1 03 14

s sT

s ss s

−+ + −⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤= =⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥− + ++ +⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦

= [ ] 2 2

2 41 6 123 063 14 3 14

s ss s s s

+⎡ ⎤ +=⎢ ⎥+ + + +⎣ ⎦

, conferindo com o resultado encontrado

acima. Definição: (33) O sistema conjugado de G(s) é definido por

1~ ( ) ( ) ( )T T T T TG s G s B sI A C D−= − = − − +

Teorema: (33*) Seja †D a inversa à direita (esquerda) de D. Então a inversa à direita (esquerda) de G(s) é dada por

Prova: Vamos provar este resultado só para a inversa à direita, o procedimento é em tudo semelhante para a inversa a esquerda. Vamos calcular o produto †GG usando (32a):

Mas †DD I= , donde

T T

T T

A CB D

⎡ ⎤− −= ⎢ ⎥⎣ ⎦

† †

† †

† D DG

D DA B C B

C⎡ ⎤− −

= ⎢ ⎥⎣ ⎦

† †

† † †

† †

0A BD C BD

GG A BD C BDC DD C DD

⎡ ⎤⎢ ⎥= − −⎢ ⎥⎢ ⎥⎣ ⎦

† †

† † †0A BD C BD

GG A BD C BDC C I

⎡ ⎤⎢ ⎥= − −⎢ ⎥⎢ ⎥⎣ ⎦

1 4 23 2 03 0 0

T− −⎡ ⎤⎢ ⎥= −⎢ ⎥⎢ ⎥⎣ ⎦

Page 26: Notas de aula 1.pdf

26

Agora observe- se que para um sistema qualquer, 1 1 1 1( ) ( )C sI A B CT T sI A T TB− − − −− = −

( )1 11( )CT TBT sI A T− −−= − ( )1 11CT TBsI TAT− −−= − .

Para o sistema acima com 0I I

TI

⎡ ⎤= ⎢ ⎥⎣ ⎦

, temos 1

0I I

TI

− −⎡ ⎤= ⎢ ⎥⎣ ⎦

,

†0 00I I I IA BD C

I IA BD C−⎡ ⎤⎡ ⎤ ⎡ ⎤

⎢ ⎥⎢ ⎥ ⎢ ⎥−⎣ ⎦ ⎣ ⎦⎣ ⎦= †

00A

A BD C⎡ ⎤⎢ ⎥−⎣ ⎦

, †

††

00I I BD

I BDBD⎡ ⎤⎡ ⎤ ⎡ ⎤

=⎢ ⎥⎢ ⎥ ⎢ ⎥−−⎣ ⎦ ⎣ ⎦⎣ ⎦,

[ ] [ ]00I I

C C CI−⎡ ⎤

=⎢ ⎥⎣ ⎦

. Então, temos

[ ]1

† †

0 00

0sI A

C IsI A BD C BD

−−⎡ ⎤ ⎡ ⎤= +⎢ ⎥ ⎢ ⎥− + −⎣ ⎦ ⎣ ⎦

= I. • 1.9 Realizações de matrizes de transferência no espaço de estado Dada uma matriz de transferência G(s), uma realização desta matriz é uma quádrupla ordenada (A, B, C, D) satisfazendo às eqs. (16) e tal que

1( ) ( )G s C sI A B D−= − + Definição: A ordem de uma realização de uma matriz de transferência é a dimensão da matriz A. Definição: Uma realização é de ordem mínima se ela tiver a menor ordem possível. Exemplo Seja a função de transferência G(s)= 1/s. É fácil verificar que ela tem as seguintes realizações, entre inúmeras outras:

1 1 1 10, 1, 1 e 0A B C D= − = = = , [ ]2 2 2 2

0 0 1, 1 2 e 0

0 1 0A B C D⎡ ⎤ ⎡ ⎤

= = = =⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦

.

Claro que a primeira realização é de ordem mínima, igual a 1. Observe-se que a mesma função de transferência tem uma infinidade de realizações. Assim, por exemplo, o segundo elemento de 2C pode ser qualquer número real. E na primeira realização, basta que o produto 1 1B C seja igual a 1. Note-se que a ordem da realização de ordem mínima de uma função de transferência é igual ao grau do polinômio característico da função de transferência (= denominador da

† † †

0 00

0

AGG A BD C BD

C I

⎡ ⎤⎢ ⎥= − −⎢ ⎥⎢ ⎥⎣ ⎦

Page 27: Notas de aula 1.pdf

27

função de transferência). Mas para matrizes de transferência, como veremos, a coisa é um pouco mais complicada, ou melhor, o polinômio característico não é determinável de modo tão simples. Uma realização de ordem 1 é seguramente de ordem mínima. Mas se ela não for de ordem 1, como saber se é mínima? A resposta nos é dada no importante Teorema: (33**) Uma realização (A, B, C, D) no espaço de estado de uma matriz de transferência G(s) é de ordem mínima se só se (A, B) for controlável e (C , A) for observável. Prova: (Somente se): Pode-se demonstrar que se o sistema não for controlável, existe uma transformação de similaridade, com uma matriz não singular T tal que

1 11 12 1

22

e 0 0

TATA A B

TBA

− ⎡ ⎤ ⎡ ⎤= =⎢ ⎥ ⎢ ⎥

⎣ ⎦⎣ ⎦. Seja [ ]1

1 2CT C C− = .

Ora a matriz de transferência do sistema é 1 1 1 1( ) ( )C sI A B D CT T sI A T TB D− − − −− + = − +

= ( ) ( )1 11 11 1( )CT TB D CT TB DT sI A T sI TAT− −− −− −+ = +− −

= [ ] [ ]1 1

111 12 11 11 2 1 21

22

( ) ( )00 ( ) 0BsI A A sI A B

C C D C C DsI A

− −

⎡ ⎤ ⎡ ⎤− − −⎡ ⎤+ = +⎢ ⎥ ⎢ ⎥⎢ ⎥− ⎣ ⎦ ⎣ ⎦⎣ ⎦

= 11 11 1( )C sI A B D−− + . Mas esta realização é de ordem menor que a original, pois é claro

que a dimensão de 11A é menor que a de A. E portanto a controlabilidade é necessária para que a realização seja de ordem mínima. Para a necessidade da observabilidade procede-se de modo dual, sendo possível demonstrar que se um sistema for não observável, existe matriz T tal que

[ ]1 11

11

21 22

00

e TAT CT CAA A

− − =⎡ ⎤

= ⎢ ⎥⎣ ⎦

. E procede-se em seguida do mesmo modo como

acima. (Se): Suponha que a realização (A, B, C, D) seja controlável e observável, mas não seja mínima. Seja uma outra realização da mesma matriz de transferência que seja mínima: ( , , , )m m mA B C D . Então,

1 1( ) ( ) m m mC sI A B D C sI A B D− −− + = − + , ou seja, 1 1( ) ( ) m m mC sI A B C sI A B− −− = − . (*) Mas 1 1 2 2 3( ) ...sI A Is As A s− − − −− = + + + , supondo que a série convirja, ou seja, que a matriz A seja assintoticamente estável. (**) e da mesma forma para 1( )msI A −− . Então de (*), duas linhas acima, temos

2 2, , ,...m m m m m mCB C B CAB C AB CA B C A B= = = (#) Ora, lembramos que as matrizes de controlabilidade e observabilidade são

Page 28: Notas de aula 1.pdf

28

1

1

C [ , , ..., ] e On

n

CCA

B AB A B

CA

⎡ ⎤⎢ ⎥⎢ ⎥= =⎢ ⎥⎢ ⎥⎣ ⎦

, respectivamnete.

Definamos 1

1

C : [ , , ..., ] e O :

m

m mnm m m m m m m

nm m

CC A

B A B A B

C A

⎡ ⎤⎢ ⎥⎢ ⎥= =⎢ ⎥⎢ ⎥⎣ ⎦

.

Mas destas duas e de (#), quatro linhas acima, temos OC O Cm m= . (##) Mas das desigualdades de Sylvester, temos Posto[O] Posto[C] Posto[O C] Posto[O], Posto[C]minn+ − ≤ ≤ . Mas como a realização (A, B, C, D) é controlável e observável por hipótese, temos da dupla desigualdade acima que Posto[OC] n= . Mas visto que a realização ( , , , )m m mA B C D é por hipotese minima, ela é controlável e observável, de acordo com a necessidade, já demonstrada do teorema. Seja k o posto de Cm e de Om . Então, aplicando as desigualdades de Sylvester a O Cm m , concluimos que seu posto é igual a k. E de (##), concluimos que k = n. • Observação: Se o sistema (A, B, C, D) não for controlável, ao efetuarmos o produto 1( )sI A B−− , há cancelamento de polo. E se o sistema não for observável, ao efetuarmos o produto

1( )C sI A −− , também há cancelamento de polo. Exemplo:

Suponha que um sistema tenha 1 0 0

, 0 1 1

A B−⎡ ⎤ ⎡ ⎤

= =⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦

. Este sistema não é controlavel,

pois 1 0 0

Posto[ , ] Posto 1 2 C0 -1 1

ssI A B s

s+⎡ ⎤

− = = < ∀ ∈⎢ ⎥⎣ ⎦

.

Ora, 1

111

0 0( 1) 0( )

1 ( 1)0 ( 1)s

sI A Bss

−−

−−

⎡ ⎤+ ⎡ ⎤ ⎡ ⎤− = =⎢ ⎥ ⎢ ⎥ ⎢ ⎥−− ⎣ ⎦ ⎣ ⎦⎣ ⎦

. Ou seja, o polo -1 efetivamente

foi cancelado no produto. E observe-se que o sistema com este par (A,B) é estabilizável,

pois +

1 0 0Posto[ , ] Posto 2 C

0 -1 1s

sI A B ss

+⎡ ⎤− = = ∀ ∈⎢ ⎥

⎣ ⎦. Ou seja, como visto acima,

num sistema estabilizável , mas não controlável, há sempre cancelamento de um modo “bom”, no caso acima, s = -1.

Page 29: Notas de aula 1.pdf

29

Se com a mesma matriz A, tivermos [ ]0 1C = , obteremos 1 1( ) 0 ( 1)C sI A s− −⎡ ⎤− = −⎣ ⎦

e, de novo, o mesmo modo “bom” foi cancelado no produto 1( )C sI A −− , o sistema sendo detectável. Se o sistema tiver as matrizes A, B e C acima, ele não será nem controlável, nem observável (mas será estabilizável e detectável). Teorema: Sejam 1 1 1 2 2 2( (, , , ) e , , , )A AB C D B C D duas realizações mínimas de uma mesma matriz de transferência. Então existe uma única matriz não singular T tal que

1 12 1 2 1 2 1, , e A TAT B TB C C T− −= = = . Alem disso, sejam 1 2 1 2C , C , O e O as respectivas

matrizes de controlabilidade e observabilidade, respectivamente. Então, T é dada por * 1 * * * 12 2 2 2 2 2 2 2(O O ) (O O ) (C C )(C C )T − −= = . (E observe-se que 1T T −= , ou seja, T é uma

matriz unitária, ou ortogonal, sendo as matrizes reais) Prova: omitida. - Realizações de matrizes de transferência:

1. Seja a matriz de transferência 1 2

3 4

( ) ( )( )

( ) ( )G s G s

G sG s G s⎡ ⎤

= ⎢ ⎥⎣ ⎦

, onde as realizações dos blocos

são

Então uma realização de G(s) é dada por

A prova deste resultado é imediata. Vejamos a chamada realização de Gilbert, que pode ser usada quando os polos da matriz de transferência são reais e distintos: Seja G(s) uma matriz de transferência própria, p m× . Separamos a parte estritamente própria da constante:

( ) ( )spG s D G s= + Seja d(s) o mínimo múltiplo comum dos denominadores de G(s). Então, temos 1 2( ) ( )( ) ( )rd s s s sλ λ λ= − − − . Podemos escrever:

( ) ii

ii i

G s A BC D⎡ ⎤⎢ ⎥⎢ ⎥⎣ ⎦

= , i = 1, 2, 3 e 4

1 1

2 2

3 3

4 4

1 2 1 2

3 4 3 4

( )

0 0 0 00 0 0 00 0 0 00 0 0 0

0 00 0

G s

A BA B

A BA B

C C D DC C D D

=

⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦

Page 30: Notas de aula 1.pdf

30

1 21 2

1 1 1( )sp rr

G s W W Ws s sλ λ λ

= + + +− − −

,

onde R p miW ×∈ , i = 1, 2, r, são os chamados resíduos (que são matriciais).

Temos então:

1

( )r

i

i i

G s DW

s λ=

= +−∑ . (*)

Suponha que o posto de cada iW é ik e sejam matrizes R ii

k mB ×∈ e R ii

p kC ×∈ tais que

i i iW C B= .

Realizamos cada 1i

i

Ws λ−

como ( )( )ii i ikC s I Bλ−

Então é fácil verificar desta e de (*), três linhas acima, que uma realização de G(s) é dada por

Aplicando o teste PBH do posto, vê-se “imediatamente” que esta realização é controlável e observável. Exemplo Achar a realização de Gilbert da seguinte matriz de transferência

2

2 2

2

2 13 2 1( )

1 12

ss s sG s

s ss s s

⎡ ⎤⎢ ⎥+ + −= ⎢ ⎥

− −⎢ ⎥⎢ ⎥+ −⎣ ⎦

.

Solução: Primeiramente separamos as partes estritamente própria e constante (independentemente de s) e fatoramos os denominadores:

6 4 12 0 ( 1)( 2) ( 1)( 1)

( )0 1 1 1

( 1) 2

ss s s s

G ss

s s s

− −⎡ ⎤⎢ ⎥+ + + −⎡ ⎤ ⎢ ⎥= +⎢ ⎥ −⎢ ⎥⎣ ⎦⎢ ⎥+ −⎣ ⎦

.

Agora “parcelamos” cada elemento estritamente próprio, utilizando o cálculo dos resíduos:

6 4 1 1( 1)( 2) ( 1)( 1) ( 1)

2 8 1 1 2 1, , 1 2 2( 1) 2( 1) 1

s ss s s s s ss s s s s s− − −

+ + + − += − = − = −

+ + − + +.

Então, temos

11 1

1

0

( )0

r

k

r k r

r

I B

G sI B

C C D

λ

λ

⎡ ⎤⎢ ⎥⎢ ⎥= ⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦

Page 31: Notas de aula 1.pdf

31

2 8 1 12 0 1 2 2( 1) 2( 1)( )0 1 2 1 1

1 2

s s s sG s

s s s

⎡ ⎤− −⎢ ⎥⎡ ⎤ + + − +⎢ ⎥= +⎢ ⎥⎢ ⎥⎣ ⎦ −⎢ ⎥+ −⎣ ⎦

,

ou seja, 1 1 1 1

1 ( 1) 2

2 0 0 0 2 1/ 2 0 1/ 2 0 0( )

0 1 1 0 2 0 0 0 0 1s s s sG s

+ − −

−⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤= + + + +⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥−⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦

= [ ] [ ] [ ]21 1 1 1

1 ( 1) 2

2 0 0 2 1/ 2 1/ 2 01 0 0 1 0 1

0 1 1 2 0 0 1s s s sI

+ − −

−⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤+ + + +⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥−⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦

.

Donde temos a matriz de transferência na forma compacta procurada que nos dá, por simples inspeção, a realização que é mínima:

1.10 Equações de Lyapunov Considere a seguinte equação de Lyapunov

0TA X XA Q+ + = , (34) onde A e Q são matrizes de números reais. Pode-se demonstrar que esta eq. tem solução única se só se ( ) ( ) 0 ,i jA A i jλ λ+ ≠ ∀ ,

onde ( )iλ ⋅ indica autovalor de uma matriz e ( )jλ ⋅ indica o complexo conjugado do respectivo autovalor. Lema: (35) Com referência à eq. (34), suponha que A seja estável. Então, sua solução tem as seguintes propriedades:

(i) 0

TA t AtX e Qe dt∞

= ∫ ;

(ii) X > 0 se Q > 0 e 0 se 0X Q≥ ≥ ; (iii) suponha 0Q ≥ ; então 1/ 2( , )Q A é observável se só se X > 0. Observação: O gramiano de observabilidade é definido como

1 01 1 0

1 0 1( ) 1 0 1

2 0 10 2 1/ 2 1/ 2 0 2 01 2 0 0 1 0 1

ss

sG s s

s

⎡ ⎤⎢ ⎥+⎢ ⎥⎢ ⎥+⎢ ⎥= −⎢ ⎥⎢ ⎥−⎢ ⎥

−⎢ ⎥⎢ ⎥−⎣ ⎦

Page 32: Notas de aula 1.pdf

32

0

T To

A t AtL e C Ce dt∞

= ∫ .

Então verifica-se que ele satisfaz à eq. de Lyapunov, a saber, 0T T

o oA L L A C C+ + = . Mais ainda, de acordo com (iii) do Lema, um par (C, A) é observável se só se ele satisfizer à eq. acima. Dualmente, um par (A, B) é controlável se seu gramiano, definido como

0

TTc

At A tL e BB e dt∞

= ∫ ,

satisfizer à eq. de Lyapunov 0T T

c cAL L A BB+ + = . Exemplo: Achar os gramianos de controlabilidade e de observabilidade do seguinte sistema

[ ]1 1 1, , 1 3

0 2 2A B C

−⎡ ⎤ ⎡ ⎤= = =⎢ ⎥ ⎢ ⎥−⎣ ⎦ ⎣ ⎦

, D qualquer matriz dois por dois de reais.

Solução: 0T T

c cAL L A BB+ + = .

Seja :c

l mL

n p⎡ ⎤

= ⎢ ⎥⎣ ⎦

. Substituindo, vem

[ ]1 1 1 0 1 0 01 2

0 2 1 2 2 0 0l m l mn p n p

− −⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤+ + =⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥− −⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦

,

donde 2 1 2 0 0

2 2 2 2 4 0 0l n m p l m m

n p n p p− + − + − + −⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤

+ + =⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥− − − + −⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦,

que nos dá 4 eqs.: 2 1 0, 3 2 0, 3 2 0 e 4 4 0m n l p n p m p+ − + = − + = − + = − + = .

Donde obtemos m = n = p = 1, l = 3/2, ou seja, 3/ 2 1

1 1cL⎡ ⎤

= ⎢ ⎥⎣ ⎦

.

O gramiano de observavilidade é calculado de forma semelhante. 1.11 Polos e zeros em sistemas multivariaveis Polos de uma função de transferência (escalar) são as raizes do seu denominador, enquanto que os zeros são as raízes do seu numerador. Os polos de uma função de transferência definem a sua estabilidade, ou não. E os zeros estão associados ao seu regime transitório. Como vimos, os autovalores da matriz do sistema, a matriz “A” definem se o sistema é assintoticamente estável, marginalmente estável ou instável. Vimos também que os autovalores da matriz podem ser cancelados

Page 33: Notas de aula 1.pdf

33

quando se efetuam os produtos para constiuir a função de transferência. São cancelados, como vimos, os “modos” incontroláveis e/ou inobserváveis. Após os cancelamentos ficamos com uma função de transferência com menos polos do que os autovalores da matriz “A”. Para funções de transferência, o conceito de estabilidade é o de BIBO-estabilidade, BIBO significando “bounded input / bounded output”: Definição: (36) Uma função de transferência é BIBO se para todo sinal de entrada limitado, a sua resposta também será um sinal limitado. E o resultado bem conhecido para funções racionais é: Teorema: (37) Uma função de transferência é BIBO – estável se só se não tiver polo no semi-plano fechado da direita. A prova deste fato é simples, bastando lembrar que a transformada de Laplace de sinais limitados tem seus polos no semiplano fechado da esquerda, sendo que os polos no eixo imaginário são simples, isto é, com grau de multiplicidade igua a 1. • Exemplo:

Considere a função de transferência 1( )

1G s

s=

+. Se a entrada for um sinal limitado, a

resposta conterá este mesmo sinal limitado, além de uma exponencial decrescente, que tende para zero. Assim, por exemplo, se a entrada for um “degrau” aplicado no instante t

= 0, isto é, 1( )u ss

= , então a resposta é 1 1( )

1y s

s s=

+=

1 1( )1

y ss s

= −+

, esta última

igualdade sendo obtida pelo familiar cálculo dos resíduos. Ora, a transformada inversa desta é ( ) 1 , 0ty t e t−= − ≥ , ou seja, um degrau diminuido de uma exponencial decrescente, ou seja, a resposta é BIBO

Considere agora a função de transferência 1( )G ss

= , que tem o polo fora do semiplano

aberto da esquerda, mas na “fronteira”. Suponha que a entrada seja a mesma do caso

anterior. Então a resposta será 2

1( )y ss

= , cuja trasformada inversa é ( ) , 0y t t t= ≥ ,

uma “rampa”, trata-se de um sinal que evidentemente não é limitado, e portanto esta função de transferência não é BIBO, como previsto pelo Teorema (37). - No caso de matrizes de transferência, isto é, de sistemas multivariáveis, a definição de polos não é tão simples quanto aos polos com grau de multiplicidade maior que 1. Se os polos são simples, supondo que cada elemento da matriz de transferência seja irredutível, isto é, não haja cancelamento entre fator comun no numerador e denominador, então todo polo de qualquer elemento da matriz também será polo da matriz de transferência. E se houver polo múltiplo em algum elemento da matriz de

Page 34: Notas de aula 1.pdf

34

transferência, ele também será polo da matriz, mas o grau de multiplicidade do polo da matriz não será necessariamente igual ao grau no elemento. Os polos de uma matriz de transferência são definidos primeriamente através de seu polinômio característico, que é definido agora: Definição: (38) Supondo que todos os elementos de uma matriz de transferência sejam irredutíveis, seu polinômio característico é definido como o mínimo múltiplo comum (m.m.c.) dos denominadores de todos seus menores. Lembra-se que os menores de uma matriz de transferência são os determinantes que se podem formar com os elementos da matriz, como explicado neste exemplo, onde será calculado o polinômio característico: Exemplo: Considere a matriz de transferência

2

2

1 10( 1)

( )1 1

1 ( 1) 2

ss s

G ss

s s s s s

+⎡ ⎤⎢ ⎥−⎢ ⎥=⎢ ⎥⎢ ⎥+ + +⎣ ⎦

.

Antes de calcular o polin. careact., observe-se que o elemento de ordem (2,3) não é irredutível. Procedendo-se ao cancelamento correspondente, temos

2

1 10( 1)

( )1 1 1

1 ( 1) 2

ss s

G s

s s s s

+⎡ ⎤⎢ ⎥−⎢ ⎥=⎢ ⎥⎢ ⎥+ + +⎣ ⎦

.

Os menores de ordem 1 são os elementos da matriz, cujos denominadores são 2, ( 1) , 1, ( 1) e 2s s s s s s− + + + . (39a)

Os menores de ordem 2 são obtidos pelo cruzamento das duas linhas com duas colunas: 1ª. e 2ª., 1ª. e 3ª., 2ª. e 3ª. Quando se fazem produtos e somas no cálculo de menores de ordem 2 ou de ordem maior, podem ser cancelados fatores. Ou seja, em geral não dá para escrever os denominadores desses menores por simple inspeção como foi feito no caso dos menores de ordem 1. Neste caso, temos os menores de ordem 2:

2 2 2

1 1 1 2 1, e ( 1) ( 2) ( 1) 2 ( 1) ( 1)

ss s s s s s s s s

−− =

+ + − + − +.

Os denominadores destes menores são portanto 2 2( 1), 2 e ( 1) ( 1)s s s s s s+ + − + . (39b)

Desta e de (39a) temos o polinômio característico de acordo com (38):

2 2( 1) ( 1)( 2)s s s s− + +

Page 35: Notas de aula 1.pdf

35

Isto posto temos a definição de polos em matrizes de tranferência: Definição: (40) Os polos de uma matriz de transferência, com seus respectivos graus de multiplicidade, são as raízes de seu polinômio característico. No exemplo acima temos polo duplo na origem e em 1 e polo simples em -1 e -2. Vale observar que o polo duplo na origem não aparece em nenhum dos elementos. - Para definir zeros em sistemas multivariáveis temos que definir o que são matrizes de MacMillan, tb. chamadas de Smith-MacMillan. Antes porem, temos a Definição: (41) Uma matriz polinomial em s, quadrada, é dita unimodular se seu determinante for independente de s. E temos a muito utilizada Forma de Smith dada pelo Teorema (Forma de Smith) (42a) Dada uma matriz polinomial P(s), existem matrizes unimodulares U(s) e V(s) tais que

1

2

( ) 0 0 00 ( ) 0 0

( ) ( ) ( ) : ( )0 0 ( ) 00 0 0 0

r

ss

U s P s V s S ss

γγ

γ

⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥= =⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦

, (42b)

onde os ( )i sγ são tais que cada ( )i sγ é fator de 1( )i sγ + ; ( )i sγ são chamados polinomios invariantes da matriz P(s). Na matriz acima 1( )sγ é o m.d.c. (máximo divisor comum) de todos os elementos da matriz P(s), 2 ( )sγ é o m.d.c. dos menores de ordem 2 da matriz P(s) dividido por 1( )sγ , etc... Na matriz acima r é o chamado posto normal da matriz P(s), que é definido como o maior dos postos da matriz para pelo menos um valor de s. Esta definição de posto normal é geral, valendo também para matrizes irracionais. No caso de matrizes polinomiais (como também no caso de matrizes racionais, aliás toda matriz polinomial é tb. racional), o posto normal é a ordem do menor de maior ordem não indenticamente nulo. A demonstração da forma de Smith que será omitida aqui, é feita através de operações elementares e da aplicação da fórmula de Binet-Cauchy que dá o menor do produto de

Page 36: Notas de aula 1.pdf

36

matrizes em função dos menores dos fatores. Esta demonstração está, por exemplo, nas pp. 47ss (numeração embaixo da página) do meu texto “Sistemas Lineares” que se encontra no meu site. Mas o conceito de operações elementares tem que ser explicado para sabermos como calcular a forma de Smith de uma matriz. São três as operações elementares tanto sobre as linhas como sobre as colunas: 1. Multiplicação de uma linha (coluna) por um número real diferente de zero; 2. Permutação de duas linhas (colunas); 3. Adição de uma linha (coluna) multiplicada por um polinômio a uma outra linha (coluna). Vejamos exemplos destas três operações:

Dada a matriz 3

2

1( )

1 4 ( 4)s s s

P ss s s⎡ ⎤+

= ⎢ ⎥− − −⎣ ⎦;

1. Multplicando a 2ª. linha por 2, obtemos 3 3

2 2

1 11 4 ( 4) 2( 1) 2( 4) 2( 4)

s s s s s ss s s s s s⎡ ⎤ ⎡ ⎤+ +⎢ ⎥ ⎢ ⎥− − − − − −⎣ ⎦ ⎣ ⎦

∼ . Note-se que isto equivale a

premultiplicar a matriz P(s) por 1 00 2⎡ ⎤⎢ ⎥⎣ ⎦

, que é uma matriz unimodular pela definição

acima. Para obter esta matriz, basta efetuar a operação elementar sobre a matriz identidade 2. Permutando a 2ª. e 3ª. colunas, obtemos

3 3

2 2

1 11 4 ( 4) ( 1) ( 4) 4

s s s s s ss s s s s s⎡ ⎤ ⎡ ⎤+ +⎢ ⎥ ⎢ ⎥− − − − − −⎣ ⎦ ⎣ ⎦

∼ , notando-se que esta operação é

equivalente à posmultiplicação de P(s) por 1 0 00 0 10 1 0

⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦

, de novo uma matriz unimodular,

obtida, tal como no caso anterior, por aplicação da operação à matriz identidade 3. Adicionando à 2ª. coluna a primeira multiplicada pelo polinômio s, obtemos

3 2

2 2

1 1 11 4 ( 4) ( 1) 4 4

s s s s s s ss s s s s s⎡ ⎤ ⎡ ⎤+ + + +⎢ ⎥ ⎢ ⎥− − − − − −⎣ ⎦ ⎣ ⎦

∼ . E este resultado, tal como nos

casos anteriores, pode ser obtido, posmultiplicando a matriz P(s) pela matriz que é o resultado da aplicação da mesma operação elementar à matriz identidade, ou seja, pela

matriz 1 00 1 00 0 1

s⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦

.

Page 37: Notas de aula 1.pdf

37

Como acabamos de constatar, toda operação elementar, seja aplicada às linhas, seja às colunas, é equivalente, respectivamente, à premultiplicação ou posmultiplicação por uma matriz unimodular. Mas o produto de matrizes unimodulares é unimodular. (Para ver isto, basta considerar que o produto dos determinantes delas é independente de s). Consequentemente, uma sequência de operações elementares é equivalente à pré- (ou pós-) multiplicação por matrizes unimodulares. E a recíproca também é verdadeira, ou seja, toda matriz unimodular que pré (pós)- multiplique outra matriz pode ser decomposta como o produto de matrizes unimodulares simples (dos tipos das 3 acima), e portanto é equivalente a uma sequência de operações elementares. A demonstração da Forma de Smith se faz aplicando um algoritmo, com numero necessariamente finito de passos, cada passo constituindo uma operação elementar. Vamos mostrar isto através de um exemplo, calculando a Forma de Smith da matriz P(s) acima. A primeira coisa que se faz é, por permutação de linhas e coluna, colocar o elemento de mais alto grau na posição (1,1). No caso presente, ele já está lá. A seguir, zeram-se todos os elementos da 1ª. linha e primeira coluna, utilizando-se as operações elementares que forem necessárias. No caso presente, temos

3 3

2 3 2

1 1( )

1 4 ( 4) 1 5 9 16s s s s s s

P ss s s s s s⎡ ⎤ ⎡ ⎤+ +

= ⎢ ⎥ ⎢ ⎥− − − − − − + − +⎣ ⎦ ⎣ ⎦∼

3 2 3 2

3 3

1 5 9 16 1 5 9 161 1

s s s s s ss s s s s s

⎡ ⎤ ⎡ ⎤− − − + − + − + −⎢ ⎥ ⎢ ⎥+ +⎣ ⎦ ⎣ ⎦

∼ ∼

4 3 2 4 3 2

1 0 0 1 0 04 1 2 8 16 0 4 1 2 8 16s s s s s s s s s s s

⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥− + − + − + − + − + − +⎣ ⎦ ⎣ ⎦

∼ ∼ .

Chegados a este ponto, coloca-se em (2,2) o elemento de mais baixo grau, que já está lá e fazem-se operações elementares para zerar todos os elementos da 2ª. linha e da 2ª. coluna, à exceção do elemento (2,2), claro. Ou seja:

4 3 2 3 2

1 0 0 1 0 00 1/ 4 2 8 16 0 1/ 4 ( 7 / 4) 8 16s s s s s s s s s⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥− − + − − − + −⎣ ⎦ ⎣ ⎦

∼ ∼

3 2 2

1 0 0 1 0 00 1/ 4 (7 / 4) 8 16 0 1/ 4 ( 121/16) 16s s s s s s s⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥− − + − − −⎣ ⎦ ⎣ ⎦

∼ ∼

2

1 0 0 1 0 00 1/ 4 (121/16) 16 0 1/ 4 (1145/ 64)s s s s s⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥− + −⎣ ⎦ ⎣ ⎦

∼ ∼

1 0 0 1 0 0 1 0 0 1 0 00 1/ 4 0 1/ 4 1/ 4 0 1/ 4 1/ 4 0 1/ 4 0s s s⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥− − − −⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦

∼ ∼ ∼ ∼

1 0 00 1 0⎡ ⎤⎢ ⎥⎣ ⎦

, que é a forma de Smith.

Page 38: Notas de aula 1.pdf

38

Claro que poderíamos parar na matriz anterior. Mas por convenção, todos os polinômios da diagonal da forma de Smith, os polinômios invariantes, devem ser mônicos, ou seja, com os coeficientes do termo de mais alto grau igual a 1. Como se vê neste exemplo, o cálculo da forma de Smith pode ser bastante trabalhoso, mesmo quando a matriz é simples, se bem que no cálculo acima, poder-se-ia ter cortado caminho. As operações feitas acima foram mais complicadas para se seguir o algoritmo da demonstração da forma de Smith, conforme mencionado acima. Entretanto, como já foi mencionado, o primeiro polinômio invariante é o m.d.c. de todos os elemnetos da matriz. Ora, é claro que, neste caso, os elementos são todos primos entre si e, portanto, o primeiro polinômio invariante é igual a 1. E o segundo polinômio invariante é o resultado da divisão do m.d.c dos menores de ordem 2 pelo primeiro polinômio invariante. Neste caso, há três menores de ordem 2, formados com a 1ª. e 2ª. colunas, com a 1ª. e a 3ª. e com a 2ª. e a 3ª. Calculando, obtem-se para o primeiro menor: 2 24 1 4 1 4 1s s s s s− − + = − + −∼ ; o segundo menor:

3 2 4 3 4 3 28 16 2 8 16s s s s s s s s s− + − + = − + − + 3 2( 2 8 16)s s s s− + −∼ . Ora, é imediato ver que 1/ 4s = , raiz do primeiro menor, não é raiz do segundo, consequentemente o m.d.c. destes dois menores é 1. Donde obtemos a forma de Smith acima, pelo primeiro método, muito mais trabalhoso e sujeito a erros. Não se deveria concluir porem que isto sempre acontece, pois quando se trata de polinômios de graus elevado, tem-se que calcular suas raízes pelo segundo método, o que não ocorre no primeiro. - Os zeros de uma matriz polinomial são definidos pelas raízes do menor de maior ordem não identicamente nulo. Ora o determinante de um produto de matrizes é o produto dos seus determinantes. Ora, em (42b) as matrizes U e V são unimodulares, portanto as raízes de P são as mesmas, contadas as multiplicidades, que as da matriz S.

Ou seja, os zeros da matriz P são as raízes de 1

( )r

ii

sγ=∏ .

Mas as matrizes que interessam mais em Teoria de Controles são as matrizes racionais, pois são nelas que são expressas as matrizes de transferência de um sistema. Passamos portanto ao estudo da Forma de (Smith)-MacMillan, que são as formas canônicas mais importantes para as matrizes racionais, assim como a Forma deSmith é a forma canônica mais importante para as matrizes polinomiais. Seja portanto G(s) uma matriz racional com coeficientes reais, que são, como vimos antes, as matrizes de transferência que surgem quando estudamos sitemas linerares invariantes no tempo regidos por eqs. diferenciais ordinárias. Teorema (43a) Seja G(s) uma matriz racional própria . Então existem matrizes polinomiais unimodulares U(s) e V(s) tais que:

Page 39: Notas de aula 1.pdf

39

1

1

2

2

( ) 0 0 0( )

( )0 0 0( )

( ) ( ) ( ) : ( )

( )0 0 0( )

0 0 0 0

r

r

ss

ss

U s G s V s M s

ss

αβ

αβ

αβ

⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥= =⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦

, (43b)

onde cada ( )i sα é fator de 1( )i sα + , enquanto que cada 1( )i sβ + é fator de ( )i sβ ; alem disso, 1( )sβ =d(s). Prova: Suponha, sem perda de generalidade, que cada elemento de G(s) esteja na forma irredutível. Seja d(s) o m.m.c. dos denominadores de G(s) e seja N(s) matriz polinomial

tal que ( )( )( )

N sG sd s

= . Agora aplicamos operações elementares a N(s) de modo a

transformá-la na forma de Smith, de acordo com o teorema (42): 1

2

( ) 0 0 00 ( ) 0 0

( ) ( ) ( ) : ( )0 0 ( ) 00 0 0 0

r

ss

U s N s V s S ss

γγ

γ

⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥= =⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦

.

Definamos agora

( )( )( )

S sM sd s

= =

1

2

( ) 0 0 0( )

( )0 0 0( )

( )0 0 0( )

0 0 0 0

r

sd s

sd s

sd s

γ

γ

γ

⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦

. Cancelando agora os fatores comuns

entre ( )i sγ e d(s), chegamos a (43b). Observe-se em seguida que, como vimos, cada ( )i sγ é fator de 1( )i sγ + , portanto cada ( )i sα é fator de 1( )i sα + , pois cada ( )i sα está

sendo dividido pelo mesmo d(s). E por outro lado, ao cancelarmos os fatores de ( )i sα e d(s), sobra no denominador ( )i sβ que é fator de 1( )i sβ − . 1( ) ( )s d sβ = , pois se houvesse

Page 40: Notas de aula 1.pdf

40

cancelamento de fator comum entre 1( )sα e d(s), isto signficaria um cancelamento entre o m.d.c. dos elementos de N(s) e o m.m.c. dos denominadores de G(s), ou seja, isto significaria que os elementos de G(s) não seriam irredutíveis, contra a hipótese inicial. • Definição: (44)

O grau de MacMillan de uma matriz racional é definido como 1

grau( ( ))r

ii

sβ=∑ .

Esta noção é importante porque se pode demonstrar que a ordem de uma realização mínima de uma matriz de transferência é exatamente o grau de McMillan da matriz de transferência. A partir da forma de McMillan, podemos agora definir os zeros de uma matriz de transferência, lembrando que os polos já o foram. Definição: (45) Os zeros de uma matriz de transferência, mais comumente chamados de zeros de

transmissão, são as raízes de 1

( )r

ii

sα=∏ .

Como vemos, os zeros de transmissão são os valores de s que diminuem o posto da matriz de transferência. Outro conceito de zero de uma matriz de transferência talvez tão, ou mais, utilizado na prática quanto o anterior é o de zero de bloqueio. Definição: (46) Os zeros de bloqueio de uma matriz de transferência são as raízes, contadas as multiplicidades, do m.d.c. dos numeradores da matriz de transferência. (Aqui, como usual, cada elemento da matriz de transferência é suposto irredutível). Esta definição de zero de uma matriz de transferência pareceria mais apropriada do que a anterior, se tivéssemos que escolher uma das duas. Com efeito, zero de uma função é o valor da variável no domínio da função que a torna nula. No caso de uma função racional escalar ou no caso de um polinômio isto é claro. E é claro também no caso de uma matriz racional, se for usada a definição de zero de bloqueio; mas esta propriedade não se realiza se for usada a outra noção, a de zero de transmissão. O conceito de zero de bloqueio é usado no problema do servomecanismo e, alem disso, no problema da chamada estabilização forte de um sistema em malha fechada, isto é, quando o controlador é um sistema estável. Os polos da matriz de transferência podem ser computados também a partir da sua forma de McMillan, a saber: Definição: (47)

Page 41: Notas de aula 1.pdf

41

Os polos de uma matriz de transferência, cuja forma de McMillan é dada por (43b) são as

raízes, contados os graus de multiplicidade, de 1

( )r

ii

sβ=∏ .

Observação: Pode-se demonstrar que esta definição é equivalente à definição (40) Vamos ilustrar os conceitos acima através de um Exemplo: Considere a seguinte matriz de transferência

2

2 2 2

2 2 2

1 2 1( 1)( 2) ( 1)( 2) ( 1)( 2)

1 5 3( )( 1) ( 1) ( 1)

1 2 1( 1) ( 2) ( 1) ( 2) ( 1) ( 2)

s ss s s s s s

s s sG ss s s

s ss s s s s s

+⎡ ⎤⎢ ⎥+ + + + + +⎢ ⎥⎢ ⎥+ +

= ⎢ ⎥+ + +⎢ ⎥⎢ ⎥+⎢ ⎥+ + + + + +⎣ ⎦

. Confere-se primeiramente

que todos os elementos da matriz são irredutíveis. O m.m.c. dos denominadores é 2( ) ( 1) ( 2)d s s s= + + .

Donde que ( )( )( )

N sG sd s

= , com 2

1 (2 1)( 1) ( 1)( ) 2 ( 2)( 5 3) ( 2)

1 2 1

s s s s sN s s s s s s s

s s

+ + + +⎡ ⎤⎢ ⎥= + + + + +⎢ ⎥⎢ ⎥+⎣ ⎦

.

Passamos ao cálculo da Froma de Smith desta matriz: O m.d.c. dos elementos de N(s) é claramente 1, portanto o primeiro polinômio invariante de G(s), que é 1( )sα na sua forma de Smith, é igual a 1. A seguir, observe-se que a 1ª. e 3ª. linhas acima são l.d., efetivamente a 1ª. linha é a 3ª. multiplicada por s + 1. Então adicionando à primeira linha a terceira multiplicada por -(s + 1), temos

2

0 0 0( ) 2 ( 2)( 5 3) ( 2)

1 2 1N s s s s s s s

s s

⎡ ⎤⎢ ⎥+ + + + +⎢ ⎥⎢ ⎥+⎣ ⎦

∼ . Ora, à primeira vista, temos três

menores de ordem 2, não identicamente nulos, nesta matriz. Mas calculando, verifica-se que um deles é nulo e os outros dois são iguais a

2 2 2( 2)( 5 3 2 1) ( 2)( 3 2) ( 1)( 2)s s s s s s s s s+ + + − − = + + + = + + . Consequentemente, a forma de Smith de N(s) é

Page 42: Notas de aula 1.pdf

42

2

1 0 0( ) 0 ( 1)( 2) 0

0 0 0S s s s

⎡ ⎤⎢ ⎥= + +⎢ ⎥⎢ ⎥⎣ ⎦

. E a forma de McMillan é obtida dividindo-se esta por

d(s):

2

1 0 0( 1) ( 2)

2( ) 0 01

0 0 0

s ssM ss

⎡ ⎤⎢ ⎥+ +⎢ ⎥

+⎢ ⎥= ⎢ ⎥+⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦

.

Então verificamos que G(s) tem um zero de transmissão em -2, um polo também em -2 e um polo em -1 com grau de multiplicidade 3. Para encerrar esta seção, é preciso tratar ainda dos zeros e polos no infinito. Uma função racional estritamente própria se anula quando a variável s é igual a infinito. E se a diferença entre o grau do denominador e o do numerador for p, podemos (e devemos) dizer que o grau de multiplicidade do zero no infinito é p. E por outro lado, dizemos que uma função de transferência imprópria tem polo no infinito, porque quando s é igual a infinito, o valor da função também o é. E o grau de multiplicidade do polo no infinito é igual à diferença entre os graus do numerador e do denominador. Mas quando se passa a matrizes de transferência, já não podemos usar a forma de McMillan acima para determinar se a matriz tem polos no infinito e nem para determinar os graus de multiplicidade do zero no infinito. Por que? Como vemos de (43b), para obtermos a forma de McMillan de uma matriz, pré- e pós- multiplicamo-la por matrizes unimodulares. Ora, as matrizes unimodulares são impróprias e, em geral, têm polos no infinito. Portanto, há em geral uma introdução de polos no infinito na matriz original. E assim, sendo a matriz original própria, sua forma de McMillan pode ser imprópria. Para verificar zeros e polos no infnito de uma matriz, substituímos s por 1/z na sua forma de McMillan e verificamos se esta matriz tem, e quantos, zeros e polos na origem. Exemplo:

1( )

0 1s

G s⎡ ⎤

= ⎢ ⎥⎣ ⎦

, Esta é uma matriz polinomial, e aliás unimodular. Mas a consideramos

aqui como uma matriz racional imprópria. Substituindo s por 1/z, temos

Page 43: Notas de aula 1.pdf

43

1 1/ 11(1/ )0 1 0

z zG z

zz⎡ ⎤ ⎡ ⎤

= =⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦

. Ora, para calcular a forma de Smith desta matriz,

vemos que o m.d.c. de seus elementos é 1, enquanto que seu determinante é 2z .

Então a forma de Mcmillan da matriz em z é 2

1 0 1/ 010 0

zz zz

⎡ ⎤ ⎡ ⎤=⎢ ⎥ ⎢ ⎥

⎣ ⎦ ⎣ ⎦, que tem um zero e

um polo na origem. Portanto a matriz original G(s) tem um zero e um polo no infinito. Esta conclusão é surpreendente: que a matriz G(s) tenha um polo no infinito, não é de se admirar, uma vez que ela é imprópria. Mas um zero no infinito? Eis um resultado não intuitivo. 2º. Capítulo: Especificações de Desempenho [ZDG, pp. 91ss] 2.1 Os espaços de Hardy 2H e ∞H [ZDG, pp. 97ss] Seja S um conjunto aberto no domínio dos complexos, isto é, S ⊂ C e seja f(s) uma função definida em S, isto é, ( ) :f s S →C . Dizemos que f é analítica em um ponto 0z se ela for diferenciável em 0z e em todos os pontos de alguma vizinhança de 0z . Demonstra-se que se f for analítica em 0z , então ela tem derivadas continuas de todas as ordens em 0z . Além disso, f é analítica em 0z se só se tiver uma representação em serie de potências em 0z . A função é dita analítica em S se ela for analítica em todos os pontos de S. Teorema do Maximum Modulus: (1) Se f(s) for definida e contínua em um conjunto fechado e limitado S e analítica no interior de S, então o máximo de ( )f s é obtido na fronteira de S , isto é,

max ( ) max ( )s S s S

f s f s∈ ∈∂

= ,

onde S∂ é a fronteira de S. Vejamos alguns espaços importantes neste curso: - Espaço 2L (j R ), onde R é o corpo dos reais, é um espaço de Hilbert definido pelo conjunto de todas as matrizes F tais que a integral abaixo é limitada

-

Traço[ ( ) ( )] F j F j dω ω ω∞

< ∞∫ , (2)

onde F* indica a transposta conjugada de F. É claro que os elementos de 2L (j R ) não podem ter polo no eixo imaginário, pois do contrário a integral não convergiria. Lembra-se que o traço de uma matriz é a soma dos elementos da sua diagonal. É fácil verificar que o integrando de (2) é a soma dos quadrados das partes real e imaginária de todos os elementos de ( )F jω .

Page 44: Notas de aula 1.pdf

44

O produto interno deste espaço de Hilbert é definido como:

-

1, : Traço[ ( ) ( )] 2

F G F j G j dω ω ωπ

∞∗

= < ∞∫ . (3)

Este produto interno induz uma norma dada por

2: ,F F F= . (4)

Como exemplo, o conjunto de todas as funções racionais, com coeficientes reais e estritamente próprias constitui um subespaço não fechado de 2L (j R ), que denotaremos por 2RL (j R ), ou simplesmente 2RL . - O espaço de Hardy 2H é um subespaço fechado de 2L (j R ) cujos elementos são funções (matriciais) F(s) analíticas em Re[s] > 0. A norma correspondente é definida como

2

20

1: sup Traço[ ( ) ( )2

F F j F j dσ

σ ω σ ω ωπ

∞∗

> −∞

⎛ ⎞= + +⎜ ⎟

⎝ ⎠∫

Pode-se demonstrar, utilizando o teorema do maximum modulus, que 2

2-

1 Traço[ ( ) ( )] 2

F F j F j dω ω ωπ

∞∗

= ∫ (5)

Comparando-se esta com (2), verifica-se que são idênticas, ou seja, se F ∈ 2H , sua norma é a mesma que se estivesse em 2L (j R ). Como exemplo, o conjunto de todas as funções reais racionais estritamente próprias e estáveis pertence a este espaço. Ele é denotado por 2HR . - O espaço ⊥

2H é o complemento ortogonal de 2H em 2L , ou seja, é o subespaço fechado de funções em 2L que são analíticas no semiplano aberto da esquerda. O

subespaço de ⊥2H constituído por todas as funções reais racionais estritamente próprias

com todos os polos no semiplano aberto da direita será denotado por ⊥2HR . (Funções

racionais com todos os pólos no semiplano aberto da direita são chamadas de anti-estaveis). Pode-se verificar que se G for uma matriz real racional estritamente própria e estável, então G∈ 2H e ~G ⊥∈ 2H . - Os espaços 2L definidos acima no domínio da frequência (ω ) podem ser relacionados aos espaços 2L definidos no domínio do tempo. Como vimos logo acima, o espaço no domínio da freqência foi denotado por 2L (j R ). E o respectivo espaço no domínio do

Page 45: Notas de aula 1.pdf

45

tempo será denotado por 2L (-∞ , ∞ ). Pode-se provar que existe um isomorfismo entre este espaço e o anterior, ou seja,

2L (-∞ , ∞ ) ≅ 2L (j R ). (6) - Mais ainda, os seguintes isomorfismos são obtidos:

2L [0, ∞ ] ≅ 2H , 2L (- ∞ , 0] ≅ ⊥2H . (7)

As três relações acima são conhecidas como de Parseval e também como Teorema de Plancherel. - Como consequência destes isomorfismos, temos o seguinte: Seja g(t) ∈ 2L (-∞ , ∞ ) e seja sua transformada de Fourier dada por

( )( ) jG jω ∈ 2L R . Então, temos a igualdade das normas:

2 2G g= . (8)

A igualdade acima é conhecida como Teorema de Parseval, frequentemente apresentada com um fator 1

2π do lado esquerdo da igualdade. Tal fator às vezes não aparece, não

havendo contradição, pois se trata de diferença na definição da transformada de Fourier. - O próximo espaço que nos interessará neste curso é o )( j∞L R definido como um espaço de Banach de funções ou matrizes que são essencialmente limitadas em jR com norma F

∞:= ess

Rsup [ ( )]F jω

σ ω∈

(9),

onde, como vimos no capítulo anterior, ( )σ ⋅ denota o maior valor singular de uma matriz. Observe-se que é definido também o espaço ∞L no domínio do tempo, o qual é usado, geralmente, para definir sinais, ao passo que o no domínio da frequência, )( j∞L R , é usado geralmente para matrizes ou funções de transferência e, mais geralmente, operadores. - Em vista disso, definimos o espaço ∞H , que é um subespaço fechado de ∞L , cujas funções são analíticas e limitadas no semiplano complexo aberto da direita e cuja norma é definida como

:F∞=

Re[ ] 0 Rsup [ ( )] sup [ ( )]

sF s F j

ωσ σ ω

> ∈= (10)

(A segunda igualdade é devida a uma generalização do teorema do maximum modulus). Analogamente aos casos anteriores, denotaremos por ∞HR o subespaço das funções (ou matrizes) racionais com coeficientes reais, próprias e estáveis. O espaço ∞

_

H é um subespaço fechado de ∞L , constituído por funções (ou matrizes) que são analíticas e fechadas no semiplano complexo da esquerda. A norma deste espaço é definida como

Page 46: Notas de aula 1.pdf

46

:F∞=

Re[ ] 0 Rsup [ ( )] sup [ ( )]

sF s F j

ωσ σ ω

< ∈= ,

que, como se vê, é identical a (10). Analogamente aos casos anteriores, ∞

_

HR denota o subconjunto das funções (matrizes) racionais com coeficientes reais que são próprias e têm todos seus pólos no semiplano complexo da direita. Os fatos abaixo são importantes: i) Se G(s) ∞∈L , então G(s) 2L := G(s) f(s) : f(s)∈ 2L ⊂ 2L , (11) ii) Se G(s) ∞∈H , então G(s) 2H := G(s) f(s) : f(s)∈ 2H ⊂ 2H , (12)

iii) Se G(s) ∞∈_

H , então G(s) ⊥2H := G(s) f(s) : f(s) ⊥∈ 2H ⊥⊂ 2H . (13)

2.2 Ganhos induzidos de sistemas [ZDG, pp. 104ss] A palavra “ganho”, usada em teoria de operadores, será para nós a matriz (ou função) de transferência. O problema que nos ocupa agora é o seguinte: se soubermos quão “grande” a entrada (um distúrbio) é, quão grande a resposta será para um dado sistema dinâmico? Seja um sistema de dimensão finita com matriz de transferência G(s) ∞∈ HR . Mais ainda, suporemos que G(s) seja estritamente própria, isto é, G(∞ ) = 0, o que ocorre com muita frequência na prática. Seja u a entrada de um sistema G e z sua saída. Seja g a resposta do sistema, no domínio do tempo, a um impulso unitário aplicado no instante t = 0, também chamada de “resposta impulsional” do sistema. Como sabemos, a relação entre a saída z e a entrada u , no domínio do tempo, é dada pela convolução de g e u , isto é,

z g u= ∗ , (14a)

ou seja, 0

( ) ( ) ( )t

z t g t u dτ τ τ= −∫ . (14b)

Suponha que u seja um vetor com q componentes Pode-se demonstrar o seguinte: i) Seja u(t) = 0 ( )u tδ , com 0

qu ∈R , sendo ( )tδ o impulso unitário aplicado no instante t = 0. Então,

0 02 2 2z Gu gu= = , (15a)

0z gu∞ ∞= . (15b)

ii) Seja agora 0 0( )u t u sen tω= , 0qu ∈R . Sejam ( )iG s as linhas de G(s) . Então,

2z = ∞ , (16a)

0 0 0 0limsup max ( ) ( ) max ( )i it iitz t G j u G j uω ω

∞→∞= = , (16b)

0 0lim sup ( ) ( )t t

z t G j uω→∞

= . (16c)

Page 47: Notas de aula 1.pdf

47

Prova de (15) e (16): ver ZDG, pp. 105s. Nas expressões acima, u é tipicamente um distúrbio a ser rejeitado ou um sinal a ser rastreado; se se tratar de distúrbio a ser rejeitado, z é a resposta do sistema e se se tratar de sinal a ser rastreado, z é o erro, ou seja, a diferença entre a resposta do sistema e o sinal a ser rastreado. Dizemos que o sistema tem bom desempenho se z(t) for pequeno em algum sentido, por exemplo, se limsup ( )

tz t

→∞ for pequeno.

- Note-se que 0 0limsup ( ) ( )t

z t G j uω→∞

= (ver (16c)) vale para 0qu ∈R e 0ω fixados. É

importante saber o que acontece se eles não são fixados. Efetivamente, a frequência da senoide pode variar dentro de certos limites e a amplitude da senoide também. A tabela abaixo responde a esta pergunta: Entrada u(t) Resposta z(t) Norma da entrada Norma induzida 2L 2L

2u = 2

0

u dt∞

∫ G

∞L ∞L sup max ( )iitu u t

∞=

1max ii

g

∞L ∞L sup ( )t

u u t∞=

0

( )g t dt∞

≤ ∫

Tabela 1 Observe-se que as normas que aparecem dos lados direitos das igualdades acima são normas euclideanas, isto é, a raiz quadrada da soma dos quadrados das componentes do vetor. Prova dos resultados acima: ZDG, pp. 108ss. - Vamos agora calcular majorantes, que serão muito úteis, para as normas em ∞H e 1L . Seja a matriz de transferência, com dimensões não especificadas, mas compatíveis

Suponha que a realização (A, B, C) seja “balanceada”, ou seja, existe

1 2diag( , ,... )nσ σ σΣ = , com 1 2 0nσ σ σ≥ ≥ ≥ ≥ e tal que 0A A BB∗ ∗Σ + Σ + = e 0A A C C∗ ∗Σ + Σ + = . (17)

Então temos o seguinte Teorema: (18)

110

( ) 2n

ii

G g t dtσ σ∞

∞=

≤ ≤ ≤ ∑∫ .

G(s) = A BC D⎡ ⎤⎢ ⎥⎣ ⎦

∞∈ HR (16a)

Page 48: Notas de aula 1.pdf

48

Observação: g(t) é uma matriz, igual, como se sabe, a AtCe B . A norma dentro do integrando é a norma euclidiana. Prova do teorema (18): ZDG, pp. 111s. 2.3 Cálculo das normas em 2L e 2H [ZDG, pp, 112 ss] Seja G(s) ∈ 2L . Recorda-se que sua norma é

2 2

1 1Traço[ ( ) ( )] Traço[ ( ) ( )]2 2

G G j G j d g g t g t dtω ω ωπ π

∞ ∞∗ ∗

−∞ −∞

= = =∫ ∫ . (19)

É fácil verificar que a norma acima é limitada se só se a matriz de transferência G(s) for estritamente própria, isto é, ( ) 0G ∞ = .

Com efeito, se por exemplo, 1( )1

sG ss−

=+

, temos

2*

2

1 1 1( ) ( ) 11 1 1

j jG j G jj jω ω ωω ωω ω ω

− − − += = =− + + +

, donde que a integral acima diverge.

E isto também se aplica para norma definida em 2H . Consequentemente, quando se tratar de norma 2L ou 2H , suporemos que a matriz de transferência seja estritamente própria. - Uma primeira maneira de se calcular a norma 2L é

2

2~1 1Traço[ ( ) ( )] Traço[ ( ) ( )]

2 2G G j G j d G s G s ds

jω ω ω

π π

∞∗

−∞

= =∫ ∫ (20)

A segunda integral é calculada ao longo do eixo imaginário e de um semicírculo de raio infinito no semiplano complexo da esquerda, notando-se que a contribuição da integral neste semicírculo é nula, pois a matriz de transferência é suposta estritamente própria, como dito antes, por hipótese, sem a qual a norma não é definida, donde a igualdade acima. - Alternativamente, para o cálculo da norma em 2L , temos: Teorema: (21) Seja a matriz de transferência G(s), suposta estável (isto é, BIBO estável) dada em (16a) com D = 0. Sejam cL e oL os gramianos de controlabilidade e observabilidade, respectivamente, que podem ser obtidos através das seguintes equações de Lyapunov:

0T Tc cAL L A BB+ + = , 0T T

o oA L L A C C+ + = . (22) Então o quadrado da norma em 2L é dado por

2

2Traço( ) Traço( )T T

o cG B L B CL C= = . (23) Prova: Como G é estável, temos para t maior ou igual a zero:

( )g t , a transformada de Laplace inversa de G(s), é dada por AtCe B . Portanto,

Page 49: Notas de aula 1.pdf

49

( ) ( )2

20 0

Traço *( ) ( ) Traço ( ) *( )G g t g t dt g t g t dt∞ ∞

= =∫ ∫

= ( ) ( )* *

0 0

Traço * * Traço * *A t At At A tB e C Ce B dt Ce BB e C dt∞ ∞

=∫ ∫ .

A demonstração é concluída lembrando que os gramianos de controlabilidade e observabilidade são definidos respectivamente por

*

0

*At A tcL e BB e dt

= ∫ e *

0

*A t AtoL e C Ce dt

= ∫ ,

sendo que, como já vimos, estes gramianos podem ser calculados por (22). • Exemplo: Calcular a norma em 2L do sistema em que A = -1, B = C = 1, D = 0. Solução: vamos calcular a norma pelos dois métodos:

Utilizando primeiramente (19), temos que 1( )1

G ss

=+

, donde

*2

1( ) ( )1

G j G jω ωω

=+

. E das primeiras igualdades de (19) ou (20), temos

Traço[ ( ) ( )]G j G j dω ω ω∞

−∞∫ = 2

11

dωω

−∞ +∫ = arctg( )2 2π πω π+∞

−∞

⎛ ⎞= − − =⎜ ⎟⎝ ⎠

,

portanto 2

2

12

G = .

Agora vamos à eq. (23): Como B = C, os dois gramianos são iguais. Denominemo-

lo por L. Então temos de (22): - L – L +1 = 0, donde L = ½ e de (23), 2

2

12

G = .

2.4 Cálculo das normas em ∞L e ∞H [ZDG, pp. 114ss] Recorda-se que a norma de uma matriz de transferência em ∞L é dada por ess sup ( G j

ωσ ω . (24)

O cálculo desta norma é bastante trabalhoso no caso de matriz de transferência. No caso de uma função de transferência escalar, é claro que a norma é o mais alto valor da magnitude no diagrama de Bode e é também a maior distância à origem do diagrama de Nyquist. Portanto, no caso de função de transferência escalar, a norma pode ser obtida graficamente. - Mas em geral, mesmo no caso multiváriavel, pode-se obter uma estimativa da norma por método simples, a saber, escolhe-se um conjunto de frequências relativamente próximas umas das outras, 1 2 , ,..., Nω ω ω , e então uma (relativamente) boa estimativa da norma será

Page 50: Notas de aula 1.pdf

50

1 max ( kk N

G jσ ω≤ ≤

. (25)

- No caso em que a matriz (ou função) de transferência é racional, o que ocorre com frequência, a norma pode ser computada a partir da sua realização no espaço de estado, como no Lema abaixo. Lema: (26) Seja 0γ > e a matriz dada em (16a). Então G γ

∞< se só se ( )Dσ γ< e a matriz H abaixo não tiver autovalor no eixo

imaginário 1 1

1 1:( ) ( )

T T

T T T T

A BR D C BR BH

C I DR D C A BR D C

− −

− −

⎡ ⎤+= ⎢ ⎥− + − +⎣ ⎦

,

onde 2 TR I D Dγ= − Prova: ZDG, p. 115. O lema anterior sugere o seguinte algoritmo para calcular a norma em ∞L Algoritmo: (27) (a) Escolher um limitante superior uγ e um limitante inferior lγ tal que l uGγ γ

∞≤ ≤ ;

(b) Se u l

l

γ γγ−

for menor ou igual ao nível especificado, pare, obtendo u l

l

G γ γγ∞

+≈ .

Em caso contrario, ir ao passo seguinte;

(c) γ = u l

l

γ γγ+

(d) Testar se G∞

< γ usando o Lema, isto é, conferindo se ( )Dσ γ< e se H não tem autovalor no eixo imaginário com este valor de γ ; (e) Se H tiver algum autovalor no eixo imaginário, fazer lγ = γ ; em caso contrario, fazer uγ =γ ; em qualquer caso, voltar ao passo (b). Em vista do teorema do maximum modulus, a norma em ∞H é calculada da mesma forma. 3º. Capítulo: Estabilidade e desempenho em sistemas com realimentação [ZDG, pp. 117 ss] Em virtualmente todos os sistemas bem sucedidos, sejam da natureza, sejam aqueles construídos pelo engenho humano, existem malhas de realimentação. Efetivamente, a realimentação é o mecanismo pelo qual se compara a resposta do sistema com um sinal desejado. Mais ainda, a realimentação aumenta a robustez da estabilidade de um sistema. Em vista disso, a realimentação é um conceito central em qualquer curso de controle. Com efeito, trata-se de “controle automático”, o qual é obtido graças à realimentação.

Page 51: Notas de aula 1.pdf

51

Consideremos o diagrama de blocos abaixo, que é a configuração padrão quando se fala em sistema com realimentação.

Na figura acima, como nas que se seguirão, nos somadores, o sinal é o (+) a não ser que conste o contrario, como o sinal (–) à esquerda na figura. 3.1 Sistemas com realimentação “bem postos” [ZDG, pp. 119 ss] Suponha que no diagrama acima P e K sejam matrizes racionais. Então a primeira pergunta que se põe é saber se o diagrama de blocos faz sentido, isto é, se é fisicamente realizável.

Considere por exemplo o caso em que 12

sPs−

= −+

e K =1, ambas funções racionais

próprias. É fácil verificar que 2 1( )

3 3 is su r n d d+ −

= − − − . Ou seja, a função de

transferência entre a saída de K e os sinais exógenos é uma função de transferência imprópria. É costume dizer que tais funções de transferência não são fisicamente realizáveis. O que se quer dizer é que se, por exemplo, um sinal exógeno é um degrau, a saída em K , que é u, será um impulso. Mas um impulso é um “centelhamento” que “queima” qualquer dispositivo, por isso se diz que tal função de transferência não é realizável. Temos então a Definição: (28) Um sistema com realimentação é dito bem posto se todas as funções (matrizes) de transferência no sistema são bem definidas e próprias. É fácil verificar, por simples inspeção e pequenos cálculos, que se, por exemplo, as funções de transferência entre a entrada de K e cada sinal exógeno for bem definida e própria, então todas as outras matrizes de transferência também o serão. Alternativamente, é fácil ver também que se as matrizes de transferência entre u e os sinais exógenos id e d forem bem definidas e próprias, as outras duas entre u e os sinais exógenos r e n também o serão. E o mesmo vale para qualquer sinal no interior da malha.

Kr

id

u pu P

d

y

n _

Figura 1

Page 52: Notas de aula 1.pdf

52

Como consequência, para saber se um sistema é bem posto, basta verificar se a função

(matriz) de transferência entre u e idd⎡ ⎤⎢ ⎥⎣ ⎦

existe e é própria.

Para ser coerente com a notação posterior do curso, definamos K = - K . Reagrupando os sinais exógenos, temos o diagrama de blocos equivalente na figura abaixo

Em vista do que foi dito antes, o sistema é bem posto se só se a função (matriz) de

transferência entre 1

2

ww⎡ ⎤⎢ ⎥⎣ ⎦

e 1e (ou 2e ou 1y ou 2y ) existe e é própria.

Lema: (29) O sistema da figura 2 é bem posto se só se ˆ ( ) ( )I K P− ∞ ∞ tiver inversa. Prova: Do diagrama de blocos temos imediatamente

1 1 2ˆe w Ke= + , 2 2 1e w Pe= + .

Destas duas eqs., temos

1 1 2ˆ ˆ( )I KP e w Kw− = +

Ora, para que exista solução para esta eq. para todo 1w e 2w , é necessário e suficiente

que a matriz ˆI KP− seja não singular, ou seja, tenha inversa. Mas para que isto aconteça, é necessário e suficiente que ela seja não singular em qualquer ponto do plano complexo. E para que a inversa seja própria, é necessário e suficiente que a matriz exista no ponto ∞ . • Observações: 1) Vamos verificar que a condição do Lema (29) é equivalente a cada uma das duas seguintes:

ˆ ( )( )I K

P I⎡ ⎤− ∞⎢ ⎥− ∞⎣ ⎦

e (30)

ˆ( ) ( )I P K− ∞ ∞ têm inversa.

P

1e

1w

2e 2w

Figura 2

K

1y

2y

Page 53: Notas de aula 1.pdf

53

Prova: ˆ ˆ ˆ0( ) ( ) ( ) ( )

( )( ) 0II K I K P K

P IP I I⎡ ⎤ ⎡ ⎤⎡ ⎤− ∞ − ∞ ∞ − ∞

=⎢ ⎥ ⎢ ⎥⎢ ⎥∞− ∞ ⎣ ⎦⎣ ⎦ ⎣ ⎦. Claro que o lado

esquerdo desta eq. tem inversa se só se ˆ ( )

( )I K

P I⎡ ⎤− ∞⎢ ⎥− ∞⎣ ⎦

tiver, enquanto que o lado

direito tem inversa se só se ˆ ( ) ( )I K P− ∞ ∞ tiver. Por outro lado,

0( )I

P I⎡ ⎤⎢ ⎥∞⎣ ⎦

ˆ ( )( )I K

P I⎡ ⎤− ∞⎢ ⎥− ∞⎣ ⎦

=ˆ ( )

ˆ0 ( ) ( )

I K

I P K

⎡ ⎤− ∞⎢ ⎥

− ∞ ∞⎢ ⎥⎣ ⎦. E exatamente o mesmo

raciocínio que na eq. acima conclui a prova. • 2) Para verificar se um sistema é bem posto, podemos também usar uma realização no espaço de estado. Com efeito, seja

Ora, é claro que ( )P D∞ = e ˆ ˆ( )K D∞ = . Portanto, a condição (30) é:

a matriz ˆI D

D I⎡ ⎤−⎢ ⎥−⎣ ⎦

tem inversa. (32)

Ocorre que a planta P é frequentemente estritamente própria, pois a maioria dos sistemas que queremos controlar tem alguma “inércia” (mecânica, térmica,...). Mas isto significa que frequentemente temos D = 0 e portanto a condição (32) é satisfeita para todo D . 3.2 Estabilidade interna [ZDG, pp. 121 ss] Considere o diagrama de blocos da figura 2 e suponha que as realizações das matrizes de transferência dadas em (31) sejam estabilizaveis e detectáveis. Sejam x e x os estados de P e K , respectivamente. Então podemos escrever

1

2 1

2

1 2

;;

ˆ ˆˆ ˆ ;ˆ ˆˆ .

x Ax Bee Cx De

x Ax Be

e Cx De

= += +

= +

= +

(33)

Definição: (34) Suponha que o sistema da figura 2 seja bem posto. Ele é dito internamente estável se a origem do espaço de estado constituído pelos dois estados, ˆ( , ) (0,0)x x = , for

( )A B

P sC D⎡ ⎤

= ⎢ ⎥⎣ ⎦

, ˆ ˆ

ˆ ( )ˆ ˆA B

K sC D

⎡ ⎤= ⎢ ⎥⎢ ⎥⎣ ⎦

(31)

Page 54: Notas de aula 1.pdf

54

assintoticamente estável, isto é, se os estados ˆ( , )x x tenderem a zero a partir de quaisquer condições iniciais, com 1w = 0 e 2w = 0. Da 2ª. e 4ª. eqs. de (33), vem

11

2

ˆˆ 0ˆ0

e xI D Ce xD I C

−⎡ ⎤⎡ ⎤⎡ ⎤ ⎡ ⎤−

= ⎢ ⎥⎢ ⎥⎢ ⎥ ⎢ ⎥− ⎣ ⎦⎣ ⎦ ⎣ ⎦ ⎣ ⎦.

Observe-se que a existência da inversa acima é garantida pelo fato de o sistema ser bem posto. Substituindo isto na 1ª. e 3ª. eqs, de (33), temos

ˆˆ

x xA

xx⎡ ⎤ ⎡ ⎤

=⎢ ⎥ ⎢ ⎥⎣ ⎦⎣ ⎦

, onde

1 ˆˆ0 0 0ˆ ˆ00 0

A B I D CAB D IA C

−⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤−

= +⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥−⎣ ⎦ ⎣ ⎦⎣ ⎦ ⎣ ⎦

. (34*)

É claro que estabilidade interna é equivalente à condição que a matriz A seja Hurwitz, ou seja, tenha todos os seus autovalores no semiplano complexo aberto da esquerda. Formalizamos isto no Lema: (35) O sistema da figura 2 é internamente estável se só se a matriz A for Hurwitz. Observe-se que na figura 2 a matriz de transferência entre os “erros” e os sinais exógenos é

1

1 1

2 2

ˆe wI Ke wP I

−⎡ ⎤⎡ ⎤ ⎡ ⎤−

= ⎢ ⎥⎢ ⎥ ⎢ ⎥−⎣ ⎦ ⎣ ⎦⎣ ⎦ (36)

A seguir temos o importante resultado Lema: (37) O sistema da figura 2 é internamente estável se só se a matriz de transferência dada em

(36), 1ˆI K

P I

−⎡ ⎤−⎢ ⎥−⎣ ⎦

, pertencer a ∞HR .

Prova: Em primeiro lugar note-se que dizer que uma matriz racional pertence a ∞HR é equivalente a afirmar que seus polos estão no semiplano aberto da esquerda. A seguir, observe-se que

ˆ ˆ 00ˆ0 0

II I K I KP I P I I I PK

⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎡ ⎤ −=⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥ − −⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦

.

Page 55: Notas de aula 1.pdf

55

Portanto, ˆI K

P I⎡ ⎤−⎢ ⎥−⎣ ⎦

= 10I

P I

−⎡ ⎤⎢ ⎥⎣ ⎦

0ˆ0

I

I PK⎡ ⎤⎢ ⎥

−⎣ ⎦

0I K

I

−⎡ ⎤⎢ ⎥⎣ ⎦

.

Ou seja, 1ˆI K

P I

−⎡ ⎤−⎢ ⎥−⎣ ⎦

= ˆ

0I K

I⎡ ⎤⎢ ⎥⎣ ⎦

1

0ˆ0 ( )

I

I PK −

⎡ ⎤⎢ ⎥

−⎣ ⎦

0IP I⎡ ⎤⎢ ⎥⎣ ⎦

= 1 1

1 1

ˆ ˆ ˆ ˆ( ) ( )ˆ ˆ( ) ( )

I K I PK P K I PK

I PK P I PK

− −

− −

⎡ ⎤+ − −⎢ ⎥

− −⎢ ⎥⎣ ⎦. (38a)

E é imediato (ou quase...) obter-se a seguinte fórmula: 1ˆI K

P I

−⎡ ⎤−⎢ ⎥−⎣ ⎦

= 1 1

1 1

ˆ ˆ ˆ( ) ( )ˆ ˆ( ) ( )

I KP K I PK

P I KP I PK

− −

− −

⎡ ⎤− −⎢ ⎥

− −⎢ ⎥⎣ ⎦. (38b)

Sejam

realizações estabilizáveis e detectáveis de P e K , respectivamente, ou seja, não há cancelamento de modos instáveis nem em P nem em K . Seja 1y a saída de P e 2y a saída de K . Então temos as eqs.

1

2

1 1

2 2

1 1 1

2 2 2

0 0ˆˆ ˆˆ 00

0 0ˆ ˆˆ 00

00

Ax B exexx BA

C Dy exy ex DC

e w yIe w yI

⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎡ ⎤= +⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥

⎣ ⎦ ⎣ ⎦⎣ ⎦ ⎣ ⎦⎣ ⎦⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤⎡ ⎤

= +⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎢ ⎥⎣ ⎦⎣ ⎦ ⎣ ⎦⎣ ⎦⎣ ⎦

⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎡ ⎤= +⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥

⎣ ⎦⎣ ⎦ ⎣ ⎦ ⎣ ⎦

(39)

Para simplificar a notação no desenvolvimento, seja 1

2

:e

ee⎡ ⎤

= ⎢ ⎥⎣ ⎦

, 1

2

:w

ww⎡ ⎤

= ⎢ ⎥⎣ ⎦

, 1

2

:y

yy⎡ ⎤

= ⎢ ⎥⎣ ⎦

. (40)

Substituindo a 2ª. eq. de (39) na 3ª., temos 0 00ˆ ˆˆ0 00

C DI xe w e

I x DC

⎛ ⎞⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤= + +⎜ ⎟⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎜ ⎟⎣ ⎦ ⎣ ⎦ ⎣ ⎦⎣ ⎦⎝ ⎠

=ˆ ˆ00

ˆ 00x DCw ex DC

⎡ ⎤ ⎡ ⎤⎡ ⎤+ +⎢ ⎥ ⎢ ⎥⎢ ⎥

⎣ ⎦ ⎣ ⎦⎣ ⎦.

E, portanto,

ˆ ˆˆ( ) e ( )

ˆ ˆA B A B

P s K sC D C D

⎡ ⎤⎡ ⎤= = ⎢ ⎥⎢ ⎥⎣ ⎦ ⎢ ⎥⎣ ⎦

Page 56: Notas de aula 1.pdf

56

1 1

2 2

ˆˆ 0ˆ0

e wxI D Ce wxD I C

⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎡ ⎤−= +⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥− ⎣ ⎦⎣ ⎦ ⎣ ⎦⎣ ⎦ ⎣ ⎦

.

(Somente se): Sendo o sistema internamente estável, ele é bem posto, o que implica que ˆ ˆ( )( )I DD I PK− = − ∞ tem inversa e, portanto, ˆI PK− tem inversa. Mais ainda, de

acordo com o lema anterior, os autovalores de A , dada em (34*), estão no semiplano aberto da esquerda. Donde se segue que a matriz de transferência (36) (ou (38)), está em

∞HR . (Se): Se a matriz (38) está em ∞HR , então, em particular o bloco (2,2) de (38a),

1ˆ( )I PK −− , é própria, o que implica que ˆ( ) ( )I P K− ∞ ∞ = ˆI DD− é não singular.

Mas ˆˆ0

ˆ0

I I DI DD I D I I DD

⎡ ⎤⎡ ⎤ −⎡ ⎤ −= ⎢ ⎥⎢ ⎥⎢ ⎥ − −⎣ ⎦ ⎢ ⎥⎣ ⎦ ⎣ ⎦

.

Consequentemente, ˆ

: I DDD I

⎡ ⎤−= ⎢ ⎥

−⎣ ⎦ é não singular.

A seguir, pode-se provar que a matriz de transferência entre 1

2

ee⎡ ⎤⎢ ⎥⎣ ⎦

e 1

2

ww⎡ ⎤⎢ ⎥⎣ ⎦

em termos das realizações no espaço de estado é

1 1 1ˆˆ 00 ( ) ˆ00

BI D CD sI A DD I BC

− − −⎛ ⎞⎡ ⎤⎡ ⎤ ⎡ ⎤−

+ −⎜ ⎟⎢ ⎥⎢ ⎥ ⎢ ⎥⎜ ⎟−⎣ ⎦ ⎣ ⎦⎣ ⎦⎝ ⎠,

onde A é dada em (34*). Mas por hipótese esta matriz de transferência pertence a ∞HR , donde se segue que a

matriz de transferência 1ˆ 00 ( ) ˆ00

BC sI ABC

−⎡ ⎤ ⎡ ⎤−⎢ ⎥ ⎢ ⎥

⎣ ⎦⎣ ⎦ pertence a ∞HR . Mas sendo

( , , )A B C e ˆ ˆˆ( , , )A B C estabilizaveis e detectáveis, ˆ0 0ˆ, ,ˆ0 0

B CAB C

⎛ ⎞⎡ ⎤⎡ ⎤⎜ ⎟⎢ ⎥⎢ ⎥⎜ ⎟⎣ ⎦ ⎣ ⎦⎝ ⎠

também é

estabilizável e detectável. Donde se conclui que A tem os seus autovalores no semiplano aberto da esquerda e, portanto, o sistema da figura 2 é internamente estável. • Observação: O Lema (37), cuja prova é bastante macetosa, exprime uma realidade simples e já conhecida, mas generalizando-a. Com efeito, sabemos que se uma planta for estabilizável e detectável, ela será assintoticamente estável se só se sua matriz de transferência for BIBO estável. Ora, no caso presente, a “planta” do sistema em malha fechada tem por

Page 57: Notas de aula 1.pdf

57

matriz de transferência a que é dada no Lema, a saber, 1ˆI K

P I

−⎡ ⎤−⎢ ⎥−⎣ ⎦

, que é a matriz de

transferência entre 1

2

ee⎡ ⎤⎢ ⎥⎣ ⎦

e 1

2

ww⎡ ⎤⎢ ⎥⎣ ⎦

.

E o que o Lema diz é que se os “componentes” desta “planta”, a saber, as realizações no espaço de estado de P e K dadas pelas duas primeiras de (39) forem estabilizáveis e detectáveis, então a realização no espaço de estado da “planta” é assintoticamente estável se só se sua matriz de transferência for BIBO estável. Observação: O Lema diz que para checar a estabilidade interna é preciso conferir a estabilidade de quatro matrizes de transferência. Mas ao invés das quatro do Lema, podem-se checar as

(outras quatro) matrizes de transferência entre os sinais exógenos 1

2

ww⎡ ⎤⎢ ⎥⎣ ⎦

e as respostas da

planta e compensador, 1

2

yy⎡ ⎤⎢ ⎥⎣ ⎦

.

Observação: É comum (ou seria melhor dizer que era comum?) entre os “práticos”, achar que o sistema em malha fechada é estável se a matriz de transferência entre a saída da planta e o primeiro sinal exógeno, tipicamente um sinal a ser rastreado, o for. Isto é falso, como mostra o Lema (37), há que conferir quatro matrizes de transferência. Corolário: (41) Suponha que K ∞∈ HR . Então o sistema da figura 2 é internamente estável se só se

for bem posto e 1ˆ( )P I KP −∞− ∈ HR .

Prova: A necessidade é obvia a partir do bloco (2,1) de (38b). Para provar a suficiência, comparar (38a) e (38b) e, a partir (38a), vemos que basta provar que 1ˆ( )I PK −

∞− ∈ HR .

Ora, 1ˆ( )I PK −− ˆ( )I PK− = I ; donde 1 1ˆ ˆ ˆ( ) ( )I PK I PK PK I− −− − − = , ou seja, 1 1ˆ ˆ ˆ( ) ( )I PK I I PK PK− −− = + − = 1ˆ ˆ( )I P I KP K−+ − , que pertence a ∞HR , de acordo

com as hipóteses. • Corolário: (42) Suponha que P ∞∈ HR . Então o sistema da figura 2 é internamente estável se só se for

bem posto e 1ˆ ˆ( )K I PK −∞− ∈ HR .

Prova: análoga à do Corolário anterior.

Page 58: Notas de aula 1.pdf

58

Corolário: (43) Suponha que tanto P como K pertençam a ∞HR . Então o sistema da figura 2 é

internamente estável se só se ˆ( )I PK ∞− ∈ HR . Prova: como as anteriores, mas mais fácil. • No caso geral, temos: Teorema: (44) Seja kn := numero de polos de K no semiplano fechado da direita e pn := numero de polos de P no semiplano fechado da direita. Então o sistema da figura 2 é internamente estável se só se ele for bem posto e (i) o número de polos de P (s) K (s) no semiplano fechado da direita for kn + pn ;

(ii) ˆ( ) : det[ ( ) ( )]s I P s K sφ = − tiver todos seus zeros no semiplano aberto da esquerda, o

que é equivalente à estabilidade de 1ˆ[ ( ) ( )]I P s K s −− . Prova: Usando as fórmulas de associação de matrizes de transferência (32a) e (32b) do primeiro capítulo, temos imediatamente

Para calcularmos 1ˆ( )I PK −− , usamos (32d), do 1º. Capitulo, relativo à figura 3, com

1 2ˆ e G I G PK= = . Obtem-se, após muitas contas (e com grande probabalidade de erros

na longa dedução).

onde

1ˆ ˆ

ˆˆ( )ˆ ˆ0

A BC BDA I DD C DC

BA−

⎡ ⎤ ⎡ ⎤⎡ ⎤= + −⎢ ⎥ ⎢ ⎥ ⎣ ⎦⎢ ⎥⎢ ⎥ ⎣ ⎦⎣ ⎦

, 1ˆ

ˆ( )ˆ

BDB I DD

B−

⎡ ⎤= −⎢ ⎥⎢ ⎥⎣ ⎦

, (#)

1 ˆˆ( )C I DD C DC− ⎡ ⎤= − ⎣ ⎦ , 1ˆ( )D I DD −= − .

É sempre bom confereir, multiplicando a inversa por ˆI PK− para verificar se se obtem a matriz identidade. Vamos verificar que A A= dada em (34*) acima. Para isso, repetimos (34*):

ˆ ˆˆ ˆ

ˆ ˆˆ ˆ ˆ ˆ0 e 0 ˆ ˆˆ ˆ

A BC BD A BC BD

PK A B I PK A B

C DC DD C DC I DD

⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥

= − =⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥

− − −⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦

1ˆ( )A B

I PKC D

− ⎡ ⎤− = ⎢ ⎥

⎣ ⎦

Page 59: Notas de aula 1.pdf

59

1 ˆˆ0 0 0ˆ ˆ00 0

A B I D CAB D IA C

−⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤−

= +⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥−⎣ ⎦ ⎣ ⎦⎣ ⎦ ⎣ ⎦ (*)

Ora, ˆ ˆˆ ˆ0 0

ˆ ˆ0 0

I I D I I DI D I DD I D ID I D II DD I DD

⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤− −⎡ ⎤ ⎡ ⎤− −= ∴ =⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥−− −− −⎣ ⎦ ⎣ ⎦⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦⎣ ⎦ ⎣ ⎦

=ˆ00

ˆ0 0

II I DD I I DD I

⎡ ⎤ ⎡ ⎤⎡ ⎤ −⎢ ⎥ ⎢ ⎥⎢ ⎥− −⎣ ⎦ ⎣ ⎦ ⎣ ⎦

, donde

1

1

ˆ ˆ 0 0ˆ0 0 ( )

I II D I DD ID I I I DD

⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤−=⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥− − ⎣ ⎦⎣ ⎦ ⎣ ⎦ ⎣ ⎦

= 1 1

1 1

ˆ ˆ ˆ ˆ( ) ( )ˆ ˆ( ) ( )

I D I DD D D I DD

I DD D I DD

− −

− −

⎡ ⎤+ − −⎢ ⎥

− −⎢ ⎥⎣ ⎦.

Substituindo isto em (*) acima, concluimos efetivamente A A= . Portanto, o SMF é internamente estável se só se A A= tiver todos os auto-valores no semiplano aberto da esquerda. Ora, sendo o sistema internamente estável, 1ˆ( )I PK −

∞− ∈ HR , o que implica que todos

os zeros de 1ˆdet( )I PK −− estão no semiplano aberto da esquerda. Portanto só nos resta provar que, dada a condição (ii), a condição (i) é necessária e suficiente para a estabilidade interna. Observe-se que a condição (i) afirma que não há cancelamento de modos instáveis no produto P (s) K (s). Agora observe-se de (#) acima que

ˆˆ

ˆ0

A BCA B C DC

A

⎡ ⎤⎡ ⎤= +⎢ ⎥ ⎣ ⎦⎢ ⎥⎣ ⎦

, donde

[ ]sI A B− = ˆ0 ˆ

ˆ0 0

sI A BCB C DC B

sI A

⎡ ⎤⎡ ⎤⎡ ⎤ ⎡ ⎤− −⎢ ⎥⎢ ⎥⎢ ⎥ ⎣ ⎦⎢ ⎥⎣ ⎦ ⎢ ⎥⎣ ⎦⎣ ⎦

0ˆ0 ˆˆˆ0 0

IsI A BCB C DC B

C DC IsI A

⎡ ⎤⎡ ⎤⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎢ ⎥− −⎢ ⎥⎢ ⎥⎢ ⎥ ⎣ ⎦ ⎡ ⎤⎢ ⎥⎢ ⎥⎣ ⎦ ⎢ ⎥⎣ ⎦ ⎣ ⎦⎣ ⎦ ⎣ ⎦∼

ˆ0ˆ0 0

sI A BCB

sI A

⎡ ⎤⎡ ⎤⎡ ⎤= −⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦ ⎢ ⎥⎣ ⎦⎣ ⎦

= ˆ ˆ0

ˆ ˆ0 0

sI A BC BDsI BA

⎡ ⎤⎡ ⎤ ⎡ ⎤⎡ ⎤−⎢ ⎥⎢ ⎥ ⎢ ⎥⎢ ⎥

⎢ ⎥⎣ ⎦ ⎢ ⎥⎢ ⎥ ⎣ ⎦⎣ ⎦⎣ ⎦.

Portanto, o par ( ),A B é estabilizável se só se ˆ ˆ

,ˆ ˆ0

A BC BD

BA

⎛ ⎞⎡ ⎤ ⎡ ⎤⎜ ⎟⎢ ⎥ ⎢ ⎥⎜ ⎟⎢ ⎥⎢ ⎥ ⎣ ⎦⎣ ⎦⎝ ⎠

o for.

Pelo mesmo método é fácil provar que ( ),C A é detectável se só se

ˆˆ ,

ˆ0

A BCC DC

A

⎛ ⎞⎡ ⎤⎡ ⎤⎜ ⎟⎢ ⎥⎣ ⎦⎜ ⎟⎢ ⎥⎣ ⎦⎝ ⎠

o for.

Ora, estas duas condições são equivalentes à condição (i) do teorema, isto é, não há cancelamento no produto ˆPK . •

Page 60: Notas de aula 1.pdf

60

Com este resultado, fica fácil a demonstração da versão multivariável do critério de Nyquist: Teorema da estabilidade de Nyquist: (45) O sistema é internamente estável se só se for bem posto, a condição (i) do teorema anterior for satisfeita e o diagrama de Nyquist de ( )jφ ω (dado em (ii) do teorema anterior) para ω−∞ ≤ ≤ ∞ envolver a origem do plano complexo, (0,0), kn + pn vezes no sentido anti-horário. Prova: imediata do teorema anterior e do conceito do diagrama de Nyquist. • 3.3 Fatorações coprimas em ∞HR Recorda-se que dois polinômios com coeficientes reais, ( )m s e ( )n s , são coprimos se só se o maior divisor comum deles for um (ou, geralmente, um número real qualquer); equivalentemente, se eles não tiverem algum zero em comum; e ainda, equivalentemente, se existirem polinômios ( )x s e ( )y s tais que ( ) ( ) ( ) ( ) 1x s m s y s n s+ = , (ou igual a um número real qualquer em vez de um). A equação acima é uma equação diofantina e a igualdade acima é chamada de identidade de Bezout. Esta idéia é estendida para varias outras estruturas algébricas, inclusive para a que nos interessa neste curso, ∞HR . Lembramos que as matrizes próprias e estáveis pertencem a ∞HR daí a importância enorme da estrutura ∞HR . Ou seja, duas funções ( )m s e ( )n s em ∞HR são coprimas se só se existirem funções

( )x s e ( )y s em ∞HR tais que ( ) ( ) ( ) ( ) 1x s m s y s n s+ = (46)

Equivalentemente, ( )m s e ( )n s são coprimas se só se todo divisor comum de ( )m s e ( )n s em ∞HR tiver inversa também em ∞HR , ou seja:

Para todo h em ∞HR tal que 1 1, , h mh nh− −∞∈ HR tenhamos 1h−

∞∈ HR . (47) E para o caso multivariável, temos Definição: (48) Duas matrizes M e N em ∞HR são coprimas à direita (c.d.) em ∞HR se elas tiverem o mesmo número de colunas e existirem matrizes rX e rY em ∞HR tais que

[ ]r r r r

MX Y X M Y N I

N⎡ ⎤

= + =⎢ ⎥⎣ ⎦

. (49a)

De modo semelhante, M e N em ∞HR são coprimas à esquerda (c.e.) em ∞HR se elas tiverem o mesmo número de linhas e existirem matrizes lX e lY tais que

Page 61: Notas de aula 1.pdf

61

ll l

l

XM N MX NY I

Y⎡ ⎤⎡ ⎤ = + =⎢ ⎥⎣ ⎦ ⎣ ⎦

. (49b)

Observe-se que a primeira definição acima é equivalente a afirmar que a matriz MN

⎡ ⎤⎢ ⎥⎣ ⎦

tem inversa à esquerda em ∞HR , enquanto que a segunda é equivalente a dizer que a

matriz M N⎡ ⎤⎣ ⎦ tem inversa à direita em ∞HR .

Seja agora P uma matriz racional com coeficientes reais. Uma fatoração coprima à direita (f.c.d.) de P é uma fatoração 1P NM −= , onde M e N são coprimas à direita em ∞HR . De modo semelhante, uma fatoração coprima à esquerda (f.c.e.) tem a forma

1P M N−= , onde M e N são coprimas à esquerda em ∞HR . Denotemos por ( )sPR o conjunto das matrizes racionais próprias com coeficientes reais. Dizemos que ( )P s∈ PR tem uma dupla fatoração coprima se P tiver uma f.c.d.

1P NM −= e uma f.c.e. 1P M N−= e se existirem matrizes , , ,r r l lX Y X Y ∞∈ HR tais que

lr r

l

M YX YI

N XN M−⎡ ⎤⎡ ⎤

=⎢ ⎥⎢ ⎥−⎣ ⎦ ⎣ ⎦. (50a)

Claro que na igualdade acima, uma matriz é a inversa da outra, ambas sendo quadradas, como se pode verificar facilmente. Donde, comutando o produto,

l r r

l

M Y X YI

N X N M−⎡ ⎤ ⎡ ⎤

=⎢ ⎥ ⎢ ⎥−⎣ ⎦⎣ ⎦. (50b)

As duas igualdades acima nos oferecem, cada qual, quatro equações. É claro que em todo este desenvolvimento, estamos supondo que M e M sejam matrizes quadradas. (Tal não ocorre em outras aplicações desta teoria). Teorema: (51) Seja ( )P s uma matriz racional própria com coeficientes reais:

onde a realização indicada é estabilizavel e detectável. Sejam F e L tais que A BF+ e A LC+ sejam estáveis. Definam-se

( )A B

P sC D⎡ ⎤

= ⎢ ⎥⎣ ⎦

,

Page 62: Notas de aula 1.pdf

62

Então 1P NM −= = 1M N− são f.c.d. e f.c.e., respectivamente. Além disso, as igualdades (50) são satisfeitas. Prova (esboço de esboço): Vamos verificar que 1P NM −= é efetivamente uma f.c.d. Que 1M N− seja uma f.c.e. prova-se de modo dual. Ora, de (50a) ou (49a) devemos ter

r rX M Y N I+ = . Mas de (53) e (52), temos

r rX M Y N+ =

Agora reportamo-nos para o produto de duas matrizes de transferência, em (32a) do 1º. Capítulo, obtendo

E agora usamos a fórmula da soma de duas matrizes de transferência, dada em (32b) do 1º Capítulo, obtendo

Definamos como , , e A B C D I= as matrizes acima, ou seja,

( )0 . (53)r r

A LC B LD LX Y

F IN M

C D I

+ − +⎡ ⎤⎡ ⎤ ⎢ ⎥=⎢ ⎥ ⎢ ⎥−⎣ ⎦ ⎢ ⎥−⎣ ⎦

0 , (52)l

l

A BF B LM Y

F IN X

C DF D I

+ −⎡ ⎤−⎡ ⎤ ⎢ ⎥=⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎢ ⎥+ −⎣ ⎦

( )0

A LC B LD A BF B A LC L A BF BF I F I F C DF D+ − + + + +⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤

+⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥+⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦

( ) ( ) ( )0 0

0 0

A LC B LD F B LD A LC L C DF LDA BF B A BF B

F F I F

+ − + − + + +⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥+ + +⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦

( ) 0 0 ( )0 0 00 0 ( )0 0 0

0

r r

A LC B LD F B LDA BF B

X M Y N A LC L C DF LDA BF B

F F F I

+ − + − +⎡ ⎤⎢ ⎥+⎢ ⎥⎢ ⎥+ = + +⎢ ⎥+⎢ ⎥⎢ ⎥⎣ ⎦

Page 63: Notas de aula 1.pdf

63

( ) 1

r rX M Y N C sI A B I−

+ = − + ;

a seguir, pré-multiplicamos a matriz B por uma matriz T não singular e tendo que posmultiplicar a matriz C por 1T − , pois

( ) ( )1 11 1C sI A B I CT T sI A T TB I− −− −− + = − + = ( ) 11 1CT sI TAT TB I

−− −− + .

Como vemos, A tem que ser pré-multiplicada por T e pós-multiplicada por 1T − .

Através de escolha de T conveniente, obtem-se ( ) 1C sI A B

−− = 0, e portanto

efetivamente, temos r rX M Y N+ = I. A prova do teorema inclui ainda a demonstração das outras três igualdades de (50a). • Observação: (54) Observe-se que se P for estável, então as eqs. (52) e (53) são satisfeitas com

r lX X I= = , 0r lY Y= = , N N P= = , , M I M I= = . As fatorações coprimas têm uma interpretação em termos de realimentação, como se segue: Sejam as eqs. de estado de um sistema: x Ax Bu= + , y Cx Du= + .

Façamos uma realimentação de estado neste sistema: u= Fx+v. Ou seja,

( )x A BF x Bv= + + , ( )y C DF x Dv= + + .

Abusando a notação, isto é, usando a mesma letra para a variável e sua transformada de Laplace, temos da eq. diferencial

1( ) ( )sI A BF x Bv x sI A BF Bv−− − = ∴ = − − e de u= Fx+v, obtemos a matriz de transferência entre u e v:

que aparece em (52), enquanto que a matriz de transferência de v para y é:

que também aparece em (52). De modo que u = Mv , y = Nv.

( )A BF B

M sF I+⎡ ⎤

= ⎢ ⎥⎣ ⎦

, (55)

( ) = . (56)A BF B

N sC DF D+⎡ ⎤

⎢ ⎥+⎣ ⎦

Page 64: Notas de aula 1.pdf

64

Considere de novo o diagrama de blocos da figura 2. Sejam as fatorações coprimas à direita e à esquerda de P como definidas antes e de K :

1 1K UV V U− −= = . (57) Lema: (58) Considere o sistema da figura 2. As seguintes condições são equivalentes: (i) O sistema é internamente estável;

(ii) M UN V

⎡ ⎤⎢ ⎥⎣ ⎦

tem inversa em ∞HR ;

(iii) V UN M

⎡ ⎤−⎢ ⎥−⎣ ⎦

tem inversa em ∞HR ;

(iv) MV NU− tem inversa em ∞HR ;

(v) VM UN− tem inversa em ∞HR . Prova: Como vimos, estabilidade interna é equivalente a

1ˆI KP I

−⎡ ⎤−⎢ ⎥−⎣ ⎦

∞∈ HR , ou seja, 1ˆI K

P I

−⎡ ⎤⎢ ⎥⎣ ⎦

∞∈ HR .

Ora, 1 1

1 1

ˆ 00

M UI UV MI KN VNM I VP I

− −

− −

⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎡ ⎤= =⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥

⎣ ⎦⎣ ⎦ ⎣ ⎦⎣ ⎦.

Donde, 1 1ˆ 0

0M M UI K

V N VP I

− −⎡ ⎤ ⎡ ⎤ ⎡ ⎤=⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦⎣ ⎦

. (59)

Agora se observe que 0 0 0 0 0

0 0 0 0 00 0 0

0 0 0

I M MI V V

I I M U UI I N V N

⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥=⎢ ⎥ ⎢ ⎥ ⎢ ⎥−⎢ ⎥ ⎢ ⎥ ⎢ ⎥−⎣ ⎦ ⎣ ⎦ ⎣ ⎦

.

Note que a segunda matriz do lado esquerdo é composta das matrizes “numerador” e “denominador” de (59). A primeira matriz do lado esquerdo desta tem posto cheio e, portanto, ao pósmultiplicá-la pela segunda matriz, o posto desta não se altera. Ora, a matriz do lado direito tem claramente posto cheio, pelo fato de os pares (M, N) e (V, U) serem c. d. Portanto, a segunda matriz do lado esquerdo também tem posto cheio e, portanto as matrizes do lado direito de (59) são c. d. Daí que o sistema é internamente estável se só se

1M UN V

−⎡ ⎤⎢ ⎥⎣ ⎦

∞∈ HR , o que prova a equivalência das condições (i) e (ii).

A equivalência das condições (i) e (iii) é provada de forma semelhante.

Page 65: Notas de aula 1.pdf

65

Agora observe que 0

0M UV U VM UNN VN M MV NU

⎡ ⎤ ⎡ ⎤− −⎡ ⎤=⎢ ⎥ ⎢ ⎥⎢ ⎥− −⎣ ⎦⎣ ⎦ ⎣ ⎦

.

Ora, o lado esquerdo desta eq. tem inversa em ∞HR , consequentemente o lado direito também, provando as condições (iv) e (v). Para concluir, vamos provar que (v) ⇒ (i). Ora,

1 11

1

ˆ I V UI KNM IP I

− −−

⎡ ⎤ ⎡ ⎤=⎢ ⎥ ⎢ ⎥⎣ ⎦⎣ ⎦

; (60)

mas 11 1

1

0000

MI V U V VM UINM I I N I

−− −

⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤=⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥

⎣ ⎦⎣ ⎦ ⎣ ⎦ ⎣ ⎦,

donde 1 11

1

0 00 0MI V U VM U V

INM I N I I

− −−

⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎡ ⎤=⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥⎣ ⎦⎣ ⎦ ⎣ ⎦ ⎣ ⎦

.

Em vista disso e de (60), vemos que (i) ocorre se só se 1

VM UN I

−⎡ ⎤⎢ ⎥⎣ ⎦

∞∈ HR . (61)

Mas 0

0IVM U VM UN UN IN I I

⎡ ⎤ ⎡ ⎤−⎡ ⎤=⎢ ⎥ ⎢ ⎥⎢ ⎥−⎣ ⎦⎣ ⎦ ⎣ ⎦

,

ou seja, 1 10 ( ) 0

0I VM U VM UNN I N I I

− −⎡ ⎤ ⎡ ⎤−⎡ ⎤=⎢ ⎥ ⎢ ⎥⎢ ⎥

⎣ ⎦ ⎣ ⎦ ⎣ ⎦.

Em vista desta e de (61), concluímos que (i) ocorre se só se (v) ocorre. • Claro que este lema estabelece também, o que já deveria estar claro a esta altura, que K é um controlador que estabiliza o SMF. 3.4 Propriedades da realimentação Considere a figura 1, que repetimos aqui:

Page 66: Notas de aula 1.pdf

66

Na figura acima, P é a planta, dada, K é um controlador (ou compensador) a ser projetado, y é a resposta da planta, r é tipicamente um sinal de referencia a ser rastreado pela resposta da planta, n é tipicamente um ruído (frequentemente, um sinal estocástico) a ser rejeitado na resposta da planta, e os outros dois sinais exógenos são tipicamente distúrbios (usualmente, determinísticos) a serem rejeitados na resposta da planta. Definamos iL KP= e oL PK= , (66) que são denominadas matriz de transferência de entrada da malha e matriz de transferência de resposta da malha, respectivamente. Com efeito, a primeira é obtida, partindo-se a malha no ponto u, enquanto que a segunda é obtida partindo-se a malha no ponto y, as matrizes sendo calculadas na direção das setas. A matriz de sensibilidade de entrada, é definida como a matriz de transferência de id para pu , ou seja, p i iu S d= . Ora, do diagrama de blocos temos

p i pu d KPu= − 1( ) ( )p i p iI KP u d u I KP d−∴ + = ∴ = + . Donde, 1( )i iS I L −= + . (67a)

Analogamente, a matriz de sensibilidade de resposta é definida como oy S d= , obtendo-se

1( )o oS I L −= + . (67b) As matrizes de sensibilidade complementares da entrada e da resposta são, respectivamente, definidas como

1( )i i i iT I S L I L −= − = + , (68a) 1( )o o o oT I S L I L −= − = + . (68b)

A palavra complementar é usada em vista de T ser o “complemento” de S, a saber, T =I – S. Ora, se o sistema for internamente estável, então as inversas acima existem e podemos obter facilmente as seguintes equações:

( )o o i oy T r n S Pd S d= − + + , (69a) ( )o o o ir y S r d T n S Pd− = − + − , (69b)

( )o o i iu KS r n KS d T d= − − − , (69c) ( )p o o i iu KS r n KS d S d= − − + . (69 d)

Kr

id

u pu P

d

y

n _

Figura 1 bis

Page 67: Notas de aula 1.pdf

67

Estas quatro equações resumem as propriedades benéficas da realimentação. Com efeito: - Por exemplo, a primeira mostra que o efeito do distúrbio d na resposta da planta pode ser feito “pequeno” se fizermos a matriz de sensibilidade da resposta, oS , pequena. Por “pequeno” se entende pequeno na faixa de frequência de interesse. Assim, se o sinal exógeno puder ser aproximado por degraus, cuja transformada de Laplace é 1/s, então

oS (0) deve ser pequeno, e frequentemente é feito nulo, utilizando integrador no controlador, sua transformada de Laplace sendo também 1/s: o s do denominador do integrador aparece no numerador de oS . De um modo geral, a noção de matriz “pequena” associada a um dado espectro de frequências de interesse pode ser explicitada pelo maior valor singular, como, por exemplo, ( ) 1oSσ < : neste caso, esta desigualdade significa que dentro de dado espectro de frequências o efeito do distúrbio d sobre a resposta da planta é pequeno, de acordo com (69a). Note-se que o lado direito da desigualdade, um, é usualmente normalizado, através de matrizes de “peso” e por isso parece que não é “pequeno”. - De modo semelhante, da quarta equação, vemos que o efeito do distúrbio id pode ser diminuído se fizermos a sensibilidade de entrada, iS , pequena. Portanto, boa rejeição dos distúrbios d e id na resposta da planta implica, respectivamente, que os seguintes valores singulares sejam pequenos, de acordo com (69a):

1 1( ) (( ) )( )oS I PKI PK

σ σσ

−= + =+

, (70a)

1( ) (( ) ) ( )o iS P I PK P PSσ σ σ−= + = . (70b) - Por outro lado, boa rejeição dos distúrbios d e id na entrada da planta, Pu , requer, respectivamente, de acordo com (69d), que os seguintes sejam pequenos:

1 1( ) (( ) )( )iS I KPI KP

σ σσ

−= + =+

, (70c)

1( ) (( ) ) ( )i oS K I KP K KSσ σ σ−= + = . (70 d) - Agora, tenham-se em vista as seguintes propriedades dos valores singulares que valem para quaisquer matrizes quadradas:

( ) 1 ( ) ( ) 1PK I PK PKσ σ σ− ≤ + ≤ + , (71a) ( ) 1 ( ) ( ) 1KP I KP KPσ σ σ− ≤ + ≤ + . (71b)

Destas desigualdades e das igualdades anteriores, temos 1 1( )

( ) 1 ( ) 1oSPK PK

σσ σ

≤ ≤+ −

se ( ) 1PKσ > , (72a)

1 1( )( ) 1 ( ) 1iSKP KP

σσ σ

≤ ≤+ −

se ( ) 1KPσ > (72b)

Estas inequações implicam ( ) 1 ( ) 1oS PKσ σ⇔ , (73a) ( ) 1 ( ) 1iS KPσ σ⇔ . (73b)

Page 68: Notas de aula 1.pdf

68

Supondo que P e K tenham inversas, temos 1 1 1 ( ) 1 ou ( ) 1 ( ) (( ) ) ( )

( )oPK KP S P I PK P KK

σ σ σ σ σσ

− −⇔ = + ≈ = ,

(74a) 1 1 1 ( ) 1 ou ( ) 1 ( ) ( ( ) ) ( )

( )oPK KP KS K I PK PP

σ σ σ σ σσ

− −⇔ = + ≈ = .

(74b) Assim, por exemplo, a rejeição de distúrbios implica grandes ganhos na malha aberta, traduzidos por

( ) 1PKσ e ( ) 1KPσ . Mas a afirmação acima não deveria ser interpretada como se o projeto de um sistema de malha fechada fosse algo trivial. Efetivamente, há sempre “compromissos” (“trade-offs”) a serem obtidos. Assim, por exemplo, de (69a), obtem-se boa rejeição de distúrbios d e id com oS pequeno; mas isto implica que oT é grande e, portanto a rejeição do distúrbio n não é satisfatória. Mais ainda, de (69b), se r for um sinal de referência a ser rastreado pela resposta da planta, então o erro, que se deseja pequeno, será grande para oT grande, ou seja, o erro será sensível ao distúrbio n. Outro ponto da necessidade de compromisso é que os ganhos em malha aberta não podem ser grandes em espectro muito largo de frequências, conforme explicação a seguir: Suponha que a planta seja perturbada, isto é, ( )P I P→ +∆ , com ∆ estável. Suponha que o sistema nominal (isto é, com ∆ = 0) seja internamente estável. O sistema perturbado é internamente estável se só se det( ( ) )I I PK+ + ∆ não tiver zero no semiplano da direita. Ora,

1( ( ) ) ( ) ( )( ) ( )I I PK I PK PK I PK PK I PK I PK−+ + ∆ = + + ∆ = + + ∆ + + 1

0( ( ) ( ) ( ( )) )I PK I PK I PK I T I PK−= + ∆ + + = + ∆ + . Donde det( ( ) )I I PK+ + ∆ = 0det( ( ))detI T I PK+ ∆ + (75) Para que este produto de funções racionais no lado direito da igualdade acima não tenha zero no semiplano da direita, é necessário, em geral, que PK∆ seja pequeno, ou seja, que oT∆ seja pequeno, isto é, que ( )oTσ seja bem pequeno nas frequências em que

∆ é grande. Mas esta condição conflita, como já vimos, com uma boa redução de distúrbios. Há ainda outras situações de conflito, indicadas em ZDG, p. 133. 3.5 O conceito de “loop shaping” Os conceitos da seção anterior nos levam a estudar brevemente um método muito usado de projeto de controlador, a “loop shaping” (“construindo o sistema em malha fechada”). Trata-se de achar um controlador K que permita que a função de transferência (caso escalar) em malha aberta L fique dentro da faixa permitida pelas restrições que proveem

Page 69: Notas de aula 1.pdf

69

do desempenho (tipicamente, de baixas frequências) e de robustez (tipicamente, de altas frequências). Ou seja, temos que encontrar K tal que ( )Lσ e ( )Lσ fiquem dentro dos limites impostos pelas restrições, como ilustrado na figura abaixo.

Figure 3 Na figura 3 os valores nos eixos horizontal (frequência) e vertical (módulo do valor singular de L) são lançados, tipicamente, em logaritmos decimais e em decibéis, respectivamente, decibéis sendo 20 vezes o logaritmo decimal. Observe-se ainda que os gráficos dos valores singulares são, na realidade, de suas assíntotas, que fornecem aproximação razoável para a maioria dos casos. Loop shaping no caso escalar (sistemas SISO= single input, single output) 1) Observe-se inicialmente que no caso escalar só há um valor singular de L, o qual coincide com o proprio L, ou seja, na figura 3 as duas curvas (na realidade, as assíntotas delas) coincidem. Trata-se, como vimos, de achar uma função racional estritamente própria L que contenha todos os polos e zeros no semiplano fechado da direita da planta P e de tal modo que L fique dentro das especificações impostas pelas restrições de baixa frequência (desempenho) e de alta frequência (robustez). É claro que se L não tiver todos os polos e zeros ruins de P, haverá cancelamento de modos ruins no produto PK, o que por sua vez implica instabilidade. Estas especificações de L são obtidas usando as relações (70) a (74), principalmente (73) e (74), acima. Isto é garantido se L ficar dentro das especificações. Isto é feito por “tentativa e erro”. Alem disso, L deve ser escolhido de tal modo que 1 + L tenha todos os seus zeros no semiplano aberto da esquerda; para obter isso, temos a seguinte “receita de bolo”: em geral, L deve ser “bem comportada” na chamada frequência de “cross over”, que é a frequência onde ( )L jω = 1 (ou seja, seu logaritmo é nulo). “Bem comportada” aqui quer dizer que L não deve decrescer muito rapidamente na dita região. 2) A função de transferência do controlador é simplesmente K = L / P.

( )Lσ

( )Lσ

Page 70: Notas de aula 1.pdf

70

Loop shaping no caso multivariável (sistemas MIMO = multiple input and output) O loop shaping é feito de modo semelhante, quando se tomam os valores singulares, a saber: 1) Achar uma função racional estritamente própria L que contenha todos os polos e zeros no semiplano fechado da direita da planta P, conferindo se 1

oP L− (ou 1iL P− ) não tem

cancelamento de pólos e / ou zeros. Constróem-se os lugares dos valores singulares máximo e mínimo como na figura 3, usando especialmente (73) e (74) acima, conferindo que eles não ultrapassem as restrições impostas pelo desempenho e robustez. Se qualquer um ultrapassar em algum ponto, deve ser corrigido. Além disso, L deve ser tal que det(I + L) tenha todos seus zeros no semiplano aberto da esquerda. 2) O controlador é dado por 1

oP L− , ou 1iL P− , conforme se tenha escolhido uma ou outra

matriz de transferência do sistema em malha aberta. Seja dito que o método do “loop shaping” é muito usado no caso de sistemas SISO, bem menos nos sistemas MIMO, a tentativa e erro na escolha de L sendo bastante trabalhosa, tendo em vista também que: i) Este método só leva em consideração o desempenho e a robustez da estabilidade. Ora, no caso multivariável, podem existir outras especificações, e diferentes, nos diversos canais. A coisa se agrava se houver incerteza no modelo da planta. Com efeito, seja

( )P I P∆ = + ∆ , onde P é a planta nominal e ∆ é o erro multiplicativo de modelagem

(desconhecido). Seja a normalização do erro tW∆ = ∆ , com ( )σ ∆ < 1. Para robustez,

desejamos ( )t oW Tσ ∆ < 1, ou ( )t oW Tσ ≤ 1. Ora, precisamos de um majorante no caso

multivariável, como segue, ( )( ) ( ) ( ) ( )

1 ( )o

t o t o to

LW T W T WL

σσ σ σ σσ

≤ ≤−

, se ( )oLσ < 1.

Por outro lado, a estabilidade robusta é obtida se ( ) 1 1( )

1 ( ) ( ) 1 ( )o

oo t t

L LL W W

σ σσ σ σ

≤ ≈− +

, se ( )oLσ < 1. (76a)

De modo semelhante, se as especificações de desempenho como, por exemplo, a rejeição de distúrbio, não forem especificadas uniformemente em todos os canais e sim através de uma matriz de peso sW de tal modo que ( ) 1s oW Sσ ≤ então é necessário limitar por cima

( )s oW Sσ a fim de aplicar as técnicas de loop shaping: ( )( ) ( ) ( ) ( )1( )

ss o s o s

o

WW S W S WL

σσ σ σ σσ

≤ ≤−

, se ( )oLσ < 1.

E obtem-se o desempenho satisfazendo às condições se ( ) ( ) 1 ( )o s sL W Wσ σ σ≥ + ≈ , (76b) se ( )oLσ > 1. E é possível que os limites para o loop shaping se contradigam um ao outro, como na figura 5 abaixo, mas isto não significa que não haja controle que satisfaça às especificações de robustez da estabilidade e desempenho, a não ser em problemas escalares.

Page 71: Notas de aula 1.pdf

71

Vejamos como a contradição mencionada pode acontecer em exemplo bem simples: 11( )0 11

P ss

α⎡ ⎤= ⎢ ⎥+ ⎣ ⎦

, as matrizes de “peso” (ponderação) sendo dadas por

11 ( 1)( 2)

101

ss s sW

s

α⎡ ⎤⎢ ⎥+ + +⎢ ⎥=⎢ ⎥⎢ ⎥+⎣ ⎦

,

2 ( 1)10 ( 10)

2010

t

s ss sW

ss

α+ +⎡ ⎤⎢ ⎥+ +⎢ ⎥=

+⎢ ⎥⎢ ⎥+⎣ ⎦

.

Pode-se verificar que os valores singulares extremos dos “pesos” são dados na figura 5 quando α é grande.

Figura 5 Donde se vê que neste caso não se pode aplicar a técnica de loop shaping. Por outro lado, pode-se conferir que se usarmos o controlador K = I , obtemos

1 02

102

ssW S

s

⎡ ⎤⎢ ⎥+= ⎢ ⎥⎢ ⎥⎢ ⎥+⎣ ⎦

,

1 010

1010

tsW T

s

⎡ ⎤⎢ ⎥+= ⎢ ⎥⎢ ⎥⎢ ⎥+⎣ ⎦

, os critérios de desempenho e robustez na

estabilidade sendo satisfeitos. 3.6 Desempenho com “pesos” em 2H e ∞H Vimos na seção 3.4 como especificar o desempenho em função sensibilidade ( )S jω e de seu complemento ( )T jω . Às vezes uma destas funções (ou as duas) deve ficar entre valores diferentes, dependendo da faixa de frequência, como por exemplo, no caso de um problema escalar,

( )sWσ

logω

1( )tWσ

Page 72: Notas de aula 1.pdf

72

( )S jω α≤ < 1, para todo 0ω ω≤ ;

( ) 1S jω β≤ > , para todo 0ω ω> . Ao invés desta forma, é mais conveniente usar funções de peso apropriadas. Assim, ao invés do problema acima, usa-se geralmente o equivalente

( ) ( ) 1sW j S jω ω ≤ para todo ω , com 1

0

10

,( )

,sW jα ω ω

ωβ ω ω

∀ ≤=

∀ >.

Em geral, usa-se ( )sW jω racional. E assim para as outras funções de peso. Então, ao invés do diagrama de blocos da figura 1 (ou 1bis), usa-se o seguinte:

Figura 6 As vantagens de usar pesos são multiplas, especialmente em sistemas multivariáveis. Em primeiro lugar, algumas componentes do sinal são mais importantes que outras; em segundo lugar, as componentes quase sempre são medidas em métricas diferentes, quando, por exemplo, umas são medidas em metros e outras em volts. As funções de peso são então essenciais para tornar estas medidas comparáveis. Outra razão é que muitas vezes estamos interessados em rejeição de distúrbios numa certa gama de frequências e não em outras. Desempenho em 2H

Suponha que o distúrbio d possa ser modelado aproximadamente pelo impulso ( ) ( )d t tηδ= , onde η é um vetor aleatório com E[ ] Iηη∗ = , onde E denota o operador

expectância. Queremos minimizar a energia do erro devido ao distúrbio, ou seja, queremos minimizar

Page 73: Notas de aula 1.pdf

73

2 2 2

2 20

E E e o de e dt W S W∞⎧ ⎫

= =⎨ ⎬⎩ ⎭∫ ,

com escolha apropriada das matrizes de ponderação e e dW W . Em geral, um controlador minimizando somente o índice de desempenho acima pode dar origem a um controle u muito grande, que levaria à saturação nos atuadores da planta. Portanto, um projeto de controlador realista deve incluir o controle no índice de desempenho, ou seja, deve ser da forma

2

2 222 2

2

E e o d

u o d

W S We u

W KS Wρ

ρ⎡ ⎤

+ = ⎢ ⎥⎣ ⎦

, com escolhas apropriadas da matriz de peso uW e do

escalar ρ . Com efeito, suponhamos que se queira minimizar

2

21

sup e o dd

e W S W∞

≤= ,

sujeito à restrição na energia do controle ou da banda de frequências do controle:

2

21

sup u o dd

u W KS W∞

≤= .

Mais frequentemente se introduz um parâmetro ρ e um critério misto:

2

222 2

2 21

sup e o d

u o dd

W S We u W KS Wρ ρ≤ ∞

⎡ ⎤⎢ ⎥⎢ ⎥⎣ ⎦

+ = , como indicado acima.

4º. Capitulo: Incerteza de modelos e robustez 4.1 Incerteza do modelo Os projetos de controladores são modelos matemáticos. Ora, um modelo é sempre uma aproximação. A coisa se complica em vista do fato que nunca sabemos quão “distante” o modelo é da realidade, uma vez que esta não é conhecida com exatidão. Suponha-se, por exemplo, que o modelo de uma planta seja dado por

1 2( ) ( ) ( ) ( ) ( )P s P s W s s W s∆ = + ∆ , com [ ( )] 1jσ ω∆ < para todo 0ω ≥ , (1) onde 1W e 2W , os “pesos”, são matrizes de transferência estáveis que caracterizam a incerteza como função da frequência. Esta caracterização confina a matriz ( )P s∆ em certa vizinhança do modelo nominal P. No caso escalar em que 1W = 1 e 2W = w(s), então P∆ descreve um círculo centrado em P e raio ( )w jω , variando a cada frequência, conforme a figura 7.

Page 74: Notas de aula 1.pdf

74

Figura 7 A incerteza ∆ pode ser causada por mudanças dos parâmetros ou por se ter desprezado no modelo alguma dinâmica ou por outras razões. Uma alternativa a (1) é dada pela assim chamada forma multiplicativa:

1 2( ) ( ( ) ( ) ( )) ( )P s I W s s W s P s∆ = + ∆ . (2) Este modelo confina a planta “real” P∆ a uma vizinhança normalizada do modelo. As representações (1) e (2) das incertezas têm sido muito empregadas tanto em teoria como nos problemas práticos. Há que considerar, porem, que a escolha das matrizes de peso 1W e 2W não é algo trivial. Inicialmente focalizaremos a expressão (2). Nesta expressão suporemos que a planta nominal P é estritamente própria, o que é o mais comum, pois as plantas que queremos controlar quase sempre têm “inércia” (mecânica, térmica....). Mais ainda, suporemos também que a planta perturbada, P∆ , permaneça estritamente própria, o que quase sempre ocorre, porque ∆ é quase sempre própria e só um masoquista escolheria 1W e / ou 2W impróprios. As matrizes de peso são usualmente tais que se obtém a figura 8, que mostra que o ganho das matrizes de peso é “pequeno” ( 1) em baixas frequências e aumenta, passando de 1 à medida que a frequência aumenta.

Page 75: Notas de aula 1.pdf

75

Figura 8 Aqui e adiante usaremos as seguintes definições: Definição: (3) Dada a descrição de um modelo de incerteza Π e um conjunto de objetivos de desempenho, suponha que P∈Π seja o modelo nominal da planta e que K é o controlador para esta planta nominal. Então o sistema tem: Estabilidade nominal (NS = nominal stability) se K estabilizar o modelo da planta, P ; Estabilidade robusta (RS) se K estabilizar toda planta emΠ ; Desempenho nominal (NP = nominal performance) se os objetivos de desempenho são satisfeitos para a planta nominal; Desempenho robusto (RP) se os objetivos de desempenho são satisfeitos para toda planta emΠ . 4.2 Teorema do pequeno ganho Esta seção e a seguinte consideram o teste de estabilidade de um sistema nominalmente estável sujeito a perturbações não estruturadas. O resultado básico usado é o (famoso) teorema do pequeno ganho. Considere o sistema da figura 9:

∆1e

1y

M2y

2e

2w

1w

Figura 9

Page 76: Notas de aula 1.pdf

76

Teorema do pequeno ganho (4) Suponha que M ∞∈ HR e seja γ > 0. Então o sistema em malha fechada da figura 9 é bem posto e internamente estável para todo ( )s ∞∆ ∈ HR com:

(a) 1γ∞

∆ ≤ se só se ( )M s γ∞< ;

(b) 1γ∞

∆ < se só se ( )M s γ∞≤ .

Prova: Provaremos só a suficiência. (A prova da necessidade, mais trabalhosa, está em ZDG, pp. 218s). Claro que ( ) ( )M s s∆ é estável, pois cada fator o é. Ora, das condições (a) e (b) temos que 1M

∞ ∞∆ < . Mas isto implica, a fortiori, 1M

∞∆ < , o que por sua vez implica,

usando o critério de Nyquist, Teorema (45) do Capítulo 3, que det( )I M− ∆ não tem zero no semi-plano fechado da direita, ou seja, o sistema em malha fechada é estável. Exemplo:

Seja 1 e 1

( ) As A

M s ∆ =+

= , onde A é um número real. Verificar se o SMF da fig. 9,

acima, é internamente estável .

Solução: 21

sup sup1

A AM Ajω ω

ωω∞ += = =

+, 1

A∞∆ = . Nenhuma das condições

do teorema é satisfeita, logo o SMF não é internamente estável. (Na realidade, basta conferir se uma delas é ou não satisfeita, a outra será ou não, tal como a primeira).

Vamos conferir o polinômio característico do SMF: 11s A sA

+ − = , que não é um

polinômio Hurwitz, portanto o SMF não é internamente estável, confirmando a aplicação do teorema anterior. Este teorema é um resultado muito geral, não valendo somente para os sistemas tratados, em que as matrizes de transferência são racionais. Efetivamente, ele pode ser demonstrado também para sistemas de dimensão infinita (que correspondem a equações diferenciais com derivadas parciais). Isto é afirmado formalmente no resultado abaixo: Corolário: (5) As seguintes afirmações são equivalentes com relação ao diagrama de blocos da figura 9:

(i) O sistema é bem posto e internamente estável para todo ∞∆∈H com 1γ∞

∆ < .

(ii) O sistema é bem posto e internamente estável para todo ∞∆∈ HR com 1γ∞

∆ < ;

(iii) O sistema é bem posto e internamente estável para todo Cq p×∆∈ com 1γ∞

∆ < ;

Page 77: Notas de aula 1.pdf

77

(iv) ( )M s γ∞≤ .

Observação: Pode-se demonstrar que a condição do teorema é suficiente mesmo que ∆ seja não linear ou variante no tempo, mas estável.

O lema seguinte mostra que se M γ∞> , então existe ∆ com 1

γ∞∆ < que

desestabiliza o sistema: Lema: (6) Suponha que M ∞∈ HR e que M γ

∞> . Então existe 0σ > 0 tal que para todo

0[0, ]σ σ∈ existe ∆ com 1γ∞

∆ < tal que det( ( ) ( ))I M s s− ∆ tenha zero em σ .

Prova: ZDG, pp. 220s. 4.3 Estabilidade sob perturbações estáveis e não estruturadas Nesta seção usaremos bastante o teorema do pequeno ganho para estudar a estabilidade em várias situações. O erro de modelagem, ∆ , será, como usual, suposto estável. Mas há que notar que os resultados a seguir, na sua maioria, podem ser estendidos, com pequenas restrições adicionais, para sistemas em que o erro de modelagem ∆ é instável. Suporemos que ∆ seja devidamente ponderado com os “pesos” 1W e 2W , que são matrizes. Consideraremos o diagrama de blocos padrão da figura 10. Π é uma planta arbitrariamente perturbada, satisfazendo a Π∈Π , onde Π é o conjunto de todas as plantas possíveis. Seja P a planta nominal, que também, claro, satisfaz a. P∈Π .

As matrizes de sensibilidade e de sensibilidade complementar são definidas para a planta nominal por

1( )oS I PK −= + , o oT I S= − , (7a) 1( )iS I KP −= + , i iT I S= − . (7b)

K Π

_

Figura 10

Page 78: Notas de aula 1.pdf

78

Lembramos que o sistema da figura 10 é bem posto e internamente estável se só se 1I K

I

−⎡ ⎤⎢ ⎥−Π⎣ ⎦

=11 1

1 1

( ) ( )( ) ( )

I K K I KI K I K

−− −

− −

+ Π − + Π

+Π Π +Π

⎡ ⎤⎢ ⎥⎣ ⎦

∞∈ HR para todo Π∈Π . (7c)

Incertezas aditivas Consideremos primeiramente as perturbações (ou incertezas) aditivas, a saber, Π := 1 2 :P W W ∞∆+ ∆∈RH . (8) Teorema: (9a) Seja Π definido acima e seja K um controlador estabilizador para a planta nominal P. Então o sistema em malha fechada é bem posto e internamente estável para todo

∞∆ < 1

se só se 2 1 1oW KS W∞≤

Prova: Vamos provar incialmente que

1I KI

−⎡ ⎤⎢ ⎥−Π⎣ ⎦

= 1 1

1 2 1 21 1

1 2 1 2 1 2

( ) ( )( ) ( ) ( )

o i o o

o o o o

I KS W W S KS I W W KSI S W W K S P W W S I W W KS

− −

− −

⎡ ⎤+ ∆ − + ∆⎢ ⎥+ ∆ + ∆ + ∆⎣ ⎦

. (9b)

Definamos, de acordo com (8), 1 2P W WΠ = + ∆ (9c) Comparando (9b) com (7c), devemos ter: Bloco (1,1): 1

1 2( )o iI KS W W S−+ ∆ = 1( )I K −+ Π . Ora, se esta igualdade for verdadeira,

devemos ter 11 2 1 2( )( ) ( )o i o iI KS W W I K S I KS W W S I K−+ ∆ + Π + ∆ = + Π= ∴ .

Usando (7a) e (7b), temos desta última igualdade

1 21 1( ) ( ) ( )I K I PK W W I KP I K− −+ + ∆ = + + Π

1 21 1( ) ( ) ( )I I KP W W I KP I KK− −∴ + + ∆ = + + Π . Pré-multiplicando ambos os lados por

I KP+ , obtemos 1 2 ( )I KP KW W I K∴ + + ∆ = + Π , concluindo a prova, tendo em vista a definição de Π em (9c). (Observe-se que a demonstração formal parte desta última igualdade, revertendo os passos. Esta observação vale também para as demonstrações que se seguem). Bloco (1,2): De (9b) e (7c) temos que provar que

1 11 2( ) ( )o oKS I W W KS K I K− −− + ∆ − + Π= = 1( )I K K−− + Π

1 2( ) ( )o oI K KS I W W KSK∴ + Π + ∆= , em vista da def. de Π ,

1 21 1( ) ( ) ( ( ) )I K K I PK I W W K I PKK− −∴ + Π + + ∆ +=

1 21 1( ) ( ) ( )( )I K K I PK I PK W W K I PKK− −∴ + Π + + + ∆ +=

1 2 1 2( ) ( ) ( )I K K I PK W W K K K K P W W KK∴ + Π = + + ∆ ∴ Π = + ∆ , esta última sendo uma identidade em vista da def. de Π . Bloco (2,1): temos que provar agora que

11 2 1 2

1( ) ( ) ( )o oI S W W K S P W W I K −−+ ∆ + ∆ = + Π Π

∴ 11 2 1 2

1( ) ( ) ( )o oI S W W K S P W W I K −−+ ∆ + ∆ = Π + Π

Page 79: Notas de aula 1.pdf

79

1 2 1 2( )( ) ( )o oS P W W I K I S W W K∴ + ∆ + Π = + ∆ Π

1 2 1 21 1( ) ( )( ) ( ( ) )I PK P W W I K I I PK W W K− −∴ + + ∆ + Π = + + ∆ Π

1 2 1 21 1( ) ( )( ) ( ) ( )I PK P W W I K I PK I PK W W K− −∴ + + ∆ + Π = + + + ∆ Π

( ) ( )I K I K∴Π + Π = +Π Π , que é uma identidade óbvia. Bloco (2,2): agora temos que provar que

1 11 2( ) ( )o oS I W W KS I K− −+ ∆ + Π= 1 2( ) o oI K S I W W KS∴ +Π + ∆=

1 21 1( )( ) ( )I K I PK I W W K I PK− −+ Π + + ∆ +∴ = 1 2I K I PK W W K∴ +Π = + + ∆ , que é

uma identidade. Agora, note-se que dadas duas matrizes X e Y, cujos produtos XY e YX sejam matrizes quadradas, temos

det( ) det det det0

I XYI Y I Y Y I

I XY X I I X+ =

⎛ ⎞ ⎛ ⎞ ⎛ ⎞⎡ ⎤ ⎡ ⎤ ⎡ ⎤= =⎜ ⎟ ⎜ ⎟ ⎜ ⎟⎢ ⎥ ⎢ ⎥ ⎢ ⎥+ − −⎣ ⎦ ⎣ ⎦ ⎣ ⎦⎝ ⎠ ⎝ ⎠ ⎝ ⎠

det det det( )0

I YXI X IY I Y I YX

+⎛ ⎞ ⎛ ⎞−⎡ ⎤ ⎡ ⎤

= = =⎜ ⎟ ⎜ ⎟⎢ ⎥ ⎢ ⎥+⎣ ⎦ ⎣ ⎦⎝ ⎠ ⎝ ⎠.

Ora, podemos aplicar este tipo de operações a todos os denominadores das matrizes de (9b). Assim por exemplo, o denominador do bloco (1,1) é 1 2oI KS W W+ ∆ , enquanto que o do bloco (1,2) é 1 2 oI W W KS+ ∆ . Então permutando oKS e 1 2W W∆ , vemos que os dois determinantes são iguais. E assim cada matriz de (9b) será estável se só se uma delas o for. Mais ainda, de acordo com a mesma propriedade acima, cada uma delas será estável se só se 1

2 1( )oI W KS W −∞+ ∆ ∈RH . E isto é garantido se 2 1 1oW KS W

∞∆ < , de acordo

com o teorema do pequeno ganho, provando a suficiência do presente teorema. (Necessidade): o bloco (1,2) de (7c) tem que ser estável, ou seja,

1( )K I K −∞+Π ∈RH para todo ∆ admissível e isto, por sua vez, implica

12 1( )W K I K W−

∞∆ +Π ∈RH ; (*)

ora, 1 2 1 21( )( ( ) )PK W W K PK I PK W W KI K I I I −+ ∆ = + ∆+Π = + + + ; donde,

1 21 1 1 1( ( ) ) ( )( ) I PK W W K PKI K I I− − − −+ ∆+Π = + +

= 1 21 1 1( ) ( ( ) )PK I W W K PKI I− − −+ ∆+ + = 1

1 2 )(o oS I W W KS −+ ∆ ;

donde a expressão em (*) acima é 1 12 1 2 1 2 1( ) ( )o oW K I K W W KS I W W KS W− −∆ + Π = ∆ + ∆

= 12 1 2 1( )o oW KS W I W KS W −∆ + ∆ = 1

2 1 2 1( )( )o oW KS W I W KS WI I −∆ + ∆+ − 1

2 1( )oI W KS WI −+ ∆= −

Então, (*) acima é sastisfeita somente se 12 1( )oI W KS W −

∞+ ∆ ∈RH . E pelo teorema do pequeno ganho esta última é verdade para todo ∞∆∈RH com

1∞

∆ < se só se 2 1 1oW KS W∞≤ , concluindo a prova. •

Incertezas multiplicativas:

Page 80: Notas de aula 1.pdf

80

Suporemos agora que Π= 1 2( ) :I W W P ∞+ ∆ ∆∈ HR , (10)

conforme a figura 10*, onde 1 2, , W W ∞∆∈RH , observando-se que estamos tratando do problema da estabilidade e portanto podemos ignorar os sinais exógenos da figura.

Teorema: (11) Seja Π definido em (10) e seja K um controlador estabilizador para a planta nominal P. Então (i) o sistema em malha fechada é bem posto e internamente estável para todo

∞∆∈ HR com ∞

∆ < 1 se só se 2 1 1oW T W∞≤ ;

(ii) o sistema em malha fechada é bem posto e internamente estável para todo ∞∆∈ HR com

∞∆ ≤ 1 se 2 1 1oW T W

∞< ;

(iii) a estabilidade robusta do sistema em malha fechada com ∞

∆ ≤ 1 não implica

necessariamente que 2 1 1oW T W∞< ;

(iv) o sistema em malha fechada é bem posto e internamente estável para todo ∞∆∈ HR com

∞∆ ≤ 1 somente se 2 1 1oW T W

∞≤ ;

(v) se nem P nem K tiverem pólo no eixo imaginário, então o sistema em malha fichada é internamente estável para todo ∞∆∈ HR com

∞∆ ≤ 1 se só se 2 1 1oW T W

∞< .

Prova: ver ZDG, pp. 223s.

r K P

zw

md

d

d

y

e

2W

_

1W

dW

eW

Figura 10*

Page 81: Notas de aula 1.pdf

81

Observação: É digna de nota a falta de simetria entre (i) e (ii), isto é, enquanto que (i) é condição necessária e suficiente, (ii) é condição suficiente apenas; observe-se que a condição (iv) é mais fraca do que a condição de necessidade da condição . E caso a planta e o controlador não tenham polo no eixo imaginário, então retomamos a necessidade da condição que esperaríamos em (ii). Exemplo: (12)

Seja 1( )P ss

= , K = 1, 1 2 1W W= = .

Solução: Diante dos valores iguais a 1 acima, temos de (i) do teorema: ∞

∆ < 1 se só se

1oT∞≤ . Ora,

1/ 11 1 1/ 1o

PK sTPK s s

= = =+ + +

.

Donde oT∞

= 2

1 1sup sup 11 1jω ωω ω

= =+ +

, satisfazendo á condição (i) do teorema.

Observe-se que não é trivial chegar a esta conclusão utilizando o polinômio característico do SMF. Com efeito, se forem ( ) e (s)N s D∆ ∆ o numerador e denominador de ( )s∆ numa fatoração coprima, o polinômio característico do SMF será

(s)+ ( ) (s)sD N s D∆ ∆ ∆+ . E daí? Incertezas nos fatores coprimos Consideramos agora que os numeradores e denominadores coprimos são perturbados de acordo com

1 1( ) ( )M NP M MN N− −= + ∆ ∆→ + . Vamos agora demonstrar que o diagrama de blocos abaixo reproduz a expressão da planta perturbada, o que não é nada óbvio à primeira vista.

1 1 1 1

1 1 1 1( ) ( ) ( )M N N MM M M My Nz w Nz y z N z y− − − −∆ ∆ ∆ ∆= + = − + = + − 1 1 1 1

1 1( ) ( ) ( ) ( )M N M NM M M M MI y N z y N z− − − −∆ ∆ + ∆ ∆∴ + = + ∴ = +

K r

N

Figura 11

_

1z

w

N∆M∆

1M − y

_

Page 82: Notas de aula 1.pdf

82

11( ) ( )M NMy N z−+ ∆ ∆∴ = + , que é o que queríamos provar.

Teorema: (14) Seja 1( ) ( )M NM N−Π = + ∆ + ∆ , (15)

com , , ,M NM N ∞∆ ∆ ∈ HR . A planta nominal tem fatoração c.e. 1P M N−= e K

estabiliza internamente o SMF com a planta nominal. Definamos N M⎡ ⎤∆ = ∆ ∆⎣ ⎦ .

Então o SMF é bem posto e internamente estável para todo 1∞

∆ < se só se

1 1( ) 1K

I PK MI

− −

⎡ ⎤+ ≤⎢ ⎥

⎣ ⎦.

Prova: Seja o controlador com uma fatoração c.d. 1K UV −= sobre ∞RH . Sabemos que o SMF

é estável se só se ( ) 1( ) ( )N MN U M V

∞+ ∆ + + ∆ ∈RH . (*)

Mas como o controlador estabiliza por hipótese a planta nominal, temos 1)( MVNU −

∞+ ∈RH .

Ora, de (*) acima, temos 1)( N MNU MV U V −∞+ + ∆ + ∆ ∈RH

( )( ) 11( )( ) ( )N MI U V NU MV NU MV−

−∴ + ∆ + ∆ + + ∞∈RH

( ) 11( )( )N MI U V NU MV−−∴ + ∆ + ∆ + ∞∈RH ,

1

1( )N M

UI NU MV

V

−⎛ ⎞⎡ ⎤⎡ ⎤∴ + ∆ ∆ +⎜ ⎟⎢ ⎥⎣ ⎦ ⎣ ⎦⎝ ⎠ ∞∈RH .

Ora, de acordo com o teorema do pequeno ganho, a expressão anterior vale para todo

1∞

∆ < se só se 1( ) 1U

NU MVV

⎡ ⎤+ ≤⎢ ⎥

⎣ ⎦. (**)

Mas ( )( )11 1

1 1( )U

NU MVV

UVV M M NUV I V

I−

− −− −+

⎡ ⎤⎡ ⎤= +⎢ ⎥⎢ ⎥

⎣ ⎦ ⎣ ⎦= 11( ) M

KI PK

I−−⎡ ⎤

+⎢ ⎥⎣ ⎦

,

concluindo a prova, em vista de (**) acima.

E note-se que se 1∞

∆ ≤ , teremos 1 1( ) 1K

I PK MI

− −

+⎡ ⎤

<⎢ ⎥⎣ ⎦

. •

A tabela abaixo nos dá vários outros tipos de perturbações com os respectivos testes de estabilidade robusta. Na Tebela supomos, como já mencionado:

1 2, e , 1W W∞∞∆∈ ∆ <RH

Page 83: Notas de aula 1.pdf

83

Tipo de perturbação do Modelo Teste de estabilidade robusta 1 2( )I W W P+ ∆ 2 1 1oW T W

∞≤

1 2( )P I W W+ ∆ 2 1 1iW TW∞≤

11 2( )I W W P−+ ∆ 2 1 1oSW W

∞≤

11 2( )P I W W −+ ∆ 2 1 1iSW W

∞≤

1 2P W W+ ∆ 2 1 1oKW S W∞≤

11 2( )P I W W P −+ ∆ 2 1 1oS PW W

∞≤

1( ) ( )M NM N−+ ∆ + ∆ 1 1o

KS M

I−

⎡ ⎤≤⎢ ⎥

⎣ ⎦

1( )( )N MN M −+ ∆ + ∆ [ ]1 1iM S K I−

∞≤

Exemplo: (16) Seja o sistema cujas perturbações fazem variar o número de polos no semiplano fechado

da direita: 1 : 1,P

sδ δ δδ

⎧ ⎫= ∈ ≤⎨ ⎬−⎩ ⎭R . Vê-se que tanto 1

11

Ps

=−

como 21

1P

s=

+

são elementos de Pδ , um instável e o outro estável. Observe-se agora que o conjunto Pδ

satisfaz a 1: (1 ) : , 1P P Pδ−

∞∞⊂ = + ∆ ∆∈ ∆ ≤Π HR . Escolhemos como planta

nominal a que está no meio entre os dois extremos, ou seja, 1

Ps

= . Podemos usar o

sexto tipo de perturbações da tabela acima: com efeito, com 1 2 1W W= = , temos 1/ 1

1 1 /P s

P s s= =

+ ∆ + ∆ + ∆= Pδ com 1∆ < . E de acordo com a tabela, a condição de

estabilidade robusta é 1oS P∞≤ .

Mas 1/ 1

1 1 /oP s

SPK K s s K

P =+ + +

= = . Então a condição de estabilidade robusta é

11

s K ∞

≤+

.

Exemplo: (17) Considere o seguinte conjunto de plantas:

1( 1)( 2)

sPs s

α∆

+ +=

+ +, com 2α ≤ .

Solução: Vamos verificar que caímos no sétimo caso (ou oitavo, pois o sistema é escalar) da tabela acima com

1 2: , , 1( 1)( 2)

sPs s

δ δ δ∆ ∞∞⎧ ⎫+ +

⊂ = ∈ ≤⎨ ⎬+ +⎩ ⎭HRΠ . A planta nominal é

1( 1)( 2)

sP

s s+

=+ +

Page 84: Notas de aula 1.pdf

84

= 1

2s + .

Calculemos uma fatoração coprima sobre ∞RH de P. Isto é feito, por exemplo,

dividindo-se numerador e denominador de P por 2( 1)s + . Com isto, o numerador e

denominador são próprios e estáveis. Então, temos 1/ 1

( 2) /( 1)s

Ps s

+=

+ +; donde

21

sM Ms+

= =+

1 12

sMs

− +∴ =

+; ora,

1 21 2o

sSPK K s

+= =

+ + +1 1

2osS M

K s− +

∴ =+ +

.

E a condição de estabilidade é portanto 1 1

1 2K s

K s∞

⎡ ⎤ +≤⎢ ⎥ + +⎣ ⎦

.

Estabilidade robusta versus Desempenho nominal Um problema de estabilidade robusta pode ser visto como um problema de desempenho nominal. Por exemplo, o problema de estabilidade robusta com perturbação multiplicativa conforme a figura 10* pode ser tratado como um problema de rejeição de ruído como na figura 12, e vice versa.

O sistema da figura 10* é robustamente estável para

∞∆ < 1 se só se a norma em ∞H da

matriz de transferência entre w e z for menor ou igual a 1. Mas como zwT na figura 10* é igual a enT na figura 12, nós temos a equivalência. 4.4 Desempenho robusto com perturbações não estruturadas Considere o sistema da figura 13, o conjunto dos modelos perturbados sendo descritos por Π .

K P 2W

e

1W

n

_

Figura 12

Page 85: Notas de aula 1.pdf

85

Suponha que as matrizes de ponderação , edW W ∞∈RH e o objetivo do desempenho seja obter o erro e tão pequeno quanto possível para todos os modelos pertencentes ao conjunto Π . Em geral este conjunto pode ser ou parametrizado ou não estruturado. Conforme já vimos, dependendo do objetivo, deseja-se minimizar a norma em 1L , 2H , ou ∞H . Nesta seção serão focalizados os projetos em 2H e ∞H . Desempenho robusto em 2H

Seja ed

T a matriz de transferência entre e e d , reportando-nos à figura 13. Então, 1( )e ded

T W I P K W−∆= + , P∆ ∈Π . (14)

O problema do desempenho em 2H consiste em achar

2

sup edP

T∆∈Π

Exemplo: Suponha-se o sistema escalar com dW = 1, e sW w= , P = p e seja o modelo dado pela incerteza multiplicativa

(1 ) : , 1tw pδ δ δ∞∞= + ∈ <HRΠ .

Suponha que o sistema seja robustamente estabilizável por um controlador k. Então, da figura 13 com as notações quatro linhas acima, temos:

,se w y= 1

dy d P ky yP k∆∆

= − ∴ =+ 1 (1 )

s

t

we d

w pkδ∴ =

+ +, donde

1 (1 )s

edt

wT

w pkδ=

+ +

2sup edP

T∆∈Π

= 1sup1 (1 )

s

t

ww pkδ δ≤

∞+ +

. (15)

A análise exata do problema multivariável (matricial) é difícil, mas podem-se obter majorantes, como faremos para o problema no ∞H . Entretanto os majorantes no presente

r K P∆ ∈Π

dW

d

d

eW e

y _

Figura 13

Page 86: Notas de aula 1.pdf

86

caso dão pouca intuição sobre o problema e por isso esta abordagem do problema será omitida. Desempenho robusto em ∞H com incerteza multiplicativa Suponha que o objetivo seja obter o erro menor possível em termos de “energia”, qualquer que seja o distúrbio d com energia nunca maior que 1. (É claro que postular a energia menor ou igual a 1 para o distúrbio não torna o problema menos geral, bastando definir convenientemente a unidade de energia. O mesmo pode ser obtido escolhendo eW conveniente). Ou seja, queremos

2

21

supd

e ε≤

≤ ,

sendo ε convenientemente pequeno. Usando fator de escala, podemos supor 1ε = Portanto o problema é resolvido se

1,edT P∆∞≤ ∀ ∈Π . (16)

O modelo perturbado pode ser descrito por 1 2: ( ) : , 1I W W P

∞∞= + ∆ ∆∈ ∆ <HRΠ , (17)

com 1 2,W W ∞∈ HR . Reportando-nos à figura 10*, temos

11 2( )e o o ded

T W S I W W T W−= + ∆ . (17*)

Mas 1 2 2 1det( ) det( )o oI W W T I W T W+ ∆ = + ∆ . Consequentemente, o desempenho robusto será satisfeito, de acordo com o teorema do pequeno ganho, se só se

2 1 1oW T W ≤ e , 1∞ ∞∀∆∈ ∆ <RH . (18)

A análise exata deste problema será dada mais adiante. Entretanto podem ser obtidas de modo razoavelmente fácil algumas condições suficientes, como veremos a seguir, condições que lançam alguma luz sobre a natureza deste problema. Suporemos no que se segue, como usual, que o controlador K estabiliza a planta nominal P. Recorda-se que o número condicionante (= de condicionamento) de uma matriz, representado por ( )κ ⋅ , é a relação entre o maior e menor valor singular da matriz, recordando-se que o primeiro é a norma-∞ da matriz e o segundo é a norma da inversa da matriz. Ou seja, 1( ) A AAκ −= . Quando ( ) 1Aκ ≈ , a matriz A é dita bem condicionada; se

( ) 1Aκ ela é mal condicionada. Observe-se que temos sempre ( ) 1Aκ ≥ ; com efeito, 1( ) A AAκ −= ≥ 1 1AA− = .

Reportamo-nos novamente à figura (10*) que repetimos para na leitura :

Page 87: Notas de aula 1.pdf

87

Teorema (19) Suponha que 1 2( ) : , 1P I W W P∆ ∞∞∈ + ∆ ∆∈ ∆ <HR e que K estabilize

internamente a planta nominal P, ou seja, estabilize internamente a malha com a planta nominal P. Então obtem-se desempenho robusto se uma das condições seguintes for satisfeita: (i) para cada frequência ω , 1 2( ) ( ) ( ) ( ) 1d e o oW W S W W Tσ σ σ σ+ ≤ (20)

(ii) para cada frequência ω , 11 2 1( ) ( ) ( ) 1d e o d oW W W S W W T Wκ σ σ− + ≤ , (21)

onde 1 e dW W são supostas não singulares. Prova: Tanto a condição (20) como a (21) garantem que 2 1 1oW T W ≤ . Com efeito, em (21) isto

é imediato, lembrando que 2 1 2 1( )o oW T W W T Wσ= e que a parcela à esquerda de

2 1( )oW T Wσ é positiva; em (20) tenha-se em vista que 2 1 1 2( ) ( ) ( )o oW T W W W Tσ σ σ≤ e que a parcela à esquerda de 1 2( ) ( )oW W Tσ σ é positiva.

O desempenho robusto é equivalente a: 2

1, , 1edT∞∞≤ ∀∆∈ ∆ <HR .

Ora, para cada ω , temos de (17*) 1

1 2( )e o o dedT W S I W W T W−= + ∆ ,

e portanto,

r K P

zw

md

d

d

y

e

2W

_

1W

dW

eW

Figura 10* bis

Page 88: Notas de aula 1.pdf

88

11 2( ) ( ) ( ) ( )e o o ded

T W S I W W T Wσ σ σ σ−⎡ ⎤≤ + ∆⎣ ⎦ 1 2

( ) ( )( )

e o d

o

W S WI W W T

σ σσ

=+ ∆

1 2

( ) ( )1 ( )

e o d

o

W S WW W T

σ σσ

≤− ∆

1 2

( ) ( )1 ( ) ( ) ( )

e o d

o

W S WW W T

σ σσ σ σ

≤− ∆

. (22)

Portanto a condição (20), isto é, 1 2( ) ( ) ( ) ( ) 1d e o oW W S W W Tσ σ σ σ+ ≤ , ou seja,

1 2( ) ( ) 1 ( ) ( )d e o oW W S W W Tσ σ σ σ≤ − , garante

( ) 1, , 1edTσ∞∞≤ ∀∆∈ ∆ <RH para cada frequência.

Por outro lado, podemos escrever 1 1 1 1

2 1 1 1 2 1 11 1

1 ( ) ( )( )e o d d o d e o o dW S W W I W T W W W W S W I W T W W WW − − − −− − + ∆ + ∆=

= 1 1 11 2 1 1 1 2( ) ( )d de o o e o oW WW S I W W T WW W S I W W T− − −+ ∆ = + ∆

= edT , de acordo com (17*).

Ou seja, 1 12 1 1

1 11 ( )( ) de o od ded WT W S W W I W T W WW − −− − + ∆=

donde, ( )1

1

2

( ) ( )1 ( ) ( )

e o d d

oed

W S W W WTW T W

σ κσσ σ

≤− ∆

. (*)

Mas da condição (21), temos imediatamente 1

1 2 1( ) ( ) 1 ( )d e o d oW W W S W W T Wκ σ σ− ≤ − ,

donde 1

1

2 1

( ) ( ) 11 ( )

d e o d

o

W W W S WW T W

κ σσ

≤−

, e com mais forte razão,

11

2 1

( ) ( ) 11 ( ) ( )

d e o d

o

W W W S WW T W

κ σσ σ

≤− ∆

. Comparando esta com (*) acima, concluimos

( ) 1, , 1ed

Tσ∞∞≤ ∀∆∈ ∆ <HR , para cada frequência. •

Observação (23) Pode-se provar que as condições do teorema são necessárias se o sistema for escalar. Observação: (24) Em vista da equivalência, verificada antes, entre estabilidade robusta e desempenho nominal, é razoável conjecturar que o problema de desempenho robusto é equivalente ao problema de estabilidade robusta na figura 10*, com o modelo de incerteza dado por

121: ( ) ( ) , 1, 1d e e eI W W I W W P−

∞∞= + ∆ + ∆ ∆ < ∆ <Π ,

tal como na figura 14.

Page 89: Notas de aula 1.pdf

89

Observação: (25) Suponha que 1W e dW tenham inversas. Então temos

( ) 11 1 11 2 1 1( ) ( )e o d d o dW S W I W W W T W W W

−− − −+ ∆ (25*)

= ( ) 11 1 1 1 11 1 1 2 1( ) ( )e o d d d d oW S W W W W W W W W T W

−− − − − −+ ∆

( ) 11 11 1 1 2 1e o od dW S W W W W W W T W

−− −= + ∆

= ( ) 11 11 1 21 ( )e o odW S W W W W W TI

−− − + ∆ = 11 2( )e o o dW S I W W T W−+ ∆

= ed

T , de acordo com (17*).

Consequentemente, em vista de (25*), uma alternativa para condição suficiente de desempenho robusto é

11 2 1( ) ( ) ( ) 1e o d d oW S W W W W T Wσ κ σ−+ ≤ .

Número condicionante da planta e especificações diferentes Consideremos agora o caso em que a incerteza e o desempenho não são medidos no mesmo ponto. Concretamente, supomos agora, por exemplo, que o desempenho é ainda medido pela sensibilidade da resposta, mas a incerteza do modelo é em termos da forma multiplicativa da entrada, isto é,

1 2: ( ) : , 1P I W W∞∞= + ∆ ∆∈ ∆ <HRΠ .

O diagrama de blocos correspondente é mostrado na figura 15 abaixo.

r K

zw

2W∆

_

1W

dW

eW

Figura 14

P

2W dW

e∆

e

d

Page 90: Notas de aula 1.pdf

90

Para esta posição do problema, vimos que: a condição de estabilidade robusta é 2 1 1iW TW

∞≤ .

e a condição de desempenho nominal é 1e o dW S W∞≤ .

Vamos calcular a matriz de transferência de d a e: Seja y a entrada de eW e seja u a saída de K. Então, temos

1 2 1 2( ) ( )d dy W d P u W W u W d P I W W u Ky= + + ∆ = − + ∆

1 21( ) dy I PK PW W K W d−= + + ∆ ;

mas ( )11 2 1 2 ( ) ( )I PK PW W K I PW W K I PK I PK−+ + ∆ = + ∆ + + , donde

( )11 2 1 2

11 1( ) ( ) ( )d o o dy I PK I PW W K I PK W d S I PW W KS W d− −− −= + + ∆ + = + ∆ , donde 1

1 2( )e o o dedT W S I PW W KS W−= + ∆ . (25**)

Suponha agora que 1, e dW W P tenham inversas. Então, temos

( ) ( )1 1

1 2 1 2( )e o d o d d e o d d o d dedT W S W I PW W KS W W W S W W PW W KS W W− −= + ∆ = + ∆

= ( ) ( )1 1

1 2 1 21 1( )e o d d o d e o d o dd dW S W W W PW W KS W W S W I W PW W KS W

− −− −+ ∆ + ∆=

= ( ) 1

1 21 1( ) )e o d ddW S W I W PW W K I PK W

−− −+ ∆ +

= ( ) 1

1 21 1 1( ) )e o d ddW S W I W PW W K I PK WPP

−− − −+ ∆ +

= ( ) 1

1 21 1 1( ) )e o d ddW S W I W PW W KP I KP WP

−− − −+ ∆ +

= ( ) 111 2

1 11 1 )e o d dd iW S W I W PW W TWW P W

−−− −+ ∆ , donde

( ) 112

1 11 1 1( ) ( ))(e o d ded d iT W S W I W PW W TW W PW

−−− −+ ∆= . (25***)

Se, alem disso, 2W também tiver inversa, pode-se demonstrar que

K

2W ∆

1W

P

dW

eW e

_

d w z

Figura 15

Page 91: Notas de aula 1.pdf

91

( ) 11 1 1 11 2 2 1 1

1 11 1 2( ) ( ) ( ) ( ))(e o d oed d dW W WT W S W W I W PW W P W W T W

−− − − −− −+ ∆= . (25#) Baseados nestes resultados, temos Teorema (26a) Seja 1 2( ) : , 1P P I W W∆ ∞∞∈ = + ∆ ∆∈ ∆ <HRΠ com K estabilizando internamente

o sistema nominal. Suponha que 1 2, , e dP W W W sejam quadradas e inversíveis. Então obtemos desempenho robusto se uma das seguintes condições for satisfeita (i) para cada frequência ω , 1

1 2 1( ) ( ) ( ) 1e o d d iW S W W PW W TWσ κ σ−+ ≤ , (26b) (ii) para cada frequência ω ,

1 1 1 11 1 1 2 2 2 1( ) ( ) ( ) ( ) ( ) 1d e o d oW W W S W W PW W P W W T Wκ σ σ σ σ− − − −+ ≤ . (26c)

Prova: (i) vem de (25***) e (ii) vem de (25#). • Observação: (27) Se as hipóteses de inversibilidade das matrizes não forem satisfeitas, obtem-se pelo mesmo tipo de raciocinio, usando (25**), isto é, 1

1 2( )e o o dedT W S I PW W KS W−= + ∆ , a

seguinte condição suficiente alternativa: 1 2( ) ( ) ( ) ( ) 1d e o oW W S PW W KSσ σ σ σ+ ≤ . (28)

Observação: (29) É importante notar que enquanto a condição de estabilidade robusta é dada em função de

iL KP= , a condição para o desempenho nominal é dado em função de oL PK= . Esta classe de problemas é dita “skewed” (“torta”). Como em geral PK KP≠ , a margem para estabilidade robusta na entrada da planta é em geral diferente daquela na saída da planta. Observação: (29*) Se o modelo nominal ponderado for mal condicionado no espectro de frequências considerado, então as condições de desempenho robusto podem ser bem mais restritivas do que aquelas de estabilidade e desempenho nominais. Assim, por exemplo, se

1 2, e d tW I W I W w I= = = , onde tw ∞∈ HR é uma função escalar, a condição (26b), isto é, 1

1 2 1( ) ( ) ( ) 1e o d d iW S W W PW W TWσ κ σ−+ ≤ , se torna ( ) ( ) ( ) 1, e o t oW S P wTσ κ σ ω+ ≤ ∀ . Comparando este resultado com os obtidos para os problemas “non-skewed”, vemos que a condição para estabilidade, isto é, a desigualdade acima fica dificil de ser satisteita se

( )Pκ for grande. Este problema será discutido com mais detalhe no capitulo seis. Observação: (30) Se K tiver inversa, temos de (25**), que repetimos:

11 2( )e o o ded

T W S I PW W KS W−= + ∆ = ( ) 11 11 2( )e o o o dW S S K PW W KS W

−− − + ∆

= ( ) 11 1 11 2e o dW K S K PW W W

−− − − + ∆ = ( ) 11 1 11 2( )e o o dW K S K I KS PW W W

−− − − + ∆

Page 92: Notas de aula 1.pdf

92

= ( ) 111 2e o o dW K I KS PW W KS W−− + ∆ = ( ) 11

1 21( )e o dW K I K I PK PW W KS W

−− −+ + ∆

= ( ) 111 2

1( )e o dW K I I KP KPW W KS W−− −+ + ∆ = ( ) 11

1 2e o diW K I TW W KS W−− + ∆

= ( ) 111 2

1( )e diW K I TW W K I PK W−− −+ ∆ + = ( ) 111 2

1( )e diW K I TW W I KP KW−− −+ ∆ + . Donde, finalmente,

1 11 2( )e i i dedT W K I TW W S KW− −= + ∆ . (30*)

Suponha que 2, , e d sW I W w I W I= = = , onde sw ∞∈ HR é uma função escalar. Então obtemos da expressão acima

1 11( )i ied sT K I TW w S K− −= + ∆ , donde 1( ) ( ) ( ) 1i s iK S w TWκ σ σ+ ≤ , para todo ω .

E vemos que a desiguladade não será satisfeita se o número condicionante do controlador for grande, ou seja, se ele for mal condicionado. O fato de o número condicionante ter aparecido no teste de desempenho robusto em problemas “skewed” tem outra interpretação, considerando dois conjuntos de plantas como na figura 16 abaixo: A do lado esquerdo: 1 : ( ) : , 1tP I w

∞∞= + ∆ ∆∈ ∆ <HRΠ ,

e a do lado direito: 2 : ( ) : , 1tI w P∞∞= + ∆ ∆∈ ∆ <HRΠ , onde e t tw w ∞∈ HR , de

resto qualquer.

Se P tiver inversa, temos

2 1⊇Π Π se ( )t tw w Pκ≥ ω∀ . Com efeito,

( )tP I w+ ∆ = 1 1( ) ( )t tP I w P P I w P P P− −+ ∆ = + ∆ , donde 1( ) ( )t tP I w I w P P P−+ ∆ = + ∆ .

Como dito antes, o número de condicionamento pode crescer bastante com a frequência ω . A título de ilustração, temos o seguinte problema típico do ponto de vista industrial.

tw ∆

PP

tw ∆

Figura 16

Page 93: Notas de aula 1.pdf

93

= ( 1)( 0,07)1

0,05 ( 1)( 0,13)( )s s s

s sa s+ +⎡ ⎤

⎢ ⎥− + +⎣ ⎦,

onde ( ) ( 1)( 0,1707)( 0,02929)a s s s s= + + + Na figura 17 temos o número de condicionamento para esta planta.

Figura 17 Vemos que para frequências altas o número de condicionament o torna-se alto. O problema “skewed” tem reconhecidamente solução mais complicada que o outro, mas faz sentido em vários problemas. Considere, por exemplo, o caso em que

( )wz

G se d

⎡ ⎤⎡ ⎤= ⎢ ⎥⎢ ⎥

⎣ ⎦ ⎣ ⎦, onde 2 2

1

1( ) i o d

e o e o d

W TW W KS WG s

W S PW W S W− −

=⎡ ⎤⎢ ⎥⎣ ⎦

, (30**)

ou seja, 2 2

1

11( )

( ) o d

e o e o d

W W W KS WG s

W S PW W S WI KP KP−− −

=⎡ ⎤+⎢ ⎥⎣ ⎦

= 2 2

1

1 o d

e o e o d

oW W W KS WW S PW W S W

KS P− −⎡ ⎤⎢ ⎥⎣ ⎦

0, 2 0,1 1 0 10,05 0 0 0 0,7

( ) 0 0 1 1 01 0 0 0 00 1 0 0 0

P s

⎡ ⎤⎢ ⎥−⎢ ⎥⎢ ⎥= −⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦

Page 94: Notas de aula 1.pdf

94

= 2 10 00 0

o o

o oe d

KS P KSS P S

W WW W

−⎡ ⎤ ⎡ ⎤⎡ ⎤⎢ ⎥ ⎢ ⎥⎢ ⎥

⎣ ⎦⎣ ⎦ ⎣ ⎦= [ ]2 10 0

0 0oe d

SW WK

P IW WI

−⎡ ⎤ ⎡ ⎤⎡ ⎤⎢ ⎥ ⎢ ⎥⎢ ⎥

⎣ ⎦⎣ ⎦ ⎣ ⎦

= [ ]2 110 0( )

0 0e d

W WKI PK P I

W WI−−⎡ ⎤ ⎡ ⎤⎡ ⎤

+⎢ ⎥ ⎢ ⎥⎢ ⎥⎣ ⎦⎣ ⎦ ⎣ ⎦

.

Objetivo comum num projeto é fazer ( )G s∞

pequeno. Em vista de (30**), vemos que

isto implica em fazer , , e i o o oT KS S P S pequenos na faixa mais relevante de frequências. E da última expressão, vê-se que PK deve ser grande. 4.5 Margens de ganho e de fase As margens de ganho e de fase são parâmetros muito populares entre os “práticos”. E, efetivamente, são bastante úteis na grande maioria dos problemas escalares. Entretanto, como veremos num exemplo, elas constituem um conjunto de parâmetros menos que satisfatórios, mesmo em sistemas escalares, para julgar da robustez da estabilidade de um sistema. Considere a figura 18, com função de transferência escalar.

Suponha que o sistema nominal 0 ( )L s seja estável. Margem de ganho: Diz-se que o SMF acima tem margem de ganho min max[ , ]k k se o SMF for estável para todo 0( ) ( )L s kL s= , com min maxk k k< < , mas instável com

max 0( ) ( )L s k L s= e com min 0( ) ( )L s k L s= , onde min0 1k≤ ≤ e max 1k ≥ . Margem de fase: O SMF tem margem de fase min max[ , ]φ φ se ele for estável para todo

0( ) ( )jL s e L sφ−= com min maxφ φ φ< < , mas instável se max0( ) ( )jL s e L sφ−= ou se

min0( ) ( )jL s e L sφ−= , onde min 0π φ− ≤ ≤ e max0 φ π≤ ≤ .

Estas margens de estabilidade nos são dadas diretamente do digrama de Nyquist do sistema em malha aberta, como indicado na figura 19.

( )L s

_

Figura 18

Page 95: Notas de aula 1.pdf

95

Figura 19 Na figura da esquerda, max min e k k indicam quanto o ganho pode ser aumentado e diminuído, respectivamente, sem provocar instabilidade da malha. E na figura da direita max min e φ φ representam quanto o atraso de fase, e o avanço de fase, respectivamente, podem ser tolerados sem produzir instabilidade. Entretanto, como veremos agora, as margens de ganho e de fase podem não ser um indicador suficiente da robustez de um sistema. Considere-se o sistema muito simples

( )1

a sP sas−

=−

, a > 1, com um controlador ( )1

b sK ss+

=+

, b > 0.

O polinômio característico do SMF é 2( 1)( 1) ( )( ) ( 1) (2 1) 1as s a s b s a s a b s ab− + + − + = − + − − + − .

Para que este polinômio seja Hurwitz é necessário e suficiente que 1 0, 2 1 0 e 1 0a a b ab− > − − > − > .

Da primeira desigualdade, temos 1a > e desta com a 3ª. temos 0b > . Para achar a margem de ganho, calcula-se o módulo de L, e iguala-se a 1, isto é,

0( ) ( ) 1L j kL jω ω= = , deteminando os valores máximo e mínimo em função de k . Para o cálculo da margem de fase, achar os φω tais que

0Fase( ( )) Fase( ( ))L j L jω φ ω π= − + = , e daí calculo as fases correspondentes aos dois valores de φω que maximizam e minimizam a fase, respectivamenmte. Se houver mais de um valor da frequência que maximize / minimize o ganho ou a fase, toma-se o menor, se se trata de máximo, e o maior, se se trata de mínimo: reportar-se à figura acima. Consideraremos três casos:

Page 96: Notas de aula 1.pdf

96

(i) b = 1. Neste caso, temos imediatamente 0K = 1 e 0 ( )1

a sL sas−

=−

, portanto,

( )( )1

k a sL sas−

=−

. Donde 2 2

( ) ( )( 1 )( )1 1

k a j k a j jaL jja a

ω ω ωωω ω− − − −

= =− +

=2 2

2 2

( ( ))1

k a a j aaω ω ω

ω− − + − +

+

2 2 2 2 2 2 2 22

2 2 2 2 2 2

(1 ) (1 )( ) 1( 1) ( 1)

k a k aL ja a

ω ωωω ω+ −

∴ = + =+ +

2 2 2 4 2 2 2 4 4 4 2 2(1 2 ) (1 2 ) 2 1k a k a a a aω ω ω ω ω∴ + + + − + = + + 4 4 2 2

22 2 4 2 2 4

2 1(1 2 ) (1 2 )

a aka a a

ω ωω ω ω

+ +∴ =

+ + + − +=

4 4 2 2

2 4 4 2 2

2 1( 1)

a aa a a

ω ωω ω

+ ++ + +

. (*)

Ora, as frequências que maximizam / minimizam k, são as mesmas que maximizam / minimizam 2k . Então, para achar estes valores das frequências, vamos calcular

2 4 3 2 2 4 4 2 2 4 4 2 2 2 3 4

2 4 4 2 2 2

(4 4 )( ( 1) ) ( 2 1)(4 2( 1) )( ( 1) )

dk a a a a a a a a ad a a a

ω ω ω ω ω ω ω ωω ω ω

+ + + + − + + + +=

+ + + = 0, donde

4 2 2 2 4 4 2 2 4 4 2 2 2 2 44 ( )( ( 1) ) ( 2 1)2 (2 ( 1))a a a a a a a a aω ω ω ω ω ω ω ω+ + + + = + + + + ; vemos que ω = 0 é uma solução desta eq. Substituindo em (*), obtem-se o valor do ganho correspondente 1/k a= Eliminando-se ω , temos uma eq. do 6º. grau, biquadrada . Resolvida esta equação, teremos três raízes. Das 4 raizes, calculando-se, obtemos de acordo com ZDG, p. 239,

min max1 e k k aa

= = .

Para o cálculo da margem de fase, temos ( )( )

1

je a sL sas

φ− −=

−, donde

( )( )1

je a jL jja

φ ωωω

− −=

− ; obtemos, de acordo com ZDG,

2-1

min max 2

1 e sen :1

aa

φ π φ θ⎛ ⎞−

= − = =⎜ ⎟+⎝ ⎠.

Claro que tanto a margem de ganho como a de fase tornam-se muito altas quando a é grande;

(ii) 1 e b a b aa< < → . Neste caso, obtem-se de acordo com o livro,

min 2

1 1kab a

= → , 2maxk ab a= → , minφ π= − e max 0φ → .

Ou seja, neste caso temos margem de ganho muito grande e margem de fase arbitrariamente pequena.

(iii) 1 1 e b a ba a< < → . Neste caso, temos novamente de acordo com o livro,

min max min max1 1, 1, e 2k k abab

φ π φ θ= → = → = − → .

Page 97: Notas de aula 1.pdf

97

Obtemos neste caso margem de fase muito grande e margem de ganho arbitrariamente pequena. O ponto que se quis ilustrar com este exemplo é que às vezes as margens de ganho e de fase juntas não são suficientes para indicar a robustez de um sistema. Por exemplo, é possível construir um controlador (complicado) tal que

min max min max1 , , e k k aa

φ π φ θ< > = − > .

Neste sistema, pode-se conferir que o diagrama de Nyquist se aproxima arbitrariamente do ponto (-1; 0). Um controlador que dá estes valores é

2

2

3,3 0,55 1,7 1,5 13,3 1 0,55 1 1,5 1,7s s s sK

s s s s+ + + +

=+ + + +

.

Pode-se verificar que este sistema tem pelo menos as mesmas margens de ganho e de fase que o sistema com controlador K = 1, mas o diagrama de Nyquist aproxima-se mais do ponto (-1; 0). Consquentemente este sistema é menos robusto quando o ganho e a fase são perturbados simultaneamente. 4.6 Deficiência do controle clássico para sistemas MIMO (Esta seção pode ser omitida) Nesta seção é mostrado, através de um exemplo, que a teoria de controle clássica pode não ser confiável quando aplicada a projeto de sistemas MIMO. Considere um massa inercial em forma cilindria, que gira em torno do seu eixo vertical, que denominaremos de eixo z. A “entrada” do sistema é constituída por dois “momenta” (torques) 1 2e T T aplicados nos eixos no plano horizontal, x e y , respectivamente. A velocidade angular do cilindro em torno do eixo z é constante e igual a Ω . Os momentos de inércia do cilindro com relação aos três eixos são 1 2 1 3, e I I I I= , respectivamente. Sejam 1 2e ω ω as velocidades angulares com relação aos eixos x e y , respectivamente. Então as eqs. de Euler são

1 1 2 1 3 1( )I I I Tω ω− Ω − = ,

1 2 1 3 1 2( )I I I Tω ω− Ω − = . Definamos

1 1 1

2 2 1

/:

/u T Iu T I⎡ ⎤ ⎡ ⎤

=⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦

, 3 1: (1 / )a I I= − Ω .

Obtemos as seguintes eqs. de estado do sistema: 1 1 1

2 2 2

00

uaua

ω ωω ω⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎡ ⎤

= +⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥−⎣ ⎦⎣ ⎦ ⎣ ⎦ ⎣ ⎦.

Suponha agora que 1 2 e ω ω sejam medidas em coordenadas tais que

1 1 1

2 2 2

cos sen 11sen cos 1cos

y ay a

ω ωθ θω ωθ θθ

⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤= =⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥− −⎣ ⎦ ⎣ ⎦⎣ ⎦ ⎣ ⎦ ⎣ ⎦

.

Page 98: Notas de aula 1.pdf

98

Definindo 1

2

uu

u⎡ ⎤

= ⎢ ⎥⎣ ⎦

e 1

2

yY

y⎡ ⎤

= ⎢ ⎥⎣ ⎦

,

obtemos a equação em função da matriz de transferência

( ) ( ) ( )Y s P s u s= , com 2 2

2 2 2

( 1)1( )( 10

s a a sP s

s a a s s a⎡ ⎤− +

= ⎢ ⎥+ − + −⎣ ⎦.

suponhamos que a lei de controle seja 1u K r y= − ,

onde

1 2

1111a

Kaa

−⎡ ⎤= ⎢ ⎥+ ⎣ ⎦

. r

A matriz de transferência do sistema acima é dada por

1 01( ) ( )0 11

Y s R ss

⎡ ⎤= ⎢ ⎥+ ⎣ ⎦

.

As matrizes de sensibilidade e de sensibilidade complementar são dadas por 1 1( )

1s a

S I Pa ss

− −⎡ ⎤= + = ⎢ ⎥+ ⎣ ⎦

e 1 11( )11a

T P I Pas

− ⎡ ⎤= + ⎢ ⎥−+ ⎣ ⎦

.

Como vemos, este controle desaclopa as malhas, cada malha aberta tendo função de transferência 1/s . Pode-se verificar que cada malha tem margem de fase dada por 0

max min 90φ φ= − = e margem de ganho min max0 e k k= = ∞ . Suponha agora que uma das malhas é perturbada de acordo com a figura 22:

P 1K

_

y u

rr

Figura 21

Page 99: Notas de aula 1.pdf

99

Figura 22

Definamos 11( ) 1( ) 1

z s Tw s s

= − = −+

.

É claro que a máxima perturbação será: 11

1 1T

δ∞

< = , que é independente de a .

Por simetria, esta é também a máxima perturbação permitida na outra malha. Veremos agora que se ambas as malhas forem perturbadas simultaneamente a perturbação máxima permitida é muito menor, como mostrado abaixo. Considere uma perturbação multivariável, mostrada na figura 23:

Figura 23

Temos ( )P I P∆ = + ∆ , sendo 11 12

21 22

δ δδ δ ∞⎡ ⎤

∆ = ∈⎢ ⎥⎣ ⎦

HR .

Page 100: Notas de aula 1.pdf

100

Então, de acordo com o teorema do pequeno ganho, o sistema é robustamente estável para todo γ

∞∆ < se só se

2

1 11T a

γ∞

≤ =+

, o qual será muito menor que 1 se a for muito maior que 1.

Considere o caso particular 11

22

00d

δδ

⎡ ⎤∆ = ∆ = ⎢ ⎥

⎣ ⎦.

Neste caso, o sistema em malha fechada é estável para todo γ∞

∆ < se só se

2 211 22 11 22 11 222

1det( ) ( (2 ) 1 (1 ) )( 1)dI T s s as

δ δ δ δ δ δ+ ∆ = + + + + + + + ++

não tiver zero no

semiplano fechado da direita. Portanto, a região de estabilidade é dada por

11 222 0δ δ+ + > , 2

11 22 11 221 (1 ) 0aδ δ δ δ+ + + + > .

É fácil verificar que o sistema é instável se 11 22 2

11 a

δ δ= − =+

.

Isto mostra como no caso de sistemas multivariáveis o uso de métodos apropriados para sistemas escalares pode levar a resultados errados.