Otimização e metodos numericos(1)

Embed Size (px)

Citation preview

  • 7/23/2019 Otimizao e metodos numericos(1)

    1/262

    METODOS COMPUTACIONAIS

    DE OTIMIZACAO

    Jose Mario Martnez

    Sandra Augusta Santos

    Departamento de Matematica AplicadaIMECC-UNICAMP

    1995Atualizado em dezembro de 1998

  • 7/23/2019 Otimizao e metodos numericos(1)

    2/262

    INDICE

    1. INTRODUCAO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.1 UMA CLASSIFICACAO INFORMAL . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 UM PROBLEMA DE ESTIMACAO DE PARAMETROS ...... 31.3 DEFININDO MINIMIZADORES ............................... 7

    2. CONDICOES DE OTIMALIDADE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112.1 RESTRICOES EM FORMATO GERAL .. . . . . . . . . . . . . . . . . . . . . 122.2 RESTRICOES DE IGUALDADE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152.3 RESTRICOES DE DESIGUALDADE .. . . . . . . . . . . . . . . . . . . . . . . . 202.4 RESTRICOES DE IGUALDADE E DESIGUALDADE . . . . . . . 22

    3. CONVEXIDADE E DUALIDADE .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253.1 CONVEXIDADE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263.2 DUALIDADE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

    4. MINIMIZACAO DE QUADRATICAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374.1 QUADRATICAS SEM RESTRICOES . . . . . . . . . . . . . . . . . . . . . . . . 37

    4.1.1 USANDO FATORACOES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 414.1.2 O CASO ESPARSO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 444.1.3 METODOS ITERATIVOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

    4.2 QUADRATICAS EM BOLAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 544.3 QUADRATICAS EM CAIXAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 0

    5. SISTEMAS DE EQUACOES NAO-LINEARES . . . . . . . . . . . . . . . . . . . . 735.1 O METODO DE NEWTON . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 745.2 METO D O S Q U A S E- N EWTO N .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 765.3 METODOS DE NEWTON INEXATOS . . . . . . . . . . . . . . . . . . . . . . . 795.4 CONVERGE N C I A L O C A L . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 3

    5.4.1 O TEOREMA DAS DUAS VIZINHANCAS . . . . . . . . . . . . . 855.4.2 CONVERGENCIA QUADRATICA DE NEWTON . . . . . . 875.4.3 CONVERGENCIA DOS QUASE-NEWTON ............ 895.4.4 CONVERGENCIA DOS NEWTON INEXATOS . . . . . . . . 95

    6. MINIMIZACAO IRRESTRITA E BUSCA LINEAR . . . . . . . . . . . . . . . 99

    i

  • 7/23/2019 Otimizao e metodos numericos(1)

    3/262

    6.1 ALGORITMOS GERAIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 996.2 O METODO DE NEWTON . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1076.3 METO D O S Q U A S E- N EWTO N .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1126.4 METODOS DE NEWTON TRUNCADOS ................... 122

    7. REGIOES DE CONFIANCA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1257 . 1 A L G O R I T M O G E R A L . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 2 67.2 METODO DE NEWTON . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1277.3 MINIMIZACAO EM CAIXAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135

    8. MINIMIZACAO UNIDIMENSIONAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1458.1 METODOS DIRETOS PARA REDUCAO DE INCERTEZA . 1458.2 APROXIMACOES POLINOMIAIS . . . . . . . . . . . . . . . . . . . . . . . . . . 1488.3 TECNICAS DE MINIMIZACAO GLOBAL . . . . . . . . . . . . . . . . . . 152

    9. RESTRICOES LINEARES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155

    9.1 IGUALDADES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1569.2 ESTRATEGIA DE RESTRICOES ATIVAS . . . . . . . . . . . . . . . . . . 1589.3 SAINDO DA FACE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1619.4 REDUCAO A CAIXAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1639.5 PONTOS INTERIORES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166

    1 0 . P E N A L I D A D E . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 7 110.1 METODOS DE BARREIRAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17210.2 PENALIDADE EXTERNA .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17910.3 LAGRANGIANO AUMENTADO . . . . . . . . . . . . . . . . . . . . . . . . . . . 188

    11. GRADIENTE REDUZIDO GENERALIZADO ................... 19511.1 RESTRICOES DE IGUALDADE . . . . . . . . . . . . . . . . . . . . . . . . . . . 19611.2 GRG COM DESIGUALDADES ............................ 20011.3 IMPLEMENTACAO COMPUTACIONAL . . . . . . . . . . . . . . . . . . 202

    12. PROGRAMACAO QUADRATICA SEQUENCIAL .............. 20512.1 PROGRAMACAO QUADRATICA SEQUENCIAL PURA 20612.2 FORCANDO SOLUBILIDADE DO SUBPROBLEMA . . . . . . 20812.3 A FUNCAO DE ME R I T O . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1 012.4 DECRESCIMO SUFICIENTE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21312.5 O PARAMETRO DE PENALIDADE ....................... 21612.6 O ALGORITMO ESTA BEM DEFINIDO .. . . . . . . . . . . . . . . . . 219

    12.7 A PROVA DE CONVERGENCIA GLOBAL . . . . . . . . . . . . . . . . 223

    ii

  • 7/23/2019 Otimizao e metodos numericos(1)

    4/262

    12.8 A HESSIANA DA QUADRA T I C A . . . . . . . . . . . . . . . . . . . . . . . . . 2 2 612.9 OUTRAS FUNCOES DE MERITO . . . . . . . . . . . . . . . . . . . . . . . . . 22912.10 NOTAS HISTO R I C A S . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 3 3

    BIBLIOGRAFIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237

    iii

  • 7/23/2019 Otimizao e metodos numericos(1)

    5/262

    Chapter 1

    Introducao

    Otimizacao e um problema matematico com muitas aplicacoes no mundoreal. Consiste em encontrar os mnimos ou maximos de uma funcao devarias variaveis, com valores dentro de uma determinada regiao do espaco

    multi-dimensional. Os responsaveis pela tomada de decisoes nos mais vari-ados campos da atividade humana defrontam-se, cotidianamente, com essetipo de necessidade. As vezes, a ndole do problema, a demanda de re-sultados precisos, ou a propria curiosidade, leva a formalizar variaveis, re-stricoes e objetivos, de maneira que a natureza matematica do problemaemerge. Esse e o processo de modelagem, que descobre isomorfismos entrea realidade emprica e o idealismo dos objetos matematicos. No entanto,a correspondencia entre experiencia e modelo formal esta longe de ser per-feita: a traducao esta sujeita a erros, simplificacoes e falhas de comunicacao.Notavelmente, a problematica de adequar um modelo matematico a umasituacao real tambem pode ser formulada como um problema matematico,

    quase sempre de otimizacao.

    1.1 Uma classificacao informal

    O problema a ser considerado neste livro e o seguinte:

    Minimizar f(x) sujeita a x IRn. (1.1.1)

    A funcao f e chamada funcao objetivo e o conjunto , frequentementedefinido por um conjunto de igualdades e desigualdades, e o conjunto factvel.

    Os pontos de serao os pontos factveis de (1.1.1).

    1

  • 7/23/2019 Otimizao e metodos numericos(1)

    6/262

    2 CHAPTER 1. INTRODUC AO

    De fato, estamos tao interessados em minimizarcomo em maximizarfuncoes,mas falaremos apenas de minimizar dado que, claramente, maximizar f(x)em uma regiao qualquer do espaco IRn e equivalente a minimizar f(x) namesma regiao. As solucoes x do problema (1.1.1) serao chamadas min-imizadores e os valores correspondentes f(x) sao os mnimos do problema.

    Quase sempre assumiremos a continuidade de f e, com frequencia um p oucomenor, a existencia de derivadas primeiras contnuas. As vezes, vamos suportambem que f tem derivadas segundas contnuas.Conforme as caractersticas do conjunto , teremos os diferentes problemasde otimizacao:

    Problema

    IRn minimizacao sem restricoes{x IRn | l x u} minimizacao em caixas

    {x

    IRn

    |Ax = b, A

    IRm

    n

    }minimizacao com restricoes

    lineares de igualdade{x IRn | Ax = b,Cx d} minimizacao com restricoes

    lineares

    {x IRn | h(x) = 0, h : IRn IRm} minimizacao com restricoesde igualdade

    {x IRn | h(x) = 0, h : IRn Rm problema geral dee g(x) 0, g : IRn IRp} programacao nao linear

    Quando v e w sao vetores, a notacao v w significara sempre vi wi paratodas suas coordenadas. Assim, quando falamos da caixa l x u,entendemos o conjunto dos x

    IRn tais que li

    xi

    ui para todo i =

    1, . . . , n. O problema geral de programacao nao linear pode ser reduzidosempre a uma forma padrao mediante a introducao de variaveis de folga.Com efeito, observamos que o conjunto dos x IRn tais que h(x) = 0 eg(x) 0 coincide com o conjunto

    {x IRn | h(x) = 0 e g(x) + z = 0 para algum z 0}.Portanto, o problema

    Minimizar f(x) sujeita a h(x) = 0, g(x) 0, (1.1.2)onde h : IRn IRm, g : IRn IRp, e equivalente a

    Minimizar f(x) sujeita a h(x) = 0, g(x) + z = 0, z 0. (1.1.3)

  • 7/23/2019 Otimizao e metodos numericos(1)

    7/262

    1.2. UM PROBLEMA DE ESTIMAC AO DE PARAMETROS 3

    Agora, mudando os nomes de variaveis e funcoes, (1.1.3) tem a forma geral

    Minimizar f(x) sujeita a h(x) = 0, x 0. (1.1.4)

    A forma (1.1.4) de um problema de programacao nao linear se denomina

    forma padrao. Quando um problema do tip o (1.1.2) e transformado na suaforma padrao, o numero de variaveis e aumentado em p. As vezes, isso euma desvantagem. No entanto, a transformacao muitas vezes se justificapor consideracoes algortmicas, como veremos em captulos futuros.

    Neste livro a enfase estara colocada em funcoes objetivo f(x) nao lineares.Quando f e linear (f(x) = cTx para algum c IRn) o problema de min-imizacao com restricoes lineares e chamado de problema de programacaolinear. Na sua forma padrao, este problema e

    Minimizar cTxAx = bx

    0 .

    (1.1.5)

    O conteudo deste livro se aplica a programacao linear, embora, p ela especifi-cidade deste problema, muito desse conteudo seja superfluo. Por outro lado,as particularidades do problema (1.1.5) permitem um tratamento muito maisrico e detalhado, que nao sera feito aqui. Em menor medida, essa observacaovale tambem no caso em que a funcao objetivo e quadratica e as restricoeslineares, chamado problema de programacao quadratica.

    1.2 Um problema de estimacao de parametros

    Quando o ponto de partida e um problema real, podem existir varios prob-lemas matematicos de otimizacao associados, vinculados a diferentes for-mulacoes ou a diferentes tecnicas de resolucao. Nesta secao apresentamosum problema de estimacao de parametros originado na Otica, para o qualexibimos algumas formulacoes sob o ponto de vista da otimizacao. Ver [189],[33].

    Um filme e um material muito fino, cuja espessura, ndices de refracao e coe-ficientes de absorcao se deseja estimar. Esses parametros nao sao suscetveisde medicao direta, ou seja, devem ser inferidos da medicao de outra magni-tude fsica. O experimento que gera a medicao indireta consiste, brevemente,no seguinte: coloca-se o material em cima de um substrato transparente e

    atravessa-se filme e substrato com luz de diferentes comprimentos de onda.

  • 7/23/2019 Otimizao e metodos numericos(1)

    8/262

    4 CHAPTER 1. INTRODUC AO

    Para fixar ideias, esses comprimentos podem ir desde 800 ate 2000, com in-tervalos de 10, nas unidades adequadas. Para cada comprimento de onda ,mede-se a transmissao T() [0, 1], isto e, o quociente, adimensional, entrea luz que atravessa o filme e a luz emitida. Teoricamente, T() se relacionacom a espessura (d), o coeficiente de absorcao (()) e o ndice de refracao

    do filme (n()) atraves das seguintes formulas (por simplicidade, escrevemosT = T(), n = n(), = ()):

    T =Ax

    B Cx + Dx2 , (1.1.6)onde

    A = 16s(n2 + k2) (1.1.7)

    B = [(n + 1)2 + k2][(n + 1)(n + s2) + k2] (1.1.8)

    C = [(n2 1 + k2)(n2 s2 + k2) 2k2(s2 + 1)]2 cos

    k[2(n2

    s2 + k2) + (s2 + 1)(n2

    1 + k2)]2 sin (1.1.9)

    D = [(n 1)2 + k2][(n 1)(n s2) + k2] (1.1.10) = 4nd/, x = exp(d), k = /(4). (1.1.11)

    Nas formulas (1.1.6)(1.1.11) s e o ndice de refracao do substrato, supostoconhecido e constante para todo . O experimento fsico fornece uma tabelade dados onde a coluna da esquerda sao os comprimentos de onda i usados,desde 1 = 800 ate m = 121 = 2000, e a coluna da direita esta formadapelas medidas correspondentes de transmissao (Ti). As formulas (1.1.6)(1.1.11) definem a funcao teorica T(,d,n,). Portanto, a primeira vista,o objetivo parece ser encontrar d e ni, i, i = 1, . . . , m tais que, para todoi = 1, . . . , m,

    T(i, d , ni, i) = Ti. (1.1.12)

    Agora, para cada valor possvel da espessura d, a equacao (1.1.12) temduas incognitas, ni e i. Portanto, o mais provavel e que tenha infinitassolucoes e que, de fato, nao seja difcil encontrar p elo menos uma. Por ex-emplo, fixando arbitrariamente ni e resolvendo (1.1.12) para a agora unicaincognita i. Claro que esse nao pode ser o procedimento que resolva oproblema fsico. Fsicamente, o problema deve ter solucao unica, enquantoda maneira descrita, infinitas solucoes diferentes poderiam ser encontradas.De fato, os graus de liberdade inerentes a (1.1.12) sao drasticamente reduzi-dos incorporando informacoes fisicamente conhecidas, algumas obvias, sobre

    d, e n. Essas informacoes sao:

  • 7/23/2019 Otimizao e metodos numericos(1)

    9/262

    1.2. UM PROBLEMA DE ESTIMAC AO DE PARAMETROS 5

    (a) Tanto a espessura como os coeficientes ni e i sao positivos. Mais ainda,os ndices de refracao sao maiores ou iguais a 1.(b) () deve ser uma funcao decrescente e convexa (derivada segunda pos-itiva).(c) n() deve ser uma funcao decrescente e, tambem, com derivada segunda

    positiva.As condicoes (a), (b) e (c) devem ser traduzidas como restricoes do prob-lema de estimar os parametros. Ou seja, devem ser encontradas expressoesmatematicas envolvendo d, i e ni que espelhem essas condicoes. Discretizandoas derivadas segundas de () e n(), essas expressoes sao:

    d 0, ni 1, i 0 para todo i = 1, . . . , n; (1.1.13)

    i+1 i e ni+1 ni para todo i = 1, . . . , m 1; (1.1.14)

    ni ni1 + ni+1 ni1i+1 i1 (i i+1) e i i1 +

    i+1 i1i+1 i1 (i i+1)

    (1.1.15)para todo i = 2, . . . , m 2.Considerando o objetivo (1.1.12) e as restricoes (1.1.13), (1.1.14) e (1.1.15),o problema de estimacao dos parametros pode agora ser modelado assim:

    Minimizarmi=1

    [T(i, d , ni, i) Ti]2 sujeita a (1.1.13), (1.1.14) e (1.1.15).(1.1.16)

    Observamos que (1.1.16) e um problema de minimizacao com restricoes lin-eares onde ha 2m + 1 variaveis. Se a tabela de dados (i, Ti) obedecesseperfeitamente as formulas teoricas deveria existir uma solucao de (1.1.16)onde o valor da funcao objetivo seria 0. Com dados experimentais naoe isso o que acontece. De fato, o que se observa nesse caso, usando ometodo adequado para resolver (1.1.16) e a aparicao de solucoes ondea funcao objetivo toma um valor sensivelmente maior que 0. Isto se deve,alem dos erros de medicao que neste caso sao, provavelmente, desprezveis, aque a suposicao substrato transparente com s constante e essencialmentefalsa. Com efeito, para determinadas zonas do espectro (valores de ) o sub-strato usado tem um coeficiente de absorcao positivo (nao e transparente)e, portanto, para essas zonas as equacoes (1.1.6)-(1.1.11) nao se aplicam.

    Pior ainda, a distincao entre valores de para os quais o substrato nao e

  • 7/23/2019 Otimizao e metodos numericos(1)

    10/262

    6 CHAPTER 1. INTRODUC AO

    transparente daqueles para os quais e, nao e totalmente clara. O grau deaplicabilidade de (1.1.6)-(1.1.11) e de fato, um contnuo, variando entre aaplicabilidade e a nao aplicabilidade absoluta. Um experimento adicional,que mede a transmissao produzida apenas pelo substrato (sem o filme), per-mite quantificar o grau de aplicabilidade das f ormulas. Diremos, entao, que

    algumas equacoes (1.1.12) devem ser satisfeitas com um peso alto e outrascom um peso muito baixo. Atribuindo efetivamente um peso i > 0 a cadaequacao, de acordo com a transparencia do substrato para o comprimentode onda i, o problema (1.1.16) e substitudo por

    Minimizarmi=1

    i[T(i, d , ni, i)Ti]2 sujeita a (1.1.13), (1.1.14) e (1.1.15).(1.1.17)

    A atribuicao de pesos as diferentes linhas da tabela original tem o efeitopratico de eliminar a influencia dos pontos onde o modelo esta claramenteerrado. Isto aumenta os graus de liberdade do sistema total, e possibilita aexistencia de muitas solucoes de (1.1.17), onde a funcao objetivo tem prati-camente o mesmo valor. O metodo de otimizacao encontrou uma dessassolucoes. As vezes, pela observacao da solucao obtida, o fsico tem condicoesde decidir se ela e razoavel ou nao. Neste problema particular, nosso exper-imentador encontra uma caracterstica da funcao considerada indesejavele sem sentido fsico: apesar de ser decrescente e convexa, a funcao obtidaesta formada por 4 segmentos de reta, violando uma suavidade adicionalesperavel no coeficiente de absorcao real. Como os pontos de quebra dosdiferentes segmentos de reta podem ser considerados como pontos onde acurvatura da funcao e muito grande, optamos por limitar o raio de curvaturade e incluir explicitamente essa limitacao no modelo. O calculo elementarnos ensina que o raio de curvatura R() de () e dado por

    1

    R()=

    ()

    (1 + ()2)3

    2

    . (1.1.18)

    Discretizando e da forma usual, para todo i, i = 2, . . . , m 1, eestabelecendo uma limitacao > 0 para a curvatura obtemos as novasrestricoes

    (i)

    (1 + (i)2)3

    2

    , (1.1.19)

    onde as derivadas devem ser interpretadas como sua discretizacao usandoi1, i+1 e i.Acrescentando (1.1.19) no modelo (1.1.17) passamos a ter m

    2 restricoes

    adicionais, todas elas nao lineares. O problema ficou sensivelmente mais

  • 7/23/2019 Otimizao e metodos numericos(1)

    11/262

    1.3. DEFININDO MINIMIZADORES 7

    difcil, mas sua solucao tem maiores chances de possuir sentido fsico. Umaalternativa, motivada pelo fato de que, estritamente falando, a cota earbitraria, consiste em incorporar as restricoes (1.1.19) na funcao objetivo.Assim, a funcao objetivo de (1.1.17) passaria a ser

    mi=1

    i[T(i, d , ni, i) Ti]2 + m

    1

    i=2

    (i)(1 + (i)2)

    3

    2

    . (1.1.20)

    Em (1.1.20), e um parametro que castiga o fato de se ter uma curvaturagrande em i. Desta maneira, nao e necessario acrescentar as restricoes(1.1.19) no problema (1.1.17).A inclusao de (1.1.19) na sua forma original ou sob a forma (1.1.20) reduz,claramente, os graus de liberdade do problema e, em consequencia, aumentaa probabilidade de encontrar coeficientes com sentido fsico. Se isso e efeti-vamente conseguido depende de (muita) experimentacao numerica, dialogocom os cientistas experimentais e sensibilidade especfica. A construcao deum bom modelo de otimizacao raramente se esgota em dois ou tres passosde dialogo.

    1.3 Definindo minimizadores

    Daremos sentidos precisos aos termos minimizador e mnimo usados nassecoes anteriores. Basicamente, veremos que esses termos podem ter doissignificados:

    (a) Dizemos que x e minimizador global de (1.1.1) se f(x) f(x) paratodo x

    . Neste caso, f(x

    ) e chamado mnimo de f em .

    (b) Dizemos que x e minimizador local de (1.1.1) se existe > 0 tal quef(x) f(x) para todo x tal que x x .

    Tambem, costuma-se dizer que x e minimizador local estrito de (1.1.1) seexiste > 0 tal que f(x) < f(x) para todo x tal que 0 < x x .

    Claramente, todos os minimizadores globais tambem sao minimizadores lo-cais. E facil ver que, por outro lado, apesar de poder admitir muitos mini-mizadores globais, o valor do mnimo global e sempre o mesmo. Por exemplo,numa funcao constante, todos os pontos de sao minimizadores globais, mas

    em todos eles o valor de f e igual.

  • 7/23/2019 Otimizao e metodos numericos(1)

    12/262

    8 CHAPTER 1. INTRODUC AO

    Lembramos que um conjunto compacto e tal que toda sequencia {xk} admite uma subsequencia convergente. O limite dessa subsequencia devepertencer a . Por outro lado, em IRn, os conjuntos compactos sao ex-atamente os fechados e limitados. Como a imagem inversa de conjuntosfechados por funcoes contnuas e fechada, o conjunto factvel do problema

    geral de programacao linear e fechado no caso usual em que as funcoes gi ehi sao contnuas. Portanto, para ser compacto, esse conjunto precisa, ap e-nas, ser limitado. O seguinte teorema, de prova bastante simples, e o maisimportante da minimizacao global.

    Teorema 1.3.1 - Bolzano-Weierstrass

    Se e compacto, e f : IR e contnua, ent ao existe x minimizadorglobal do problema (1.1.1).

    Prova: Consideremos primeiro a possibilidade de que f nao seja limitadainferiormente em . Entao, para cada k N, existe xk tal que

    f(xk) k,

    portanto,

    limk

    f(xk) = . (1.1.21)

    Como e compacto, existe K1 um subconjunto infinito de N tal que asubsequencia {xk}kK1 converge a um ponto de , digamos x. Pela con-tinuidade de f, isto implica que

    limkK1

    f(xk) = f(x),

    o que entra em contradicao com (1.1.21).

    Podemos aceitar, portanto, que f e limitada inferiormente em . Seja

    = infx

    f(x) > .

    Pela definicao de nfimo, para todo k N, existe xk tal que

    f(xk) + 1k

    ,

    portanto

    limk f(xk) = .

  • 7/23/2019 Otimizao e metodos numericos(1)

    13/262

    1.3. DEFININDO MINIMIZADORES 9

    Seja {xk}kK1 uma subsequencia convergente de {xk} e seja x seu limite.Entao, pela continuidade de f,

    = limkK1

    f(xk) = f(x).

    Ou seja, f(x) assume o valor nfimo de f no conjunto . Isto implica quex e minimizador global de (1.1.1). QED

    Exerccio 1.1: As restricoes do problema (1.1.17) podem ser expressascomo Ax b, l x u. Identificar a matriz A e os vetores b, l e u.

    Exerccio 1.2: Encontrar exemplos onde todos os pontos de sao mini-mizadores locais mas f(x) = f(y) se x = y.

    Exerccio 1.3: Desenhar conjuntos em IR2 e curvas de nvel de funcoesf tais que existam varios minimizadores locais, globais, locais e globais, etc.

    Exerccio 1.4: Demonstrar o teorema Bolzano-Weierstrass para o caso emque f e semi-contnua inferiormente.

    Exerccio 1.5: Mostrar, com exemplos, que acontece quando as hipotesesde continuidade e compacidade do teorema Bolzano-Weierstrass sao elimi-nadas.

    Exerccio 1.6: Provar que se f e contnua em IRn e limx

    f(x) = entaof tem minimizador global em IRn.

    Exerccio 1.7: Provar que se f e contnua em IRn

    e, dado x0 IRn

    , o con-junto de nvel {x IRn | f(x) f(x0)} e limitado, entao f tem minimizadorglobal em IRn.

  • 7/23/2019 Otimizao e metodos numericos(1)

    14/262

    10 CHAPTER 1. INTRODUC AO

  • 7/23/2019 Otimizao e metodos numericos(1)

    15/262

  • 7/23/2019 Otimizao e metodos numericos(1)

    16/262

    12 CHAPTER 2. CONDIC OES DE OTIMALIDADE

    primeiras contnuas em um ab erto que contem o conjunto . Denotamos

    f(x) = f(x)T = ( fx1

    (x), . . . ,f

    xn(x))T.

    Indicamos, como e usual, f

    Ck() para expressar que f tem derivadas

    contnuas ate a ordem k no aberto que contem . A expressao f Ckindica que f tem derivadas contnuas ate a ordem k num aberto que contemo domnio nao especificado de f.A notacao A 0 para A IRnn indica que A e semidefinida positiva. Damesma forma, A > 0 significa que A e definida positiva.

    2.1 Restricoes em formato geral

    Consideremos o problema

    Minimizar f(x)x . (2.1.1)

    As curvas no conjunto desempenham um papel importante na derivacaode condicoes praticas de otimalidade. A primeira condicao de otimalidadeque obteremos esta baseada apenas no comportamento da funcao objetivoem cima de curvas factveis que passam pelo ponto considerado. Apesar desua generalidade, esta condicao de otimalidade e usada no desenvolvimentode algoritmos modernos de minimizacao (pontos limite desses algoritmossatisfazem a condicao). Ver [142], [144].

    Definicao 2.1.1Dado x , chamamos curva em partindo de x a uma funcao contnua : [0, ] tal que > 0 e (0) = x.

    Definicao 2.1.2Dado x , chamamos curva em de classe Ck partindo de x a umafuncao : [0, ] tal que > 0, (0) = x e Ck[0, ].

    Teorema 2.1.3 - Condicao necessaria de primeira ordem baseadaem curvasSeja x minimizador local de (2.1.1), e uma curva em de classe C1

    partindo de x

    . Entao

    f(x

    )T(0)

    0.

  • 7/23/2019 Otimizao e metodos numericos(1)

    17/262

  • 7/23/2019 Otimizao e metodos numericos(1)

    18/262

    14 CHAPTER 2. CONDIC OES DE OTIMALIDADE

    Dado x , dizemos que e uma curva em de classe Ck passando por xse : [, ] , > 0, (0) = x e Ck.

    Lema 2.1.8Se x

    e um minimizador local de (2.1.1) e e uma curva em de

    classe C1 passando por x, entao f(x)T(0) = 0.Prova: Definimos 1 : [0, ] por 1(t) = (t) e 2 : [0, ] por2(t) = (t). Pelo Teorema 2.1.3,

    f(x)T1(0) 0 e f(x)T2(0) 0.

    Mas 1(0) = (0) e 2(0) = (0), logo f(x)T(0) = 0. QED

    Corolario 2.1.9 - Condicao necessaria de segunda ordem para xno interior de (ou = IRn).Seja x

    minimizador local de (2.1.1), x

    ponto interior de . Se f tem

    derivadas segundas contnuas numa vizinhanca de x entao f(x) = 0 e2f(x) 0.

    Prova: Seja d IRn, d = 0, arbitrario. Seja : [, ] a curva definidapor (t) = x + td. Pelo Corolario 2.1.4 e o Lema 2.1.8,

    f(x)Td f(x)T(0) = 0.

    Como d e arbitrario, segue que f(x) = 0. Definindo : [, ] IR por(t) = f[(t)], temos (0) = f(x)T(0) = 0 e pelo Teorema 2.1.6,

    0

    (0) = (0)T

    2f(x

    )(0) = dT

    2f(x

    )d.

    Novamente, a arbitrariedade de d implica em 2f(x) 0. QED

    Teorema 2.1.10 - Condicao suficiente de segunda ordem para xno interior de (ou = IRn) Seja f C2() e x ponto interior de tal que f(x) = 0 e 2f(x) > 0. Entao x e minimizador local estrito doproblema (2.1.1).

    Prova: Escrevendo a expansao de Taylor para f em torno de x, comof(x) = 0, temos:

    f(x) = f(x) +1

    2 (x x)T2f(x)(x x) + o(x x2) ,

  • 7/23/2019 Otimizao e metodos numericos(1)

    19/262

  • 7/23/2019 Otimizao e metodos numericos(1)

    20/262

    16 CHAPTER 2. CONDIC OES DE OTIMALIDADE

    Definicao 2.2.1 Se x , chamamos conjunto tangente a por x (deno-tado por M(x)) ao conjunto dos vetores tangentes a curvas em passandopor x, ou seja:

    M(x) =

    {v

    IRn

    |v = (0) para alguma curva passando por x

    }.

    Utilizando a notacao

    h(x) =

    h1x1

    (x) . . . h1xn (x)...hmx1

    (x) . . . hmxn (x)

    = h

    1(x)

    ...hm(x)

    = h1(x)

    T

    ...hm(x)T

    ,podemos relacionar M(x) com o nucleo do Jacobiano de h(x), denotado porN(h(x)), pelo seguinte lema:

    Lema 2.2.2

    Para todo x , M(x) N(h(x)).Prova: Seja v M(x) e : [, ] tal que (0) = v, (0) = x.Definimos (t) = h((t)), para todo t [, ]. Portanto, (t) = 0 paratodo t [, ]. Logo, (t) (1(t), . . . , m(t))T = 0 para todo t (, ). Mas, pela regra da cadeia, (t) = h((t))(t), portanto

    h((t))(t) = 0

    para todo t (, ). Logo, 0 = h(x)(0) = h(x)v, ou seja, v N(h(x)).QED

    E natural que nos indaguemos sobre a validade da recproca do Lema 2.2.2:N(h(x)) M(x) ? Em geral esta relacao nao e verdadeira, conforme ilus-tra o seguinte exemplo. Consideremos h(x1, x2) = x1x2 , x = ( 0, 0 )

    T.Entao M(x) = {v IR2 | v1v2 = 0}, mas h(x) = (0, 0) e, claramente,N(h(x)) = IR2.

    Definicao 2.2.3Dizemos que x {x IRn | h(x) = 0} e um ponto regular se o posto deh(x) e igual a m ({h1(x), . . . , hm(x)} e um conjunto linearmente inde-pendente).

    Teorema 2.2.4

  • 7/23/2019 Otimizao e metodos numericos(1)

    21/262

  • 7/23/2019 Otimizao e metodos numericos(1)

    22/262

  • 7/23/2019 Otimizao e metodos numericos(1)

    23/262

    2.2. RESTRIC OES DE IGUALDADE 19

    x seja maximizador de f restrita a variedade tangente afim.

    Teorema 2.2.8 - Condicoes necessarias de segunda ordem para re-stricoes de igualdade.

    Suponhamos que f, h

    C2, x e minimizador local regular de (2.2.1) e e

    o vetor de multiplicadores de Lagrange definido no Teorema 2.2.6. EntaovT2xx(x, )v 0, para todo v N(h(x)).

    Prova: Pelo Teorema 2.2.6,

    f(x) + h(x)T = 0 (2.2.5)

    Seja v N(h(x)). Pelo Teorema 2.2.4, existe uma curva em declasse C2 passando por x ((0) = x) e tal que v = (0). Tambem,(0) N(h(x)). Definindo (t) = f((t)), pelo Lema 2.1.8, (0) =f(x)T(0) = 0 e entao pelo Teorema 2.1.6,

    (0) = (0)T2f(x)(0) + f(x)T(0) 0 (2.2.6)

    Agora, definindo i(t) = ihi((t)), i = 1, . . . , m, temos que i(t) = 0 para

    todo t (, ), portanto

    i (0) = (0)Ti2hi(x)(0) + ihi(x)(0) = 0 .

    Logo

    mi=1

    i (0) = (0)T

    mi=1

    i2hi(x)(0) + Th(x)(0) = 0 . (2.2.7)

    Somando (2.2.7) e (2.2.6), por (2.2.5) segue que

    (0)T(2f(x) +mi=1

    i2hi(x))(0) 0.

    Por ser v arbitrario a prova esta completa. QED

    Teorema 2.2.9 - Condicoes suficientes de segunda ordem para re-stricoes de igualdade.Se f, h C2, x satisfaz as condicoes necessarias de primeira ordempara (2.2.1), e o vetor de multiplicadores de Lagrange e yT

    2xx(x, )y > 0

    para todo y N(h(x)), y = 0, entao x e minimizador local estrito para

  • 7/23/2019 Otimizao e metodos numericos(1)

    24/262

    20 CHAPTER 2. CONDIC OES DE OTIMALIDADE

    (2.2.1).

    Exerccio 2.10: Usando a reducao a problemas irrestritos atraves do Teo-rema da Funcao Implcita, provar os Teoremas 2.2.8 e 2.2.9.

    Exerccio 2.11: Considerar o problema perturbado MRI()

    Minimizar f(x)h(x) =

    e seja x solucao regular de MRI(0). Chamando x = x(0) e usando ascondicoes de otimalidade de MRI() e o Teorema da Funcao Implcita paradefinir x(), provar que fi (x(0)) = i, i = 1, . . . , m.

    2.3 Restricoes de desigualdade

    Consideremos agora o problema de minimizacao com restricoes gerais dedesigualdade:

    Minimizar f(x)c(x) 0 (2.3.1)

    onde c : IRn IRp.

    Definicao 2.3.1Para cada x = {x IRn | c(x) 0}, chamamos de restricoes ativasem x aquelas para as quais ci(x) = 0. Analogamente, chamamos restricoesinativas em x aquelas para as quais ci(x) < 0. Como na definicao 2.2.4,

    chamaremos ponto regular a um ponto de onde os gradientes das restricoesativas sao linearmente independentes.

    A prova do seguinte lema e evidente.

    Lema 2.3.2Se x e minimizador local de (2.3.1) e I = {i {1, . . . , p} | ci(x) = 0},entao x e minimizador local do problema

    Minimizar f(x)ci(x) = 0, i I .

  • 7/23/2019 Otimizao e metodos numericos(1)

    25/262

    2.3. RESTRIC OES DE DESIGUALDADE 21

    Com base no Lema 2.3.2, podemos aplicar ao problema (2.3.1) resultados jaconhecidos para o problema de minimizacao com restricoes de igualdade.

    Lema 2.3.3Se x e minimizador local de (2.3.1), I =

    {i

    {1, . . . , p

    } |ci(x) = 0

    }e

    {ci(x), i I} e um conjunto linearmente independente, entao para todoi I existe i IR tal que

    f(x) +iI

    ici(x) = 0 .

    Prova: Analoga a do Teorema 2.2.6. QED

    O Lemma 2.3.3 nos diz que o gradiente de f e combinacao linear dos gradi-entes das restricoes ativas num minimizador local regular do problema. Oteorema seguinte mostra que sabemos algo sobre os sinais dos coeficientesdessa combinacao linear.

    Teorema 2.3.4 - Condicoes Karush-Kuhn-Tucker (KKT).Se x e minimizador local regular de (2.3.1) (I = {i {1, . . . , p} | ci(x) =0} e {ci(x), i I} e um conjunto linearmente independente) entao exis-tem unicos i IR, i 0, i I tais que

    f(x) +iI

    ici(x) = 0 .

    Prova: Tendo em vista o Lema 2.3.3, existem i IR , i I tais quef(x) +

    iI

    ici(x) = 0 . (2.3.2)

    Falta apenas mostrar que i 0, i I. Suponhamos que exista k I talque k < 0. Chamemos

    I = {x IRn | ci(x) = 0, i I},

    k = {x IRn | ci(x) = 0, i I, i = k},MI(x

    ) o conjunto tangente a I por x

    e Mk(x

    ) o conjunto tangente a

    k por x. Pela regularidade de x, ck(x) nao e combinacao linear dos

  • 7/23/2019 Otimizao e metodos numericos(1)

    26/262

    22 CHAPTER 2. CONDIC OES DE OTIMALIDADE

    outros gradientes de restricoes ativas em x. Portanto, existe y Mk(x)tal que

    ck(x)Ty < 0 . (2.3.3)Seja (t) uma curva em k passando por x com (0) = y. Entao, parat

    0 suficientemente pequeno, (t)

    {x

    IRn

    |c(x)

    0}

    . Chamando(t) = f((t)), temos que (0) = f(x)Ty. Logo, por (2.3.2), (2.3.3) ek < 0 segue que

    (0) < 0, o que contradiz o fato de x ser minimizadorlocal. QED

    2.4 Restricoes de igualdade e desigualdade

    Consideremos agora o problema geral de programacao nao linear:

    Minimizar f(x)h(x) = 0

    c(x) 0(2.4.1)

    onde h : IRn IRm e c : IRn IRp.

    Podemos estabelecer condicoes analogas as do Teorema (2.3.4) para o prob-lema (2.4.1). De maneira similar aos casos anteriores, definimos ponto reg-ular do conjunto factvel como um ponto onde os gradientes das restricoesativas sao linearmente independentes.

    Teorema 2.4.1 - Condicoes Karush-Kuhn-Tucker gerais.Sejax um minimizador local regular de (2.4.1). SejaI = {i {1, . . . , p} | ci(x) =0}

    . Suponhamos que{

    hi(x

    ), . . . ,

    hm(x

    )}{

    ci(x

    ), i

    I}

    e um con- junto linearmente independente. Entao existem unicos 1 . . . , m IR ei 0 para todo i I tais que

    f(x) +mi=1

    ihi(x) +iI

    ici(x) = 0 .

    Exerccio 2.13: Demonstrar o Teorema 2.4.1.

    Desta forma, se x e um ponto regular e minimizador local para o problema(2.4.1), definindo i = 0 se i

    I, podemos reescrever as condicoes KKT da

    seguinte forma:

  • 7/23/2019 Otimizao e metodos numericos(1)

    27/262

    2.4. RESTRIC OES DE IGUALDADE E DESIGUALDADE 23

    f(x) +mi=1

    ihi(x) +pi=1

    ici(x) = 0 (2.4.2)

    h(x) = 0 (2.4.3)

    ici(x) = 0 , i = 1, . . . , p (2.4.4)

    i 0 , i = 1, . . . , p (2.4.5)ci(x) 0 , i = 1, . . . , p (2.4.6)

    As n + m + p equacoes (2.4.2) - (2.4.4) formam um sistema nao linear nasincognitas x IRn, IRm e IRp. As solucoes deste sistema que satis-fazem (2.4.5) e (2.4.6) sao os pontos estacionarios de (2.4.1)

    Teorema 2.4.2 - Condicoes necessarias de segunda ordem ( re-stricoes de igualdade e desigualdade).Seja x

    ponto regular e minimizador local de (2.4.1). Seja A a matriz cujas

    linhas sao os gradientes das restricoes ativas em x, excluindo os gradientesdaquelas restricoes de desigualdade cujo multiplicador e zero. Entao, se e sao os vetores de multiplicadores de Lagrange dados no Teorema 2.4.1,

    yT2xx(x, , )y 0 para todo y N(A) ,

    onde

    (x,,) = f(x) +mi=1

    ihi(x) +pi=1

    ici(x) .

    Exerccio 2.14: Demonstrar o Teorema 2.4.2.

    Exerccio 2.16: Refazer os resultados deste captulo trocando minimizadorespor maximizadores.

    Exerccio 2.17: Interpretar geometricamente todos os resultados destecaptulo, incluindo os relativos ao Exerccio 2.16.

    Exerccio 2.18: Estudar o Lema de Farkas, de um texto adequado sobreconvexidade, e deduzir as condicoes de otimalidade da programacao linear.Observar que, desta maneira, a aplicacao do Teorema 2.3.4 a programacaolinear nao depende da regularidade do ponto. Usando esse resultado, provar

    o resultado do Teorema 2.3.4 para minimizacao com restricoes lineares sem

  • 7/23/2019 Otimizao e metodos numericos(1)

    28/262

  • 7/23/2019 Otimizao e metodos numericos(1)

    29/262

    24 CHAPTER 2. CONDIC OES DE OTIMALIDADE

  • 7/23/2019 Otimizao e metodos numericos(1)

    30/262

    Chapter 3

    Convexidade e dualidade

    Apesar da extensa analise permitida pelos dois temas tratados neste captulo,procuramos fazer uma abordagem sintetica para ambos. Nosso enfoque temem vista os aspectos teoricos que efetivamente contribuem para o desen-volvimento de algoritmos praticos. Por exemplo, uma das propriedadesmais fortes obtidas com hipoteses de convexidade em um problema de min-imizacao e que as condicoes necessarias de otimalidade passam a ser sufi-cientes. Em outras palavras, um ponto Karush-Kuhn-Tucker torna-se umasolucao do problema. A teoria da dualidade, por sua vez, permite umaabordagem do problema original sob um outro ponto de vista. O dual deum problema de otimizacao tem como variaveis quantidades associadas asrestricoes do problema original. Em condicoes adequadas, resolver o prob-lema dual e equivalente a resolver o original (primal) e, as vezes, trabalharcom o dual e mais facil que com o primal. Mesmo em situacoes onde oprimal e o dual nao sao equivalentes, problemas duais resoluveis forneceminformacoes uteis para resolver seus primais correspondentes. Do ponto devista teorico, convexidade e dualidade fornecem estruturas sob as quais re-sultados relevantes sobre algoritmos e problemas podem ser obtidos. Porexemplo, as condicoes de otimalidade podem ser derivadas usando teoremasde separacao de conjuntos convexos por hiperplanos (ver [91]). Por outrolado, a teoria de convergencia de metodos importantes em programacao naolinear, como o metodo do Lagrangeano aumentado (captulo 10 deste livro)e enriquecida pela consideracao do problema dual (ver [175]).

    25

  • 7/23/2019 Otimizao e metodos numericos(1)

    31/262

  • 7/23/2019 Otimizao e metodos numericos(1)

    32/262

    3.1. CONVEXIDADE 27

    Apresentamos a seguir alguns resultados basicos da teoria de convexidade.

    Teorema 3.1.3Se os conjuntos Ki, i I, sao convexos, entao K = iIKi tambem econvexo.

    Prova: Sejam x, y K = iIKi. Entao x, y Ki, i I e como os con-juntos Ki, i I sao convexos, para todo [0, 1], x + (1 )y Ki, i I.Logo x + (1 )y K para todo [0, 1]. QED

    Exerccio 3.2: Se A IRn, chamamos de fecho convexo de A ao conjuntodas combinacoes convexas dos pontos de A. Provar que o fecho convexo dequalquer conjunto e convexo. Provar que o fecho convexo de A IRn estacontido em qualquer convexo K tal que A K.

    Definicao 3.1.4

    Se K e um conjunto convexo, f : K IR, e uma funcao convexa se paratodo x, y K, [0, 1],

    f(x + (1 )y) f(x) + (1 )f(y).

    Definicao 3.1.5Se K e um conjunto convexo, denominamos epigrafo de f : K IR aoconjunto

    {(x, y) IRn IR | x K, y f(x)}.Teorema 3.1.6 A funcao f : K IR e convexa se, e somente se, o epigrafode f e convexo.

    Prova: Suponhamos que f seja convexa e tomemos (x, x), (y, y) pontosdo epigrafo de f. Para [0, 1], como K e convexo, x + (1 )y K.Agora, x + (1 )y f(x) + (1 )f(y) f(x + (1 )y) pois f econvexa. Logo (x, x) + (1 )(y, y) = (x + (1 )y, x + (1 )y)pertence ao epigrafo de f para todo [0, 1]. Portanto, o epigrafo econvexo.

    Suponhamos agora que f nao seja convexa. Entao existem x, y K taisque f(x + (1 )y) > f(x) + (1 )f(y) para algum [0, 1]. Assim,(x, f(x)) e (y, f(y)) sao pontos do epigrafo de f. Entao

    (x, f(x)) + (1 )(y, f(y)) = (x + (1 )y, f(x) + (1 )f(y)) ,

  • 7/23/2019 Otimizao e metodos numericos(1)

    33/262

    28 CHAPTER 3. CONVEXIDADE E DUALIDADE

    onde x + (1 )y K mas f(x) + (1 )f(y) < f(x + (1 )y). Por-tanto, (x, f(x)) + (1 )(y, f(y)) nao pertence ao epigrafo de f. Logo oepigrafo de f nao e convexo. QED

    Funcoes convexas diferenciaveis podem ser caracterizadas pelo teorema a

    seguir:

    Teorema 3.1.7Sejam K IRn aberto e convexo, f : K IR, f C1(K). Entao f econvexa se, e somente se, f(y) f(x) +f(x)T(y x), para todo x, y K.

    Prova: Seja f convexa como na hipotese do teorema, x, y K, [0, 1].Logo, f(y + (1 )x) f(y) + (1 )f(x). Portanto,

    f(x + (y x)) f(x) (f(y) f(x)) .

    Entao

    lim0

    f(x + (y x)) f(x)

    f(y) f(x) .Logo,

    f(x)T(y x) f(y) f(x).Dessa maneira, provamos que

    f(x) + f(x)T(y x) f(y) para todo x, y K.

    Reciprocamente, se f(y) f(x) + f(x)T(y x) para todo x, y K,chamando z = y + (1 )x, temos

    f(x) f(z) + f(z)T(x z)f(y) f(z) + f(z)T(y z) .

    Portanto,

    (1 )f(x) + f(y) (1 )(f(z) + f(z)T(x z))+ (f(z) + f(z)T(y z))

    = f(z) + f(z)T(x z x + z + y z)= f(z) + f(z)T(y + (1 )x z)= f((1 )x + y) .

    QED

  • 7/23/2019 Otimizao e metodos numericos(1)

    34/262

    3.1. CONVEXIDADE 29

    Outro resultado util, que estabelece o nao decrescimento da derivada dire-cional para funcoes convexas, e apresentado a seguir.

    Teorema 3.1.8Seja K

    IRn aberto e convexo, f : K

    IR, f

    C1(K). Entao, f convexa

    se, e somente se, para todo x, y K,f(x)T(y x) f(y)T(y x) .

    Exerccio 3.3: Demonstrar o Teorema 3.1.8.

    As funcoes convexas com duas derivadas contnuas sao caracterizadas peloseguinte resultado.

    Teorema 3.1.9

    Seja K IRn aberto e convexo, f : K IR e f C2(K). Entao f econvexa se, e somente se, 2f(x) 0 para todo x K.

    Exerccio 3.4: Demonstrar o Teorema 3.1.9.

    Definicao 3.1.10.Se K e um conjunto convexo, f : K IR e uma funcao estritamente convexase, para todo x, y K, (0, 1),

    f(x + (1 )y) < f(x) + (1 )f(y) .Exerccio 3.5: Provar os teoremas 3.1.73.1.9, com as modificacoes ade-

    quadas, substituindo convexa por estritamente convexa.

    Teorema 3.1.11Sejaf : K IR convexa e a IR. Entao o conjunto de nvel {x K | f(x) a}e convexo.

    Exerccio 3.6: Demonstrar o Teorema 3.1.11.

    Definicao 3.1.12.Chamamos de problema de programacao convexa a

    Minimizar f(x)

    sujeita a x K

  • 7/23/2019 Otimizao e metodos numericos(1)

    35/262

    30 CHAPTER 3. CONVEXIDADE E DUALIDADE

    onde K e um conjunto convexo e f e uma funcao convexa.

    Teorema 3.1.17Em um problema de programacao convexa, todo minimizador local e global.O conjunto dos minimizadores e convexo. Se f e estritamente convexa, nao

    pode haver mais de um minimizador.

    Prova: Suponhamos que x e uma solucao local nao global do problemade programacao convexa . Entao existe x K tal que f(x) < f(x). Para [0, 1], consideremos x = (1 )x + x. Pela convexidade de K,x K. Agora, pela convexidade de f,

    f(x) (1 )f(x) + f(x) = f(x) + (f(x) f(x)) < f(x).

    Assim, para suficientemente proximo de 0, x torna-se arbitrariamenteproximo de x, mas f(x) < f(x). Portanto, x nao poderia ser um mini-

    mizador local do problema de programacao convexa.Chamemos de S o conjunto dos minimizadores globais do problema. Sejamx, y S. Entao f(x) = f(y) f(x + (1 )y), [0, 1]. Pelaconvexidade de f,

    f(x + (1 )y) f(x) + (1 )f(y) = f(y) + (f(x) f(y)) = f(y).

    Logo, x + (1 )y S e portanto S e convexo.Suponhamos agora que existam x, y S, x = y e f seja estritamenteconvexa. Para [0, 1], f(x + (1 )y) f(x) = f(y) pois x, y saominimizadores globais, mas f(x + (1 )y) < f(x) = f(y) pelo fato def ser estritamente convexa. Temos assim a contradicao desejada e a provaesta completa. QED

    No proximo teorema consideramos o problema geral de programacao naolinear (2.4.1). Suponhamos que a funcao objetivo f e as funcoes que de-finem as restricoes de desigualdade gi, i = 1, . . . , p sao convexas e que ashi, i = 1, m sao lineares, isto e, hi(x) = a

    Ti x + bi. Portanto, pelos teoremas

    3.1.3 e 3.1.5, o conjunto = {x IRn | h(x) = 0, g(x) 0} e convexo e oproblema de programacao nao linear (2.4.1) e um problema de programacaoconvexa. Com certo abuso de linguagem, ao dizer que (2.4.1) e um problemade programacao convexa estaremos sempre supondo que as gi sao convexase as hi sao lineares. O ob jetivo do teorema e mostrar que, neste caso, as

    condicoes KKT dadas pelo Teorema 2.4.1 sao suficientes para caracterizar

  • 7/23/2019 Otimizao e metodos numericos(1)

    36/262

    3.1. CONVEXIDADE 31

    um minimizador global.

    Teorema 3.1.14Se o problema de minimizacao com restricoes de igualdade e desigualdade(2.4.1) e um problema de programacao convexa e em x

    valem as condicoes

    KKT gerais (Teorema 2.4.1), entao x e minimizador global (a regularidadenao e necess aria).

    Prova: Definimos = {x IRn | h(x) = 0, g(x) 0} e tomamos x ,x = x. Se IRn e IRp sao os multiplicadores dados pelo Teorema

    2.4.1, temos:

    f(x) +mi=1

    ihi(x) +pi=1

    igi(x) = 0 (3.1.1)

    h(x) = 0 (3.1.2)igi(x) = 0 , i = 1, . . . , p (3.1.3)

    i 0 , i = 1, . . . , p (3.1.4)gi(x) 0 , i = 1, . . . , p (3.1.5)

    Agora, f(x) f(x) +mi=1

    ihi(x) +pi=1

    igi(x) pois hi(x) = 0, i = 1, . . . , m,

    gi(x) 0, i = 1, . . . , p e vale (3.1.4).Aplicando a desigualdade do Teorema 3.1.7 as funcoes f, hi e gi segue-se

    que

    f(x) f(x) + f(x)T(x x) +mi=1

    i(hi(x) + hi(x)T(x x))

    +pi=1

    i(gi(x) + gi(x)T(x x)) .

    Por (3.1.1) - (3.1.5) temos f(x) f(x), ou seja, x e minimizador globalde (2.4.1). QED

  • 7/23/2019 Otimizao e metodos numericos(1)

    37/262

    32 CHAPTER 3. CONVEXIDADE E DUALIDADE

    3.2 Dualidade

    Consideremos o problema geral de programacao nao linear (problema pri-mal):

    Minimizar f(x)

    sujeita a h(x) = 0g(x) 0 (3.2.1)

    onde f : IRn IR, h : IRn IRm, g : IRn IRp e f, h, g C1(IRn).

    Definicao 3.2.1Chamamos Problema Dual (de Wolfe) (ver [199]) de (3.2.1) ao problema

    Maximizar (x, , )sujeita a x(x, , ) = 0

    0(3.2.2)

    onde (x, , ) = f(x) +mi=1

    ihi(x) +pi=1

    igi(x).

    Reescrevendo (3.2.2), temos:

    Maximizar f(x) +mi=1

    ihi(x) +pi=1

    igi(x)

    sujeita a f(x) +mi=1

    ihi(x) +pi=1

    igi(x) = 0 0

    (3.2.3)

    Antes de estabelecer propriedades do Dual de Wolfe, calculamos os proble-mas duais de problemas classicos de otimizacao.

    Exemplo 3.2.2: Programacao Linear.Consideremos o problema primal de programacao linear no seguinte formato:

    Minimizar cTxsujeita a Ax b (3.2.4)

    onde A IRpn, AT = (a1, . . . , ap) , ai IRn, i = 1, . . . , p.Neste caso, (x, , ) = (x, ) = cTx+

    p

    i=1i(a

    Ti xbi) = cTx+T(Axb).

    Logo, x(x, ) = c + AT.

  • 7/23/2019 Otimizao e metodos numericos(1)

    38/262

  • 7/23/2019 Otimizao e metodos numericos(1)

    39/262

    34 CHAPTER 3. CONVEXIDADE E DUALIDADE

    Entao

    (x, , ) =1

    2xTGx + cTx + T(Ax b) + T(Cx d)

    e x(x, , ) = Gx + c + AT + CT.Assim, o problema dual de (3.2.8) e

    Maximizar 12xTGx + cTx + T(Ax b) + T(Cx d)

    sujeita a Gx + c + AT + CT = 0 0 .

    (3.2.9)

    Substituindo x = G1(c + AT + CT), podemos reescrever (3.2.9) daseguinte forma:

    Maximizar 12(c + AT + CT)TG1(c + AT + CT) bT dTsujeita a 0 .

    (3.2.10)

    Neste exemplo vemos que o problema dual pode ter uma estrutura diferentedo problema primal, neste caso mais simples. A simplicidade do problemadual esta associada a possibilidade de calcular G1v. Essa tarefa pode sermuito difcil se G nao tem uma estrutura favoravel, mas muito facil em casosbastante comuns nas aplicacoes. Por exemplo, se o problema primal consisteem encontrar a projecao de um ponto dado no conjunto factvel de (3.2.8),a matriz G e a identidade.

    Observamos que o dual (3.2.10) esta bem definido se G e uma matriz nao sin-gular. Isso nao significa que sempre seja equivalente ao primal. Para tanto,precisaremos que G seja definida positiva, o que resultara como corolario dos

    resultados seguintes. Em (3.2.2) e (3.2.3) definimos dualidade sem estabele-cer conexoes entre o primal e o dual. Com tal generalidade, os problemasprimal e dual podem nao ser equivalentes. Agora estudaremos relacoes entreos dois problemas usando hipoteses de convexidade.

    Lembramos que chamamos condicoes Karush-Kuhn-Tucker (KKT) as dadaspor (2.4.2)-(2.4.6), isto e:

    f(x) + mi=1 ihi(x) + pi=1 igi(x) = 0h(x) = 0

    igi(x) = 0 , i = 1, . . . , pi

    0 , i = 1, . . . , p

    gi(x) 0 , i = 1, . . . , p

  • 7/23/2019 Otimizao e metodos numericos(1)

    40/262

    3.2. DUALIDADE 35

    Um p onto KKT e um ponto onde as condicoes KKT sao satisfeitas.

    Teorema 3.2.5Suponhamos que o problema (3.2.1) e tal que as funcoes f e gi, i = 1, . . . , psao convexas em IRn e que x e um ponto KKT com os multiplicadores

    correspondentes e . Entao (x, , ) e solucao do dual (3.2.3).Alem disso, o valor da funcao objetivo primal e dual coincidem, isto ef(x) = (x, , ).

    Prova: Sabemos que

    f(x) +mi=1

    []ihi(x) +pi=1

    []igi(x) = 0 ,

    com 0. Das condicoes KKT se deduz que f(x) = (x, , ).Logo, (x, , ) e um ponto factvel para o problema dual (3.2.3). Supon-

    hamos que (x, , ) seja um outro ponto factvel para (3.2.3). Entao:

    (x, , ) = f(x) +mi=1

    []ihi(x) +pi=1

    []igi(x)

    = f(x)

    f(x) +mi=1

    ihi(x) +pi=1

    igi(x)

    = (x, , ).

    Como (3.2.1) e um problema de programacao convexa, e facil ver que ,

    como funcao de x, e convexa para 0. Logo, pelo Teorema 3.1.11 e pelafactibilidade dual de (x, , ) segue que

    (x, , ) (x, , ) + x(x, , )T(x x) = (x, , ) .

    Isto completa a prova. QED

    Alguns comentarios sobre o Teorema 3.2.5 sao pertinentes. Este resultadonos assegura que, se um problema de programacao convexa tem um pontoque satisfaz as condicoes KKT (que portanto, pelo Teorema 3.1.18, sera umminimizador global), esse ponto necessariamente vai ser um maximizadorglobal do Dual de Wolfe. Isso nao significa que dado um problema de pro-

    gramacao convexa, uma solucao global do dual corresponda forcosamente a

  • 7/23/2019 Otimizao e metodos numericos(1)

    41/262

    36 CHAPTER 3. CONVEXIDADE E DUALIDADE

    uma solucao do primal. No entanto, algumas relacoes adicionais entre pri-mal e dual podem ser estabelecidas.

    Teorema 3.2.6Suponhamos que (3.2.1) e um problema de programacao convexa. Se z e

    um ponto factvel de (3.2.1) e (x,,) e um ponto factvel do problema dualcorrespondente (3.2.2), entao

    f(z) (x,,) .

    Prova: Pelo Teorema 3.1.11 aplicado a f e gi, factibilidade de z em relacaoa (3.2.1) e de (x,,) em relacao a (3.2.2), temos que

    f(z) f(x) f(x)T(z x)

    = mi=1

    ihi(x) +pi=1

    igi(x)T (z x)

    mi=1

    i[hi(z) hi(x)] +pi=1

    i[gi(z) gi(x)]

    mi=1

    ihi(x) +pi=1

    igi(x) .

    Portanto f(z) f(x)+mi=1

    ihi(x)]+pi=1

    igi(x) = (x,,), como queriamos

    provar. QED

    O Teorema 3.2.6 implica que, se a regiao factvel do primal (3.2.1) e nao vaziamas o problema primal e ilimitado inferiormente, necessariamente a regiaofactvel do dual e vazia. Reciprocamente, se o dual e um problema factvelmas ilimitado superiormente, entao a regiao factvel do primal e vazia. Desteresultado tambem se deduz que qualquer ponto factvel do dual fornece umacota inferior para o valor da funcao objetivo numa possvel solucao do pri-mal. Esse tipo de informacao pode ser muito util na pratica.

    Exerccio 3.8: Supondo que o primal tem apenas restricoes lineares, quesua regiao factvel e vazia e que a regiao factvel do dual e nao vazia, provarque o supremo da funcao objetivo do dual e +

    . (Ver [199].)

  • 7/23/2019 Otimizao e metodos numericos(1)

    42/262

    3.2. DUALIDADE 37

    Exerccio 3.9: Considere o problema definido por n = 1, m = 0, p = 1,f(x) = 0 e g(x) = ex. Mostrar que o primal e infactvel mas o dual temsolucao finita.

    Exerccio 3.10: Estabelecer as relacoes entre o dual de Wolfe e o seguinte

    problemaMaximizar F(, ) sujeita a 0,

    onde F(, ) e o mnimo de (x,,), em relacao a x IRn.

  • 7/23/2019 Otimizao e metodos numericos(1)

    43/262

    36 CHAPTER 3. CONVEXIDADE E DUALIDADE

  • 7/23/2019 Otimizao e metodos numericos(1)

    44/262

  • 7/23/2019 Otimizao e metodos numericos(1)

    45/262

    38 CHAPTER 4. MINIMIZAC AO DE QUADRATICAS

    Lema 4.1.1Se q(x) = 12x

    TGx + bTx + c , entao q(x) = Gx + b e 2q(x) = G para todox IRn.

    Exerccio 4.1: Identificar G, b e c nos diferentes casos:

    (a) q(x) = 3x21 2x1x2 + x1x3 x23 + x3 x1 + 5(b) q(x) = x21 x22 + 4x1x3 + 2x2x3 + x1 + x2 8(c) q(x) = 2x1x2 + x1 + x2.

    Exerccio 4.2: Demonstrar o Lema 4.1.1.

    Os pontos estacionarios de (4.1.1) sao aqueles onde se anula o gradiente,portanto, de acordo com o Lema 4.1.1, sao as solucoes do sistema linear

    Gx + b = 0. (4.1.2)

    Sua existencia ou unicidade esta determinada pelas propriedades desse sis-tema.

    Lema 4.1.2(a) O problema (4.1.1) admite algum ponto estacionario se, e somente se,b R(G), onde R(G) e o espaco coluna de G.(b) O problema (4.1.1) admite um unico ponto estacionario se, e somentese, G e n ao singular.

    Exerccio 4.3: Demonstrar o Lema 4.1.2.

    A equacao dos pontos estacionarios Gx + b = 0 pode ter uma, infinitas ounenhuma solucao. Se (4.1.2) nao tem solucao, ou seja, b nao pertence aoespaco coluna de G, entao (4.1.1) nao admite nenhum minimizador, localou global. Esse e o caso, por exemplo, quando q e uma funcao linear naoconstante (G = 0 e b = 0). Se (4.1.2) tem solucao unica, essa solucao serao unico ponto estacionario de (4.1.1). No entanto, ele pode ser tanto umminimizador, como maximizador ou ponto sela. Finalmente, se G teminfinitas solucoes, o que acontece quando G e singular e b esta no seu espacocoluna, todas elas serao pontos estacionarios e, como veremos, do mesmotipo. E interessante observar que um problema com infinitas solu coes (Gsingular e b R(G)) pode ser transformado em um problema sem solucaopor uma perturbacao arbitrariamente pequena no vetor b. Por exemplo, osistema linear 0x + 0 = 0 tem IRn como conjunto de solucoes, mas o sistema

    0x + = 0 e incompatvel para qualquer = 0. Isso mostra que, muitas

  • 7/23/2019 Otimizao e metodos numericos(1)

    46/262

    4.1. QUADRATICAS SEM RESTRIC OES 39

    vezes, e difcil distinguir as situacoes sem solucao e infinitas solucoes.Com efeito, devido a erros de arredondamento, pode ser que o vetor b que,na realidade, estava no espaco coluna de G, fique fora desse subespacofazendo que um sistema com infinitas solucoes aparente ser incompatvelnos calculos numericos. Tambem e possvel que uma matriz G singular

    torne-se inversvel , por perturbacoes de arredondamento, transformandoum sistema incompatvel, ou indeterminado, em um problema com solucaounica. Isso mostra que a situacao em que G e claramente nao singular,de maneira que pequenas perturbacoes nao alteram essa condicao, e muitomais confortavel do ponto de vista da seguranca dos calculos numericos.

    Usando resultados de convexidade do Captulo 3 e as condicoes de otimal-idade de segunda ordem do Captulo 2, podemos classificar facilmente ospontos estacionarios de (4.1.1). Com efeito, se x e um minimizador local,necessariamente teremos G = 2q(x) 0. Por outro lado, se G 0, temosque a Hessiana 2q(x) e semidefinida p ositiva para todo x IRn e, em con-sequencia, q e uma funcao convexa. Portanto, se G 0 e x e um pontoestacionario, necessariamente sera um minimizador global. Como o mesmotipo de raciocnio pode ser feito para maximizadores, deduzimos que todaquadratica tem um unico tipo de ponto estacionario: minimizadores globaisou maximizadores globais ou ainda pontos sela, que nao sao maximizadoresnem minimizadores locais. A prova do seguinte lema mostra que, devido asimplicidade das funcoes quadraticas, e facil obter as conclusoes acima semapelar para os resultados de convexidade.

    Lema 4.1.3Se G 0 e x e ponto estacionario de (4.1.1), ent ao x e minimizadorglobal de (4.1.1).

    Prova: Seja x ponto estacionario de (4.1.1). Entao b = Gx. Logo,

    q(x) = 12xTGx + bTx + c = 12x

    TGx xT Gx + c

    = 12(x x)TG(x x) 12xT Gx + c 12xT Gx + c

    = 12xT Gx xT Gx + c = 12xT Gx + bTx + c = q(x) .

    Portanto, q(x) q(x) para todo x, ou seja, x e minimizador global de(4.1.1). QED

    Lema 4.1.4

  • 7/23/2019 Otimizao e metodos numericos(1)

    47/262

    40 CHAPTER 4. MINIMIZAC AO DE QUADRATICAS

    Se (4.1.1) admite um minimizador local, entao G 0.

    Corolario 4.1.5Todo minimizador local de (4.1.1) e global.

    Corolario 4.1.6Se a matriz G e indefinida, entao a quadratica q nao tem extremos locais.

    Exerccio 4.4: Demonstrar o Lema 4.1.4 e os Corolarios 4.1.5 e 4.1.6 semusar as condicoes de otimalidade do Captulo 2 nem os resultados de con-vexidade do Captulo 3.

    Um caso especial muito importante da minimizacao de quadraticas sem re-stricoes e o problema de quadrados mnimos linear. Consiste em, dada umamatriz A IRmn e um vetor b IRm, encontrar x IRn de maneira queAx se aproxime de b no sentido dos quadrados mnimos. Isto significa que

    x deve ser solucao deMinimizar

    1

    2Ax b22. (4.1.3)

    Em (4.1.3), a fracao 12 nao cumpre nenhum papel, exceto simplificar a ex-pressao do gradiente e da Hessiana. O problema e equivalente a minimizarq2(x) Axb2, no entanto, a formulacao com a norma ao quadrado e pre-fervel, devido a q2 nao ser diferenciavel nos pontos x em que [Ax b]i = 0.No entanto, (4.1.3) nao e equivalente a minimizar outras normas de Ax b.Em muitos ajustes de modelos e necessario estimar parametros x de maneiraque as observacoes se aproximem bastante do modelo teorico (Ax b). Aescolha da norma euclidiana para medir o grau de aproximacao se deve,na maioria dos casos, a que essa norma (ao quadrado) fornece o problemade otimizacao mais simples associado ao ajuste desejado. Algumas pro-priedades basicas do problema de quadrados mnimos linear sao enunciadasno seguinte teorema.

    Teorema 4.1.7Se q(x) = 12Ax b22, onde A IRmn, m n e b IRm, entao(a) q(x) = AT(Ax b);(b) 2q(x) = ATA 0;(c) As equacoes normais ATAx = ATb (q(x) = 0) sempre tem solucao.Se posto (A) = n, a solucao e unica e, se posto (A) < n, ha infinitassolucoes.

  • 7/23/2019 Otimizao e metodos numericos(1)

    48/262

    4.1. QUADRATICAS SEM RESTRIC OES 41

    Exerccio 4.5: Demonstrar o Teorema 4.1.7.

    4.1.1 Usando fatoracoes

    A forma mais rude de resolver (4.1.1) parte de considerar a decomposi caoespectral de G. (Ver, por exemplo, [96].) Ao mesmo tempo, ela nos d a todaa informacao qualitativa relevante sobre o problema. Com efeito, como G euma matriz simetrica, existe uma matriz ortogonal Q (QQT = QTQ = I),e uma matriz diagonal tais que

    G = QQT. (4.1.4)

    Os autovalores de G, 1, . . . , n, sao os elementos da diagonal e os autove-tores correspondentes sao as colunas de Q. Assim, a matriz G e semidefinidapositiva se todas as entradas de sao nao negativas. Se todos os elementosda diagonal de sao maiores que 0, e G sao definidas positivas. Por-

    tanto, o exame da diagonal fornece a informacao sobre o tipo de pontosestacionarios que o problema (4.1.1) pode ter. Se estamos interessados emminimizadores, e 0, analisamos o sistema linear Gx + b = 0. Usando(4.1.4), este sistema toma a forma

    QQTx = b, (4.1.5)que deriva, multiplicando ambos membros por QT = Q1, em

    z = QTb (4.1.6)onde x = Qz. Agora, (4.1.6) tem solucao se, e somente se, um possvel zerona diagonal de corresponde a uma coordenada nula do termo independenteQTb. Se ha um zero na diagonal de , digamos i, tal que [QTb]i = 0o sistema (4.1.5) nao tem solucao, e, consequentemente, (4.1.1) carece depontos estacionarios. (Lembremos, porem, por um instante, a advertencianumerica feita acima sobre a falta de estabilidade de conclusoes deste tipo.)Se todos os elementos de sao estritamente positivos, (4.1.5) tem solucaounica, e o vetor x calculado atraves de (4.1.6) e a mudanca de variaveisx = Qz e o minimizador global de (4.1.1). Por fim, se o sistema e compatvel,mas existe i tal que i = 0 e [Q

    Tb]i = 0, teremos infinitas solucoes, todaselas minimizadores globais de (4.1.1). Nesse caso, qualquer que seja o valorde zi escolhido, o vetor x correspondente resolvera (4.1.5) e o conjunto dosx varridos dessa maneira formara uma variedade afim em IRn de dimensao

    igual ao numero de zeros da diagonal de . O leitor verificara que o vetor

  • 7/23/2019 Otimizao e metodos numericos(1)

    49/262

  • 7/23/2019 Otimizao e metodos numericos(1)

    50/262

    4.1. QUADRATICAS SEM RESTRIC OES 43

    A decomposicao espectral resolve de maneira totalmente satisfatoria o prob-lema (4.1.1). Porem, seu custo computacional e, frequentemente, intoleravel,e a procura de alternativas mais baratas e necessaria.

    A maneira mais popular de resolver (4.1.1) se baseia na fatoracao de Choleskyde G. Tal procedimento funciona e e estavel apenas quando G e definida

    positiva. Nesse caso, a matriz G pode ser decomposta como G = LDLT,onde L IRnn e triangular inferior com diagonal unitaria e D IRnn euma matriz diagonal com elementos positivos. A maneira de encontrar L eD, os fatores de Cholesky, e dada pelo seguinte algoritmo:

    Algoritmo 4.1.8 - Fatoracao de Cholesky.Chamemos gij aos elementos de G, lij aos de L e dij aos de D. Defininindo,primeiro, d11 = g11, as demais entradas de D e L sao calculadas pelo seguinteciclo.

    Para j = 2 a n faca:

    djj = gjj j1

    k=1dkkl2jkSe j = n, termine. Se j < n, para i = j + 1 a n faca:

    lij =1

    djj

    gij j1k=1

    dkk ljk lik

    .O algoritmo de Cholesky termina, produzindo D > 0 (e e numericamenteestavel) se, e somente se, G e definida p ositiva. De fato, a maneira maiseconomica de averiguar se uma matriz simetrica e definida positiva e tentarfazer sua fatoracao de Cholesky. Se G e singular ou indefinida, em algummomento aparece um djj menor ou igual a 0 no calculo dessas entradas.

    Nos casos em que a fatoracao de Cholesky de G e completada com sucesso,

    o unico minimizador de (4.1.1) e obtido resolvendo LDLTx = b, processoque pode ser decomposto em tres passos:

    (a) resolver Ly = b;(b) resolver Dz = y;

    (c) resolver LTx = z.

    Os tres passos sao computacionalmente simples: (a) e (c) consistem emresolver sistemas lineares triangulares, e (b) em dividir cada coordenada dey pela entrada diagonal dii. Acrescentando a este custo computacional o defatorar a matriz pelo Algoritmo 4.1.8, a minimizacao da quadratica consomeaproximadamente n3/6 somas e produtos.

    Quando, no Algoritmo 4.1.8, detectamos que G nao e definida positiva,

    podemos apelar para o processo muito mais custoso de calcular a decom-

  • 7/23/2019 Otimizao e metodos numericos(1)

    51/262

    44 CHAPTER 4. MINIMIZAC AO DE QUADRATICAS

    posicao espectral. Outras alternativas, baseadas em fatoracoes mais baratasque a espectral, foram sugeridas na literatura. Ver, por exemplo, a fatoracaoBunch-Parlett em [26]. Para efeitos praticos, quando se quer resolver (4.1.7)e, quase sempre, suficiente usar o seguinte problema auxiliar:

    Minimizar q(x + d) sujeita a d2 , (4.1.8)

    onde e um numero grande. Este problema pode ser resolvido por meiode um numero nao excessivo de fatoracoes de Cholesky, como veremos naSecao 4.2.

    4.1.2 O caso esparso

    A analise teorica feita na sub-secao anterior e valida independentemente daestrutura da matriz G mas, no Algoritmo 4.1.8, usamos, implicitamente, asuposicao de que todos as entradas de G e L sao armazenadas. Portanto,esse algoritmo usa mais de n2 posicoes de memoria. Quando G e esparsa, istoe, a grande maioria de suas entradas sao nulas, e comum que a matriz L desua fatoracao de Cholesky tambem o seja. As vezes, uma permutacao con-veniente de linhas e colunas de G (que corresponde a re-ordenar as variaveisxi) faz aumentar consideravelmente o grau de esparsidade (ou diminuir adensidade) do fator L. Ver, por exemplo, [62]. A fatoracao de Choleskyde matrizes esparsas procede da mesma maneira que o Algoritmo 4.1.8, mastoma o cuidado de armazenar apenas os elementos nao nulos de G e L, eevita fazer operacoes com zeros. Dessa maneira, nao apenas a memoria,

    mas tambem o tempo computacional pode diminuir muito e a economia ebastante significativa quando n e grande. Agora, se a fatoracao de Choleskyfalha, e nos interessa obter uma direcao que satisfaca (4.1.7), apelar paraa fatoracao espectral e quase sempre impossvel, porque a matriz Q destafatoracao e geralmente densa, independentemente da esparsidade de G. Noentanto, ainda podemos obter uma direcao satisfatoria, em termos praticos,usando o subprobema (4.1.8).

    Exerccio 4.6: Obter um exemplo onde G e esparsa mas sua fatoracao deCholesky e densa e um exemplo onde G e esparsa, sua fatoracao de Choleskye esparsa mas sua fatoracao espectral e densa.

  • 7/23/2019 Otimizao e metodos numericos(1)

    52/262

    4.1. QUADRATICAS SEM RESTRIC OES 45

    4.1.3 Metodos iterativos

    Os metodos baseados em fatoracoes, chamados diretos, calculam a solucao de(4.1.1) em um unico passo, atraves de um processo relativamente trabalhoso.Os metodos iterativos, estudados nesta secao, procedem, pelo contrario,

    computando uma sequencia de aproximacoes xk IRn

    . A passagem de umiterando para o seguinte se faz atraves de um conjunto de operacoes geral-mente barato e a solucao e obtida depois de um numero finito de passos, ouno limite. Existem varias situacoes nas quais se justifica o uso de metodositerativos. As vezes, o problema e suficientemente facil e pouqussimas it-eracoes do metodo podem fornecer uma aproximacao muito boa da solucao.Nesse caso, minimizaramos a quadratica com um custo muito baixo, emcontraste com os metodos baseados em fatoracoes, que tem um custo fixo,independentemente da dificuldade do problema. Outras vezes, a precisaorequerida para a solucao de (4.1.1) e moderada, e pode ser atingida compoucos passos do metodo iterativo.

    No entanto, a principal razao pela qual se utilizam metodos iterativos eoutra, e se deve a uma caracterstica da maioria desses metodos que nao esta,forcosamente, ligada a recursividade. Com efeito, no processo da fatoracaode uma matriz, precisamos usar, por um lado, a memoria necessaria paraarmazenar seus elementos e, por outro lado, a necessaria para armazenar osfatores. Esta ultima e variavel e pode exceder em muito a usada para guardaros dados (embora, naturalmente, certo grau de superposicao e possvel).Como vimos acima, no caso extremo, os fatores de uma matriz esparsapodem ser densos. Alem disso, o tempo usado na fatoracao cresce com onumero de elementos nao nulos dos fatores. Uma estimativa grosseira e que otempo de fatoracao e proporcional a n|L|, onde |L| e o numero de elementosnao nulos do fator. Logo, se n e muito grande e as condicoes para a fatoracaonao sao favoraveis, tanto o tempo quanto a memoria necessaria podem serintoleraveis. Por outro lado, a memoria usada pelos metodos iterativos e, emgeral, muito moderada. Muitas vezes ela e apenas a usada para armazenar oselementos nao nulos de G e alguns vetores adicionais, mas, frequentemente,ate menos que isso e preciso. De fato, a operacao fundamental realizada pormuitos metodos e o produto Gv da matriz por um vetor variavel. QuandoG tem uma lei de formacao, esse produto matriz-vetor pode ser programadosem armazenamento explcito dos elementos de G, isto e, apenas gerando oelemento [G]ij quando e necessario usa-lo. Existem tambem metodos quepodem ser implementados com geracao de [G]ij apenas quando e necessario,e onde a operacao basica nao e o produto Gv.

    O metodo dos gradientes conjugados [119] e o usado mais frequentemente

  • 7/23/2019 Otimizao e metodos numericos(1)

    53/262

    46 CHAPTER 4. MINIMIZAC AO DE QUADRATICAS

    para resolver (4.1.1). Para motiva-lo, falaremos antes do metodo de maximadescida. Nesta secao, usaremos a notacao g(x) = q(x) = Gx + b e sera sempre a norma euclidiana. A direcao d = g(x)/g(x) e a de maximadescida a partir do ponto x. De fato, dada uma direcao unitaria d ( d = 1)qualquer, a derivada direcional Ddq(x) e tal que

    Ddq(x) = g(x)Td g(x) = Ddq(x) .

    Assim, dentre todas as direcoes unitarias, a determinada por g(x) e a quefornece a menor derivada direcional. Portanto, a funcao objetivo diminuirase avancarmos nessa direcao, e a maxima diminuicao sera obtida mini-mizando, ao longo dela, a quadratica q. Isto sugere o seguinte metodoiterativo:

    Algoritmo 4.1.9 - Maxima descidaSeja x0 IRn, x0 arbitrario.Dado xk IR

    n

    , defina dk = g(xk) e, se possvel, calcule xk+1 minimizadorde q(xk + dk), para 0.

    Exerccio 4.7: Demonstrar que, se dTk Gdk > 0, existe uma formula fechada

    para o passo otimo no Algoritmo 4.1.9: k =dTk dk

    dTk Gdk. Provar que as direcoes

    de duas iteracoes consecutivas sao ortogonais.

    Infelizmente, alem do metodo de maxima descida nao produzir a solucaodo problema em um numero finito de iteracoes, como as direcoes consecuti-vas por ele geradas sao ortogonais, o metodo anda em ziguezague o que,certamente, nunca e a melhor forma de se acercar de um objetivo. Este com-portamento se torna mais desfavoravel a medida que as superfcies de nvelde q se tornam mais alongadas, o que corresponde a um numero de condicaogrande da matriz G. De fato, a velocidade de convergencia deste metododepende fortemente da razao entre o maior e o menor autovalor de G. Ver[129]. Nos ultimos anos foram introduzidas variacoes do metodo de maximadescida onde se conserva o uso das direcoes dos gradientes mas e mudadoo calculo do passo, com substanciais ganhos de eficiencia. Ver [8], [170], [80].

    Vamos introduzir o metodo dos gradientes conjugados como uma especiede metodo de maxima descida com memoria. Assim como o metodo demaxima descida minimiza q na direcao

    g(x0), depois na direcao de

    g(x1)

    etc., o metodo de gradientes conjugados comecara minimizando q na direcao

  • 7/23/2019 Otimizao e metodos numericos(1)

    54/262

    4.1. QUADRATICAS SEM RESTRIC OES 47

    g(x0), mas depois o fara no plano gerado por g(x0) e g(x1), depois nosubespaco gerado por g(x0), g(x1) e g(x2) e assim por diante. Usando anotacao Span{u1, . . . u} para o subespaco gerado pelos vetores u1, . . . , u,apresentamos no Algoritmo 4.1.10 uma primeira descricao geometrica dometodo dos gradientes conjugados. Nenhuma hipotese adicional sobre a

    matriz G e assumida alem da simetria.

    Algoritmo 4.1.10Comecamos o algoritmo com x0 IRn arbitrario. Dado xk IRn, definimos

    Sk = Span{g(x0), . . . , g(xk)}e

    Vk = x0 + Sk = {v IRn | v = x0 + w com w Sk}.Consideramos o problema

    Minimizar q(x) sujeita a x

    Vk. (4.1.9)

    Se (4.1.9) nao tem solucao, o algoritmo para por inexistencia de mnimo.Caso contrario, definimos xk+1 como uma das solucoes de (4.1.9). (Maistarde, provaremos, que, de fato, (4.1.9) nao pode ter mais de uma solucao.)

    A primeira vista, o Algoritmo 4.1.10 pode parecer pouco pratico, pois ex-ige a minimizacao da quadratica q(x) em variedades de dimensao cada vezmaior. Logo, no ultimo caso, estaremos minimizando q em todo IRn (afinalde contas, nosso problema original). No entanto, veremos que os calculosnecessarios para computar os sucessivos iterandos sao surpreendentementesimples e sem requerimentos de memoria. Mais surpreendente e o fato deque, recentemente, foram desenvolvidos metodos iterativos para resolver sis-temas lineares nao simetricos baseados na ideia desse algoritmo, onde oscalculos das iteracoes nao se simplificam, mas que, mesmo assim, parecemser extremamente eficientes. Ver [179].

    Vamos analisar algumas propriedades do Algoritmo 4.1.10. Para simplificara notacao, escreveremos, de agora em diante, gk = g(xk) e sk = xk+1 xk,para todo k = 0, 1, 2, . . .. Da condicao de otimalidade para minimizacaocom restricoes de igualdade, ou da condicao de primeira ordem por curvas,dadas no Captulo 2, se deduz que, se xk+1 esta definido, gk+1 e ortogonal aSk. Se, nesse caso, gk+1 = 0, deduzimos que gk+1 nao pode ser combinacaolinear de g0, g1, . . . , gk, portanto, com breve raciocnio indutivo, conclumos

    que o conjunto {g0, g1, . . . , gk+1} e linearmente independente.

  • 7/23/2019 Otimizao e metodos numericos(1)

    55/262

  • 7/23/2019 Otimizao e metodos numericos(1)

    56/262

    4.1. QUADRATICAS SEM RESTRIC OES 49

    k n tal que xk e uma solucao do sistema (4.1.2) (ponto estacionario de(4.1.1)).

    Prova: Suponhamos que o Algoritmo 4.1.10 nao pare por inexistencia demnimo. Entao, para cada iteracao k em que gk+1 e nao nulo, temos que

    dim(Vk+1) = dim(Vk) + 1.

    Portanto, se chegamos a completar n iteracoes com gradientes nao nulos,teremos dim(Vn1) = n. Isso implica que Vn1 = IRn e, portanto, xn esolucao de (4.1.1). QED

    O resultado a seguir estabelece uma propriedade importante satisfeita pelosincrementos sk, conhecida como G-conjugacao ou G-ortogonalidade. A de-nominacao gradientes conjugados tem como origem o fato deste metodo sebasear em direcoes G-conjugadas.

    Teorema 4.1.13Se {xk} e uma seq uencia gerada pelo Algoritmo 4.1.10, os incrementos sk =xk+1 xk, k = 0, 1, . . . sao G-conjugados, isto e, para todo k 1 vale

    sTj Gsk = 0 , j = 0, 1, . . . , k 1. (4.1.11)

    Mais ainda, se g0, g1, . . . , gk1 sao nao nulos e xk esta bem definido, entao

    sTj Gsj > 0 para todo j = 0, 1, . . . , k 1. (4.1.12)

    Prova: Ja sabemos que gk+1 Sk = Span{g0, g1, . . . , gk} = Span{s0, . . . , sk}.Entao,

    gk+1 sj , j = 0, 1, . . . , k . (4.1.13)Agora, pela definicao de sk, e por calculos elementares,

    gk+1 = gk + Gsk. (4.1.14)

    Pre-multiplicando (4.1.14) por sTj , paraj = 0, . . . , k1, por (4.1.13) segue-se(4.1.11).Agora provaremos (4.1.12). Se gj = 0, temos que xj+1 esta bem definido,e nao pertence a

    Vj

    1, portanto sj

    = 0 e gTj sj < 0. Mas, pela definicao

    de xj+1, t = 1 deve ser minimizador de q(xj + tsj). Como esta funcao

  • 7/23/2019 Otimizao e metodos numericos(1)

    57/262

  • 7/23/2019 Otimizao e metodos numericos(1)

    58/262

    4.1. QUADRATICAS SEM RESTRIC OES 51

    pode ser efetuada, contrariamente a intuicao inicial, com trabalho e memoriamnimos. Alem disso, mostramos que a expressao obtida para sk e unica,eliminando a aparente liberdade existente na escolha do minimizador em Vkno Algoritmo 4.1.10.

    Lembrando que Gsk1 = gk

    gk1, e gk

    gk1, da formula (4.1.15) se

    deduz que

    dk = gk gTk gk

    sTk1gk1sk1 = gk g

    Tk gk

    dTk1gk1dk1. (4.1.17)

    Alem disso, como dk1 e a soma de gk1 mais uma combinacao dos gra-dientes anteriores, e esses gradientes sao ortogonais a gk1, (4.1.17) toma aforma

    dk = gk + k1dk1, onde k1 = gTk gk

    gTk1gk1. (4.1.18)

    Finalmente, usando, tambem, que sk e combinacao de gk e dos gradientesanteriores, a formula (4.1.16) deriva em

    xk+1 = xk + kdk onde k =gTk gk

    dTk Gdk. (4.1.19)

    As expressoes (4.1.18) e (4.1.19) descrevem o algoritmo de gradientes con- jugados de maneira mais operativa. Para fixar ideias, enunciamos de novoo Algoritmo 4.1.10 de maneira computacionalmente adequada.

    Algoritmo 4.1.14 - Gradientes conjugados

    Comecamos com x0 arbitrario e d0 =

    g(x0). Dados xk, gk e dk

    IRn, asequencia de pontos xk (a mesma definida no Algoritmo 4.1.10) e obtida daseguinte maneira:

    Se gk = 0, pare declarando convergencia. Se dTk Gdk 0 pare

    declarando inexistencia de mnimo de (4.1.9). Se gk = 0 e dTk Gdk > 0calcule

    xk+1 = xk + kdk , (4.1.20)

    onde k =gTk gk

    dTk Gdk; (4.1.21)

    gk+1 = gk + kGdk ; (4.1.22)

    dk+1 = gk+1 + kdk , (4.1.23)

  • 7/23/2019 Otimizao e metodos numericos(1)

    59/262

    52 CHAPTER 4. MINIMIZAC AO DE QUADRATICAS

    onde k =gTk+1gk+1

    gTk gk. (4.1.24)

    E interessante observar que nos casos em que o algoritmo para por inex-istencia de mnimo, o vetor dk fornece uma direcao ao longo da qual q tende

    a . Com efeito, se dT

    k Gdk < 0, a parabola q(xk + tdk) tem coeficientede segunda ordem menor que 0 e, em consequencia, tende a nos doissentidos possveis. Se dTk Gdk = 0 a expressao (4.1.23) mostra que a derivadadirecional ao longo de dk e negativa e a parabola q(xk + tdk) e, na realidade,uma reta decrescente. Portanto, a funcao tende a quando t .

    Com base nos resultados anteriores sabemos que, no maximo em n passos,o metodo dos gradientes conjugados encontra uma solucao do sistema linear(4.1.2) ou uma direcao ao longo da qual a quadratica tende a . Veremosagora que, muitas vezes, o numero necessario de passos e bem menor.

    Teorema 4.1.15O subespaco de Krylov da matriz G, definido por

    K(G, g0, k) = Span{g0, Gg0, . . . , Gk1g0},

    coincide com Sk.

    Prova: A prova e feita por inducao. Para k = 1, o resultado claramentevale. Suponhamos que Sk = Span{g0, Gg0, . . . , Gk1g0} e vamos mostrarque Sk+1 = Span{g0, Gg0, . . . , Gkg0}. Por (4.1.22), gk = gk1 + k1Gdk1.Pela hipotese de inducao e pelo fato de que Sk = Span{g0, . . . , gk1} =Span{d0, . . . , dk1}, tanto gk1 quanto Gdk1 pertencem a Span{g0, . . . , Gkg0}.Alem disso, gk Sk pois senao gk = 0, ja que g

    Tk dj = 0 , j = 0, . . . , k 1.

    Portanto, Sk+1 = Span{g0, Gg0, . . . , Gkg0}, o que completa a prova. QED

    Lema 4.1.16A dimensao de Sk e, no m aximo, o numero de autovalores distintos da ma-triz G.

    Prova: Seja QQT a decomposicao espectral da matriz G e chamemosv = QTg0. Entao, pelo Teorema 4.1.15,

    Sk = Span{g0, Gg0, . . . , Gk1g0}= Span

    {QQTg0, QQ

    Tg0, . . . , Qk1QTg0

    }= Span{Qv,Qv , . . . , Qk1v} .

  • 7/23/2019 Otimizao e metodos numericos(1)

    60/262

    4.1. QUADRATICAS SEM RESTRIC OES 53

    Portanto, a dimensao de Sk e a mesma que a do subespaco Span{v, v , . . . , k1v}e e facil ver que esta dimensao nao pode exceder o numero de autovaloresdistintos de G (elementos da diagonal de ). QED

    Com base no Lema 4.1.16, a terminacao finita do Algoritmo 4.1.10 pode ser

    reescrita da seguinte forma:

    Teorema 4.1.17O metodo de gradientes conjugados aplicado ao problema (4.1.1) encontrauma solucao do sistema Gx + b = 0 ou calcula uma direcao ao longo da quala quadratica tende a em no maximo p passos, onde p e o n umero deautovalores distintos de G.

    Apesar do resultado estabelecido no Teorema anterior, o metodo dos gradi-entes conjugados pode ser intoleravelmente lento em problemas de grandeporte, se os autovalores diferentes sao muitos, ou se o numero de condicao da

    matriz e grande. Por exemplo, nas matrizes provenientes de discretizacoes daequacao de Laplace, a medida que o numero de pontos cresce, o numero decondicao de G tambem aumenta muito e os autovalores sao todos diferentes.Nesses casos, estrategias para acelerar o metodo tornam-se necessarias. Tradi-cionalmente, o que se faz e construir um problema equivalente ao originalmas que seja mais favoravel para o metodo, isto e, no qual a matriz Hes-siana tenha um menor numero de autovalores distintos e/ou tenha numerode condicao menor. Tal estrategia e conhecida por precondicionamento.Vamos supor que, de alguma forma, conhecemos uma matriz H parecidacom G e que H e simetrica definida positiva. Suponhamos que a decom-posicao espectral de H e H = QQT . Entao, H

    1

    2 = Q1

    2 QT e a matrizH

    1

    2 GH1

    2 estaria muito proxima da matriz identidade. Desta forma,H seria um precondicionador adequado, ja que o problema original (4.1.1)ficaria equivalente ao seguinte problema precondicionado:

    Minimizar1

    2wTH

    1

    2 GH1

    2 w + dTw + c

    onde w = H1

    2 x, d = H1

    2 b e o sistema H1

    2 GH1

    2 w + d = 0 teria resolucaofacil pois H

    1

    2 GH1

    2 I.A arte do precondicionamento consiste em encontrar H parecida com G demaneira que tanto H quanto H1 sejam faceis de calcular. Um precondi-cionador classico e tomar H como a diagonal de G. Tambem e usual adotarH como uma fatoracao de Cholesky incompleta de G.

  • 7/23/2019 Otimizao e metodos numericos(1)

    61/262

  • 7/23/2019 Otimizao e metodos numericos(1)

    62/262

  • 7/23/2019 Otimizao e metodos numericos(1)

    63/262

  • 7/23/2019 Otimizao e metodos numericos(1)

    64/262

    4.2. QUADRATICAS EM BOLAS 57

    Os teoremas acima mostram que, se existe uma solucao z do problema (4.2.1)situada na fronteira da bola, ela deve satisfazer, com seu multiplicador cor-respondente , as seguintes equacoes:

    (G + I)z = b, z = . (4.2.9)

    Alem disso, 0 e G + I 0. Solucoes de (4.2.1) no interior da bolaso podem existir se G e semidefinida positiva e, nesse caso, z, com normamenor que , deve ser solucao de (4.1.2).Se 1 . . . n sao os autovalores de G, a condicao G+I 0 e equivalentea 1. Assim, as duas limitacoes sobre o multiplicador , para detectarsolucoes na fronteira, se resumem em

    maximo {0, 1}. (4.2.10)

    Portanto, para encontrar as solucoes de (4.2.1) na superfcie da bola de umamaneira ingenua, dividimos o problema em duas questoes:

    (a) Existem solucoes com > 1?(b) 1 e solucao de ()?A segunda questao pode ser eliminada se 1 > 0, ou seja, se G e definidapositiva.Examinemos a questao (a). Na regiao > 1 o sistema (G + I)z = b temcomo solucao unica z = (G+ I)1b ja que, neste caso, G+ I e inversvel.Portanto, encontrar > 1 satisfazendo () e equivalente a resolver

    (G + I)1b = . (4.2.11)ou

    () = 2, (4.2.12)

    onde () (G + I)1b2. Parece bastante relevante, em consequencia,estudar a forma da funcao univariada (). Consideremos a decomposicaoespectral G = QQT, onde Q = (v1, . . . , vn), vi IRn e = diag (1, . . . , n).Pela invariancia da norma euclidiana sob transformacoes ortogonais, a funcao() pode ser escrita como:

    () = dT( + I)2d =n

    i=1

    d2i(i + )2

    , (4.2.13)

    onde d = QTb. A expressao (4.2.13) revela que

    lim () = 0. (4.2.14)

  • 7/23/2019 Otimizao e metodos numericos(1)

    65/262

    58 CHAPTER 4. MINIMIZAC AO DE QUADRATICAS

    Ao mesmo tempo,lim

    1+() = (4.2.15)

    se, e somente se, di = [QTb]i = 0 para algum i tal que 1 = i. Neste caso,

    () e estritamente decrescente e convexa. Isto significa que, quando b nao

    e perpendicular ao subespaco de autovetores associado ao menor autovalorde G, a equacao () tem uma unica solucao para > 1, qualquer queseja . Se essa solucao e maior ou igual a 0, (G + I)1b sera o unicominimizador global de (4.2.1).Quando b e p erpendicular ao subespaco de autovetores associado ao menorautovalor de G a expressao de () e

    () =n

    i=

    d2i(i + )2

    ,

    onde e o ndice do menor autovalor diferente de 1. Portanto, nesse caso,

    (1) = ni=

    d2i(i 1)2 ,

    e uma unica solucao de () maior que 1 existira se, e somente se, (1) >. Quando isso acontece, a funcao tambem e convexa e estritamentedecrescente.A analise acima esgota o exame da existencia de solucoes de () maiores que1. Suponhamos agora que existe z na fronteira da bola tal que (G 1I)z = b. A matriz G 1I e singular, portanto o sistema consideradotem infinitas solucoes, e podemos considerar a solucao de norma mnima x.Usando a decomposicao espectral, temos

    ( 1I)QTx = QTb = d,

    ou seja(i 1)[QTx]i = di para i = , . . . , n . (4.2.16)

    Os graus de liberdade da equacao (4.2.16) sao usados, na solucao de normamnima, escolhendo

    [QTx]i = 0, para i = 1, . . . , 1. (4.2.17)

    De (4.2.16) e (4.2.17) e facil deduzir que

    lim1(G + I)1

    b = x

  • 7/23/2019 Otimizao e metodos numericos(1)

    66/262

  • 7/23/2019 Otimizao e metodos numericos(1)

    67/262

    60 CHAPTER 4. MINIMIZAC AO DE QUADRATICAS

    4.3 Quadraticas em caixas

    Em muitos problemas praticos em que se deseja ajustar um modelo lineara um conjunto de dados empricos, os parametros desconhecidos tem sen-tido fsico apenas em uma determinada regiao do espaco. Nesses casos, em

    vez de um problema puro de quadrados mnimos teremos um problema dequadrados mnimos com restricoes. A situacao mais comum e quando cadaparametro nao pode ser inferior a determinada cota, nem superior a outra.Nesse caso, o conjunto de restricoes toma a forma

    li xi ui para todo i = 1, . . . , n ,ou, mais brevemente,

    l x u.O conjunto IRn formado pelos pontos que satisfazem essas restricoesse diz uma caixa de IRn, denominacao mais confortavel que a alterna-tiva hiperparaleleppedo. E conveniente admitir os valores

    para

    li e + para ui, ja que, as vezes, apenas algumas variaveis estao natu-ralmente limitadas e, outras, a limitacao e somente inferior, ou superior.Em problemas fsicos e muito comum que as incognitas, representando de-terminados coeficientes, devam ser positivas, em cujo caso e o ortante{x IRn | xi 0, i = 1, . . . , n}.Entretanto, como no caso da minimizacao em bolas, o problema de mini-mizacao de quadraticas em caixas nao tem interesse apenas por sua aplicacaodireta. Como veremos mais adiante, este tambem e um subproblema muitoutilizado, de maneira iterativa, quando o objetivo ultimo e resolver um prob-lema mais complicado, por exemplo, a minimizacao de uma funcao geral (naoquadratica) numa caixa. Nesses casos, a matriz G sera a Hessiana da funcao

    objetivo num ponto dado e, como nada se sabe a priori sobre os autoval-ores dessa matriz, e imp ortante considerar nao apenas o caso convexo, comotambem o caso em que a matriz nao e semidefinida positiva.Veremos que, contrariamente a minimizacao em bolas, em que p odamos re-conhecer perfeitamente um minimizador global mesmo no caso nao convexo,os algoritmos praticos que apresentaremos deverao se contentar com pontosestacionarios. Garantir um minimizador global nestes problemas e p ossvel,mas apenas atraves de metodos muito caros computacionalmente. Ver [194].

    Nosso problema e, pois,

    Minimizar q(x)

    sujeita a x , (4.3.1)

  • 7/23/2019 Otimizao e metodos numericos(1)

    68/262

  • 7/23/2019 Otimizao e metodos numericos(1)

    69/262

    62 CHAPTER 4. MINIMIZAC AO DE QUADRATICAS

    Se G 0 a quadratica e convexa e (4.3.4) passa a ser uma condicao suficientepara minimizador global.Quando restringimos a funcao quadratica a uma face aberta FI, as variaveislivres sao apenas as que se encontram estritamente entre os limites definidospelo conjunto I. O vetor definido a seguir e o inverso aditivo do gradiente

    em relacao a essas variaveis livres. Assim, para cada x FI definimosgI(x) IRn como

    gI(x)i =

    0 se i I ou n + i I

    [q(x)]i nos outros casos. (4.3.5)

    Observamos que gI(x) e a projecao ortogonal de q(x) em S(FI). Tambempodemos interpretar gI(x) como a componente de gP(x) no subespacoS(FI). Naturalmente, gP(x) tem uma segunda componente, ortogonal aS(FI), que chamamos gradiente chopado e denotamos por g

    CI (x). Dessa

    maneira, para cada x FI,

    gCI (x)i =

    0 se i / I e n + i / I0 se i I e [q(x)]i > 00 se n + i I e [q(x)]i < 0

    [q(x)]i nos outros casos.

    (4.3.6)

    Como mencionamos acima, e facil ver que, para todo x FI, o gradienteinterno gI(x) e ortogonal ao gradiente chopado, e

    gP(x) = gI(x) + gCI (x) .

    O algoritmo para minimizar quadraticas em caixas que apresentaremos pro-duz uma sequencia

    {xk

    }de aproximacoes da solucao de (4.3.1) baseada na

    minimizacao parcial da quadratica nas diferentes faces visitadas. Quandoxk pertence a uma face FI, um algoritmo interno para minimizacao dequadraticas irrestritas sera acionado, trabalhando apenas com as variaveislivres da face. A suposicao basica sera que esse algoritmo e convergente nosentido de que ele produz, em um numero finito de passos um ponto externoa (mas pertencente, naturalmente, a V(FI)), ou que todo ponto limite doalgoritmo e um ponto estacionario do problema, essencialmente irrestrito, deminimizar q(x) sujeita a x V(FI). Em outras palavras, o algoritmo internoencontra um ponto estacionario restrito a FI ou viola as restricoes inativasdessa face. Em cada passo do algoritmo interno, verificamos se ele ja estabastante perto de um ponto estacionario em FI. Para isso, comparamos

    o tamanho do gradiente chopado com o tamanho do gradiente projetado.

  • 7/23/2019 Oti