100
UNIFEI Universidade Federal de Itajubá Programa de Pós-Graduação em Engenharia Elétrica Pró-Diretoria de Pesquisa e Pós-Graduação Estudo de Aplicação do Algoritmo de Otimização por Enxame de Partícula na Resolução de Problemas de Otimização Ligados ao SEP Área de Sistemas Elétricos de Potência Ahmed Ali Abdalla Esmin

Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

  • Upload
    others

  • View
    3

  • Download
    1

Embed Size (px)

Citation preview

Page 1: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

UNIFEI Universidade Federal de Itajubá

Programa de Pós-Graduação em Engenharia Elétrica

Pró-Diretoria de Pesquisa e Pós-Graduação

Estudo de Aplicação do Algoritmo de Otimização por Enxame de Partícula na Resolução de Problemas de Otimização

Ligados ao SEP

Área de Sistemas Elétricos de Potência

Ahmed Ali Abdalla Esmin

Page 2: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

Estudo de Aplicação do Algoritmo de Otimização por Enxame de Partícula na Resolução de Problemas de Otimização

Ligados ao SEP

ORIENTADORES: PROF. GERMANO LAMBERT TORRES

PROF. ANTONIO CARLOS ZAMBRONI DE SOUZA

TESE APRESENTADA À UNIVERSIDADE FEDERAL DE ITAJUBÁ - UNIFEI

COMO REQUISITO DO PROGRAMA DE DOUTORADO

ITAJUBÁ ESTADO DE MINAS GERAIS – BRASIL

ABRIL / 2005

Page 3: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

Ficha catalográfica elaborada pela Biblioteca Mauá – Bibliotecária Jacqueline R. de Oliveira Balducci- CRB_6/1698

E74e Esmin, Ahmed Ali Abdalla. Estudo de Aplicação do Algoritmo de Otimização por Enxame de Partícula na Resolução de Problemas de Otimização Ligados ao SEP / por Ahmed Ali Abdalla Esmin. -- Itajubá (MG) : [s.n.], 2005. 99 p. : il. Orientador : Prof. Dr. Germano Lambert Torres Orientador : Prof. Dr. Carlos Zambroni de Souza Tese (Doutorado) – Universidade Federal de Itajubá - Departamento de Elétrica. 1. Otimização. 2. Otimização por Enxame de Partícula. 3. Sistemas Híbridos. 4. Sistemas Inteligentes Evolutivos. 5. Otimização de Perdas Elétricas. 6. Colapso de Tensão. I. Torres, Germano Lambert, orient. II. Souza, Carlos Zambroni de, orient. III. Universidade Federal de Itajubá. IV. Título. CDU 004.421(043)

Page 4: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

À meus pais, pelo carinho e apoio apesar da distancia À meus filhos, Tamara, Tarik e Tamires, pelo carinho

À minha esposa, Gilvanete, pela compreensão

Page 5: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

Agradecimentos

Manifesto meus sinceros agradecimentos às seguintes pessoas e instituições:

• Aos Professores Germano Lambert Torres e Antonio Carlos Zambroni de Souza, pela amizade e valiosa orientação que tornou possível a conclusão deste trabalho

• Aos colegas de doutorado da UNIFEI, pelo apoio • À Universidade Federal de Engenharia de Itajubá, através do Instituto de

Engenharia Elétrica, pela oportunidade de capacitação

• À Fundação Educacional Comunitária Formiguense - FUOM, pelo apoio

• À CAPES, pelo auxílio

• A minha esposa e meus filhos pelo apoio e dedicação

• E a todas as pessoas que, direta ou indiretamente, contribuíram para a realização deste trabalho

Page 6: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

RESUMO

Esta tese apresenta um estudo sobre as técnicas de otimização evolutivas e mais especificamente sobre o algoritmo de Otimização por Enxame de Partícula (PSO). Um estudo sobre o comportamento do algoritmo PSO é realizado e um novo algoritmo chamado de Algoritmo de Otimização por Enxame de Partícula Híbrido com Mutação (HPSOM) é apresentado. Este trabalho apresenta também os algoritmos PSO e HPSOM como ferramentas para o estudo da redução de perdas elétricas. Este problema pode ser formulado como um problema de otimização não linear. A aplicação proposta consiste em usar um Fluxo de Potência Ótimo (FPO) baseado na função da minimização de perdas. O estudo é realizado em duas etapas. Primeiramente, usando a técnica do vetor do tangente, a área crítica do sistema de potência é identificada sob o ponto da vista da colapse da tensão. Em seguida, uma vez que esta área é identificada, os algoritmos PSO e HPSOM entram em ação calculando a quantidade de compensação shunt para cada barra do sistema. O modelo proposto foi examinado e testado com resultados promissores usando os sistemas IEEE 14,30, 57 e 118 barras.

Page 7: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

ABSTRACT

This thesis presents particle swarm optimization (PSO) as a tool for loss reduction study. This issue can be formulated as a nonlinear optimization problem. The proposed application consists of using a developed optimal power flow (OPF) based on loss minimization (LM) function by expanding the original PSO. The study is carried out in two steps. First, by using the tangent vector technique, the critical area of the power systems is identified under the point of view of voltage instability. Second, once this area is identified, the PSO technique calculates the amount of shunt reactive power compensation that takes place in each bus. The proposed approach has been examined and tested with promising numerical results using the IEEE 14, 30, 57, and 118 buses systems.

Page 8: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

i

Índice

Capítulo 1 Introdução ..................................................................................................... 1 1.1 MOTIVAÇÃO ............................................................................................................ 2 1.2 OBJETIVOS............................................................................................................... 2 1.3 METODOLOGIA ........................................................................................................ 2 1.4 ORGANIZAÇÃO ........................................................................................................ 3

Capítulo 2 Revisão Bibliográfica.................................................................................... 4 2.1 OTIMIZAÇÃO............................................................................................................ 4

2.1.1 Otimização Local............................................................................................ 5 2.1.2 Otimização Global.......................................................................................... 5

2.2 COMPUTAÇÃO EVOLUCIONÁRIA (CES).................................................................... 6 2.2.1 Histórico ......................................................................................................... 7

2.3 ALGORITMOS GENÉTICOS (AG’S) ........................................................................... 7 2.3.1 Características Gerais dos Algoritmos Genéticos ......................................... 8 2.3.2 Operadores Genéticos .................................................................................. 10 2.3.3 Parâmetros Genéticos .................................................................................. 11

2.4 OTIMIZAÇÃO POR ENXAME DE PARTÍCULAS (PSO) ............................................... 12 2.4.1 O Algoritmo PSO.......................................................................................... 12 2.4.2 O Comportamento do PSO........................................................................... 15 2.4.3 Considerações sobre a semelhança entre PSO e EAs.................................. 16 2.4.4 Origens e Terminologia................................................................................ 16 2.4.5 Modelo do Melhor Global (gbest) ................................................................ 17 2.4.6 O Modelo do Melhor Local ( Lbest )............................................................ 17 2.4.7 A Versão Binária do PSO............................................................................. 18

2.5 AS PRINCIPAIS PROPOSTAS DE MELHORIAS DO PSO ............................................ 19 2.5.1 Melhorias na Taxa de Convergência............................................................ 19

Capítulo 3 Uma aplicação: O Ajuste Automático das Funções de Pertinência Fuzzy Usando PSO 21

3.1 INTRODUÇÃO......................................................................................................... 21 3.2 O PACOTE COMPUTACIONAL ORIGINAL ................................................................ 22 3.3 SIMULAÇÕES ......................................................................................................... 23 3.4 DESCRIÇÃO DO MÓDULO TREINAMENTO PSO....................................................... 24 3.5 COMPONENTES DO ALGORITMO PSO .................................................................... 25

3.5.1 Representação das Soluções usando PSO.................................................... 27 3.5.2 Função de Avaliação e o Critério de Parada............................................... 27 3.5.3 Apresentação do Algoritmo.......................................................................... 27

3.6 TESTES .................................................................................................................. 28 3.7 CONSIDERAÇÕES SOBRE ESTA APLICAÇÃO............................................................. 32

Capítulo 4 Um novo algoritmo: Algoritmo Híbrido de Otimização por Enxame de Partícula com Mutação – HPSOM.................................................................................... 34

4.1 INTRODUÇÃO......................................................................................................... 34

Page 9: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

ii

4.2 O ALGORITMO HPSOM ........................................................................................ 35 4.3 TESTES E EXPERIMENTO......................................................................................... 36 4.4 DISCUSSÕES DOS RESULTADOS ............................................................................. 41

Capítulo 5 Aplicação do PSO e HPSOM na Resolução de Problema de Otimização de Perdas Elétricas ............................................................................................................. 43

5.1 OTIMIZAÇÃO DE PERDAS ELÉTRICAS..................................................................... 43 5.1.1 Formulação do Problema............................................................................. 43 5.1.2 Metodologia.................................................................................................. 45 5.1.3 Análise Preliminar dos resultados ............................................................... 46 5.1.4 Identificação das Áreas ................................................................................ 47 5.1.5 Exemplo de aplicação usando Sistema de 4 barras ..................................... 49 5.1.6 Simulação do Sistema IEEE14 barras ......................................................... 53 5.1.7 Simulação do Sistema IEEE30 barras ......................................................... 60 5.1.8 Simulação do Sistema IEEE57 barras ......................................................... 66 5.1.9 Simulação do Sistema IEEE118 barras ....................................................... 70 5.1.10 Considerações sobre a aplicação................................................................. 75

Capítulo 6 Conclusões ................................................................................................... 76 6.1 CONTRIBUIÇÕES ALCANÇADAS ............................................................................. 77 6.2 PROPOSTAS DE TRABALHO FUTURO ...................................................................... 77

Referências Bibliográficas ................................................................................................. 79

Apêndice A Dados do Sistema de 4 Barras ................................................................... 86

Apêndice B Publicações Associadas ao Trabalho e Realizadas no Período............... 87

Apêndice C Artigo da Tese Publicado no IEEE – Transactions on Power Systems .88

Page 10: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

iii

Índice de Tabelas

Tabela 3.1 – Posições iniciais para o treinamento. ............................................................. 29 Tabela 3.2 – Parâmetros do PSO. ........................................................................................ 29 Tabela 3.3 – Iterações após o treinamento com PSO. ......................................................... 30 Tabela 3.4 – Resultados de Simulações. .............................................................................. 32 Tabela 4.1- O espaço de busca e os valores iniciais das funções de teste........................... 37 Tabela 4.2 - Resultados de média da melhor aptidão para 100 execuções (médio da

melhor aptidão ± erro padrão)..................................................................................... 38 Tabela 4.3- Resultados de média da melhor aptidão para 100 execuções - PSO, HPSOM e

AG- (médio da melhor aptidão ± erro padrão) ............................................................ 41 Tabela 4.4 - As taxas de cruzamento e mutação usados pelo AG (padrão)......................... 41 Tabela 5.1 –Parâmetros utilizados para as simulações....................................................... 46 Tabela 5.2 – Parâmetros do PSO/HPSOM utilizados para as simulações.......................... 47 Tabela 5.3- Quantidade de Barras de Controle ................................................................... 48 Tabela 5.4- Relação dos sistemas com respectivas Barras Criticas .................................... 49 Tabela 5.5- A população inicial - sistema 4 barras ............................................................. 49 Tabela 5.6- Relação das partículas e o seu valor de perdas - sistema 4 barras.................. 50 Tabela 5.7(a)- Relação das partículas e suas velocidades – sistema 4 barras (PSO)......... 50 Tabela 5.7(b)- A nova população (1ª- Iteração) – sistema 4 barras (PSO)......................... 50 Tabela 5.7 (c)- O melhor individual de cada partícula – sistema 4 barras (PSO) ............ 50 Tabela 5.7(d)- A população da última (5ª- Iteração) – sistema 4 barras (PSO) ................ 51 Tabela 5.7(e)- O melhor global de cada partícula – sistema 4 barras (PSO) ................... 51 Tabela 5.8(a)- Relação das partículas e suas velocidades – sistema 4 barras (HPSOM)... 51 Tabela 5.8(b)- A nova população (1ª- Iteração) – sistema 4 barras (HPSOM) .................. 52 Tabela 5.8(c)- As partículas sorteados para a Mutação – sistema 4 barras (HPSOM) ...... 52 Tabela 5.8(d)- A nova população antes e depois da Mutação – sistema 4 barras (HPSOM)

...................................................................................................................................... 52 Tabela 5.8(e)- Relação das partículas e o seu valor de perdas - sistema 4 barras (HPSOM)

...................................................................................................................................... 52 Tabela 5.8 (f)- O melhor individual de cada partícula – sistema 4 barras(HPSOM) ....... 52 Tabela 5.8(g)- A população da última (5ª- Iteração) – sistema 4 barras (HPSOM) .......... 53 Tabela 5.8(h)- O melhor global de cada partícula – sistema 4 barras (HPSOM)............. 53 Tabela 5.9 - Resultados obtidos pelo MPC – Sistema – IEEE 14 ....................................... 53 Tabela 5.10 - Resultados obtidos pelo PSO no sistema IEEE 14 – barras Criticas .......... 54 Tabela 5.11 - Resultados obtidos pelo HPSOM sistema IEEE 14 – barras Criticas.......... 55 Tabela 5.12 (a,b) - Resultados obtidos pelos PSO e HPSOM- IEEE 14 – BCS ................. 56 Tabela 5.13 (a,b) - Resultados obtidos pelos PSO/HPSOM- IEEE 14 – BCS criticas ....... 57 Tabela 5.14 - Resultados obtidos pelo MPC – Sistema – IEEE 14 ..................................... 59 Tabela 5.15(a,b) - Resultados obtidos pelos PSO/HPSOM- sistema IEEE 14 – TBS........ 59 Tabela 5.15(c) - Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 14 –

TBS. .............................................................................................................................. 60 Tabela 5.16 - Resultados obtidos pelo MPC – Sistema IEEE 30 ........................................ 61 Tabela 5.17(a,b) - Resultados obtidos pelos PSO/HPSOM- sistema IEEE 30 – BCS ........ 61

Page 11: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

iv

Tabela 5.17(c) -Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 30–BCS....................................................................................................................................... 62

Tabela 5.18 - Resultados obtidos pelo MPC – Sistema IEEE 30 ........................................ 64 Tabela 5.19 (a,b) - Resultados obtidos pelo PSO sistema IEEE 30 – Todas as Barras ..... 64 Tabela 5.19(c) -Resumo dos resultados obtidos pelos PSO/HPSOM-sistema IEEE 30– TBS.

...................................................................................................................................... 65 Tabela 5.20 (a,b) - Resultados obtidos pelo PSO/HPSOM sistema IEEE 30 – TBS-

iteração = 500 .............................................................................................................. 65 Tabela 5.20(c) - Resumo dos resultados obtidos pelo PSO/HPSOM sistema IEEE 30 –

TBS- iteração = 500 ..................................................................................................... 66 Tabela 5.21 - Resultados obtidos pelo MPC – Sistema IEEE57 ......................................... 66 Tabela 5.22(c)-Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 5– BCS.

...................................................................................................................................... 67 Tabela 5.22(a,b) - Resultados obtidos pelo PSO sistema IEEE 57 – Barras Criticas. ....... 68 Tabela 5.23 - Resultados obtidos pelo MPC – Sistema IEEE 57 ........................................ 68 Tabela 5.24(c) Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 5– TBS.

...................................................................................................................................... 69 Tabela 5.24(a,b) - Resultados obtidos pelo PSO sistema IEEE 57 –TBS. .......................... 70 Tabela 5.25 - Resultados obtidos pelo MPC – Sistema IEEE118 ....................................... 71 Tabela 5.26(a,b) - Resultados obtidos pelo PSO sistema IEEE 118 –BCS......................... 71 Tabela 5.26(c) -Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEE118–

CBS. .............................................................................................................................. 72 Tabela 5.27 - Resultados obtidos pelo MPC – Sistema IEEE118 ....................................... 74 Tabela 5.28(a,b) - Resultados obtidos pelo PSO sistema IEEE 118 –TBS. ........................ 74 Tabela 5.28(c) - Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 118 –

TBS. .............................................................................................................................. 75

Page 12: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

v

Índice de Figuras

Figura 2.1 - Um exemplo de função xxxxxf 554212)( 234 −+−= , com o

mínimo local *Ax e o mínimo global

*x . .............................................................. 6 Figura 2.2 - Indivíduos de uma população e a sua correspondente roleta de seleção. ........... 9 Figura 2.3 – O Pseudocódigo do AGs .................................................................................... 9 Figura 2.5 - Um exemplo de crossover de um ponto. .......................................................... 11 Figura 2.6 - O Pseudocódigo do algoritmo de PSO básico. ................................................. 14 Figura 3.1 - Tela básica do programa. .................................................................................. 22 Figura 3.2 - Exemplos de simulação do pacote computacional. .......................................... 24 Figura 3.3 – Parâmetros das funções de pertinência. ........................................................... 25 Figura 3.4 – Exemplo de ajuste de uma função de pertinência. ........................................... 26 Figura 3.5 – Funções de pertinência originais...................................................................... 28 Figura 3.6 – Posições iniciais de treinamento. ..................................................................... 29 Figura 3.7 – Simulações sem treinamento............................................................................ 30 Figura 3.8– Simulações após treinamento genético. ............................................................ 31 Figura 3.9 – Funções de pertinência após o ajuste com PSO. .............................................. 31 Figura 4.1 - o pseudocódigo do algoritmo HPSOM............................................................. 35 Figura 4.2 – A função Rastrigin em 3D................................................................................ 37 Figura 4.3- PSO versus HPSOM para a função Spherical (esfera) - f1 ................................ 38 Figura 4.4- PSO versus HPSOM model for Rosenbrock function- f2 .................................. 39 Figura 4.5 - PSO versus HPSOM para a função for Griewank - f3 .................................... 39 Figura 4.6 - PSO versus HPSOM para a função Rastrigin - f4............................................. 40 Figure 4.7- Os comportamentos das partículas PSO/HPSOM para a função Esfera .......... 40 (pop = 3)- f1.......................................................................................................................... 40 Figure 5.1 – Sistema elétrico simples................................................................................... 49 Figura 5.2 – A evolução dos algoritmos PSO/HPSOM – IEEE 14- Barras Criticas............ 54 Figure 5.3-: O comportamento das partículas usando PSO/HPSOM - Pop(5)..................... 55 Figure 5.4- A evolução dos algoritmos PSO/HPSOM a partir de 20ª iteração - Pop(5) .. 56 Figure5.5- A evolução dos algoritmos PSO/HPSOM - IEEE14 .......................................... 58 Figure 5.6- A evolução dos algoritmos PSO/HPSOM - IEEE14- Todas as Barras ............ 60 Figure 5.7- A evolução dos algoritmos PSO/HPSOM - IEEE30 - BCS .............................. 62 Figure 5.8- A evolução dos algoritmos PSO/HPSOM - IEEE30 – TBS............................. 63 Figure 5.9 - A evolução dos algoritmos PSO/HPSOM - IEEE57 - BCS ............................ 67 Figura 5.10 - A evolução dos algoritmos PSO/HPSOM- IEEE57 – TBS........................... 69 Figure 5.11 - A evolução dos algoritmos PSO/HPSOM - IEEE118 - BCS ........................ 72 Figure 5.12 - A evolução dos algoritmos PSO/HPSOM - IEEE118 - TBS ........................ 73

Page 13: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

1

Capítulo 1

Introdução

Formas de otimização são importantes na vida cotidiana. Muitos problemas científicos, sociais, econômicos e de engenharia têm parâmetros que podem ser ajustados de forma a produzir um resultado mais desejável. Ao longo dos anos foram desenvolvidas numerosas técnicas para resolver tais problemas.

Técnicas de otimização vêm sendo aplicadas em diversos problemas no Sistema Elétricos de Potência (SEP). Dependendo do enfoco do estudo, a técnica de otimização empregada pode levar em conta algumas simplificações no conjunto das equações. Tais simplificações podem simplificar a solução e conduz a aplicação de técnicas lineares [1,2].

Porém, outros problemas podem requerer uma formulação mais complexa, como os conjuntos de equações envolvidos podem não ser linearizados. Neste caso, devem ser empregadas técnicas não lineares. Um dos problemas não linear analisado em sistemas de potência é o problema de redução de perdas [3] que considera como variáveis de controle, a geração de potência ativa, nível de tensão de geradores, entre outros. Este problema não linear pode ser importante para análise de estabilidade de tensão [4] ou somente melhorar as condições operacionais de sistema [5]. Referências [4] e [5] apresentaram um fluxo ótimo de potência resolvido por método preditor-corretor de pontos interiores baseado em uma função de barreira logarítmica [6]-[8]. A técnica empregada nessas referências também foi aplicada para uma variedade de problemas em sistemas de potência. Outras metodologias, como o métodos quase-Newton e o método de direção conjugada poderiam ser usados para resolver estes problemas. Estes métodos apresentem, em geral, um desempenho satisfatório. A idéia neste trabalho é analisar, mais uma vez, o problema de redução de perdas. Porém, a ferramenta de análise empregada pertence à família de Algoritmo Evolutiva. É uma técnica relativamente nova conhecida como Otimização por Enxame de Partícula (Particle Swarm Optimization - PSO) [9,11], que resolve problemas simulando comportamento de enxame. Esta ferramenta pode ter um amplo campo de aplicações em sistemas de potência. Por exemplo, a referência [9] enfocou nos problemas de minimização de custo de combustível, melhoria de perfil da tensão e melhoria de estabilidade de tensão.

O PSO foi originalmente inspirado no comportamento sócio biológico associado com grupos de pássaros. É um método de otimização baseado em população e foi primeiro proposto pelo Kennedy e Eberhart [10,11]. Algumas das características interessantes do PSO incluem a facilidade de implementação e o fato que nenhuma informação de gradiente é requerida. Pode ser usado para resolver uma gama de diferentes problemas de otimização, incluindo a maioria dos problemas que podem ser resolvidos através dos Algoritmos Genéticos. Neste trabalho, algumas modificações serão incorporadas no método para torná-lo mais robusto. O resultado é um algoritmo novo chamado de algoritmo Híbrido de Otimização por Enxame de Partícula com Mutação (HPSOM).

Page 14: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

2

Este trabalho apresenta e investiga os comportamentos das novas ferramentas (PSO e HPSOM) e também apresenta a aplicação destas ferramentas para resolver o problema de redução de perdas elétricas.

1.1 Motivação

Com a crescente complexidade dos problemas a resolver, sempre haverá uma necessidade por melhores algoritmos de otimização. No caso especifico da área de engenharia elétrica, o Sistema Elétrico de Potência é um sistema dinâmico de grande complexidade e que está aberto à realização de estudos de problemas de otimização em vários campos, como, por exemplo, a otimização de perdas e o estudo de estabilidade.

Por outro lado, o método PSO se apresenta com uma promissora forma de otimização, e como é recente, na literatura não se encontra um estudo mais abrangente de resolução de problemas complexos e sobre tudo ligados ao SEP. Este trabalho se propõe a realizar vários estudos de aplicação e de comportamento do PSO na resolução de problemas complexos ligados ao SEP.

1.2 Objetivos

Podem ser resumidos os principais objetivos deste trabalho como segue: • Realização de estudo teórico sobre o algoritmo PSO e seu comportamento; • Desenvolvimentos de aplicações usando o algoritmo PSO para minimizar as funções de

pertinência fuzzy; • Desenvolver e testar o novo algoritmo HPSOM e provar o seu sucesso quando aplicado

para resolver problemas de otimização local ou global e com melhor desempenho. • A investigação e o desenvolvimento de aplicação usando os algoritmos PSO e HPSOM

para resolver problemas ligados ao SEP como o problema de perdas elétricas.

1.3 Metodologia

Será necessária a realização de estudos teóricos e práticos, iniciando-se por um estudo teórico sobre o PSO e seu comportamento. No caso de estudo de aplicação, será adotada uma metodologia experimental. Será feita uma analise de comportamento e desempenho do PSO onde serão mostrados problemas ligados a atualização da sua velocidade, chamado de problema de estagnação e a proposta de um novo algoritmo para solucionar este problema chamado de HPSOM. Para provar o seu sucesso serão realizados vários experimentos usando tipos diferentes de funções (unimodal e multimodal) envolvendo problemas de minimização.

Para minimizar as perdas elétricas, neste trabalho será utilizado como ação de controle a instalação de capacitância shunt. O cálculo do valor ideal de shunt a ser instalado em cada barra identificada para obedecer à função objetivo (redução de perdas elétricas) é um problema de programação não linear. Os algoritmos PSO e HPSOM serão

Page 15: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

3

implementados individualmente, e os resultados alcançados serão comparados com os resultados obtidos pelo método preditor-corretor de pontos interiores (MPC).

Para cumprir a meta estabelecida acima, a seguinte metodologia será adotada:

a) Através do método do vetor tangente serão identificadas as áreas críticas para redução de perdas elétricas nos sistemas IEEE 14, 30, 57 e 118 barras. Este passo será utilizado pelos algoritmos PSO e HPSOM como foi utilizado pelo MPC.

b) Serão realizadas várias simulações com os algoritmos PSO e HPSOM variando-se o número de população de partículas no enxame e o número de iterações.

c) finalmente os resultados serão analisados e comparados.

1.4 Organização

O Capítulo 2 inicia com uma introdução sobre a teoria de otimização, seguida por uma prévia revisão das técnicas evolutivas existentes, e em especial os Algoritmos Genéticos, usados para resolver problemas de otimização. Seguido por uma descrição da Otimização por Enxame de Partícula, com uma discussão das suas principais modificações é apresentada.

No capítulo 3 será mostrada uma aplicação do PSO para otimizar as funções de pertinência de um controle Fuzzy, através de apresentação de uma ferramenta para o controle de estacionamento de um carro.

Capítulo 4 inicia-se com uma breve analise de comportamento do algoritmo PSO padrão. Em seguida apresentado um novo algoritmo chamado de Algoritmo de Otimização por Enxame de Partícula Híbrido com Mutação (HPSOM), que combine a idéia do enxame de partícula com o conceito de Algoritmos Genéticos. Serão apresentados e discutidos os resultados dos testes entre os dois modelos: PSO e o HPSOM usando funções unimodal e multimodal.

No capítulo 5 será apresentada uma aplicação utilizando os algoritmos PSO e HPSOM para resolução de problemas de otimização ligados ao SEP. Será apresentada a aplicação de otimização de perdas elétricas. E por fim, no capitulo 6 serão apresentadas e discutidos as conclusões e os trabalhos futuros.

Page 16: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

4

Capítulo 2

Revisão Bibliográfica

Este capítulo revisa algumas das definições básicas relacionadas à questão da otimização. Uma discussão breve de Computação Evolucionária e Algoritmos Genéticos é apresentada. As origens da Otimização por Enxame de Partículas são discutidas, seguida por uma avaliação das suas principais características. Finalmente, serão apresentadas as principais extensões e modificações recentemente publicadas.

2.1 Otimização

Pode-se definir a otimização como sendo a tarefa de determinar as “melhores” soluções para certos problemas matematicamente formulados.

Esta tarefa é de grande importância para muitas profissões. Por exemplo, físicos, químicos e engenheiros estão interessados em maximizar a produção ao projetar uma indústria química, levando em consideração certas restrições, como por exemplo custo e poluição. Os economistas e investigadores de operação por suas vezes, têm que considerar a ótima alocação de recursos em colocações industriais e sociais. Alguns destes problemas envolvem apenas modelos lineares, em que as variáveis são contínuas e apresentam comportamento linear, tanto em relação à função objetivo com às restrições, resultando em problemas de otimização linear para os quais existe uma técnica muito eficiente conhecida como programação linear (PL) [12]. Os outros problemas são conhecidos como problemas de otimização não-linear se exibir qualquer tipo de não-linearidade, seja na função objetivo ou em qualquer de suas restrições. São geralmente muito mais difíceis de serem resolvidos. Estes problemas são o foco deste trabalho.

Toda tarefa de busca e otimização possui vários componentes, entre eles: o espaço de busca, onde são consideradas todas as possibilidades de solução de um determinado problema, e a função de avaliação (ou função de custo), que é uma maneira de avaliar os membros do espaço de busca. Existem muitos métodos de busca e funções de avaliação.

As técnicas de busca e otimização tradicionais iniciam-se com um único candidato que, iterativamente, é manipulado utilizando algumas heurísticas (estáticas) diretamente associadas ao problema a ser solucionado. Geralmente, estes processos heurísticos não são algorítmicos e sua simulação em computadores pode ser muito complexa. Apesar destes métodos não serem suficientemente robustos, isto não implica que eles sejam inúteis. Na prática, eles são amplamente utilizados, com sucesso, em inúmeras aplicações [13].

Por outro lado, as técnicas de computação evolucionária operam sobre uma população de candidatos em paralelo. Assim, elas podem fazer a busca em diferentes áreas do espaço de solução, alocando um número de membros apropriado para a busca em várias regiões.

Existem dois tipos de otimização: global e local. A otimização global busca o melhor ponto dentro da totalidade do espaço da busca, enquanto a local tenta encontrar o

Page 17: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

5

melhor ponto dentro de um subespaço especifico. A definição mais completa será dada nas próximas seções.

2.1.1 Otimização Local

Pode-se definir um ponto mínimo local ou simplesmente, o mínimo local, *Ax de uma

função f , para uma determinada região A, da seguinte forma: Axxfxf A ∈∀≤ ),()( * (2.1)

onde nRSA ⊆⊂ e S denota o espaço de busca. Note que S = Rn em problemas sem restrições e note também que A é um subconjunto de S. O espaço de busca S pode conter múltiplas regiões iA tal que φ=ji AA I ; quando ji ≠ . Então, do mesmo modo,

**ji AA xx ≠ , de forma que o ponto mínimo de cada região iA é único. Qualquer

*iAx

pode ser considerado como o mínimo de iA . Não há nenhuma restrição no valor que a função pode assumir para o mínimo, assim sendo )()( **

ji AA xfxf = é permitido. O

valor de )( *iAxf será chamado do mínimo local.

A maioria dos algoritmos de otimização requer um ponto de partida 0x S∈ . Um algoritmo de otimização local deve garantir que será capaz de encontrar o mínimo local

*iAx para um conjunto A, se 0x A∈ .

Muitos algoritmos de otimização local têm sido propostos. Uma distinção será feita entre algoritmos determinísticos, analíticos e os algoritmos estocásticos nas próximas seções . Dentro dos algoritmos determinísticos de otimização local incluem o algoritmo Newton-Raphson [14] e suas variantes, o algoritmo Escalado de Gradiente Conjugado (SCG) [15], o quasi-Newton [14,16] e a sua família de algoritmos.

2.1.2 Otimização Global

O mínimo global, *x de uma função f , pode ser definido da seguinte forma:

Sxxfxf ∈∀≤ ),()( * (2.2) Onde S é o espaço de busca. Para problemas sem restrições é comum usar S = Rn, onde n é a dimensão de x. O algoritmo de otimização global, como no caso dos algoritmos de otimização local descritos acima, também começa pela escolha de um ponto inicial

0x S∈ . Em alguns publicações (por exemplo [14]), há uma definição diferente para o

algoritmo de otimização global, definido como sendo um algoritmo capaz de encontrar o mínimo (local) de SA ⊂ , independentemente da posição atual de 0x . Estes algoritmos consistem em dois processos: O processo dos “passos globais" e o processo dos “ passos locais". Os passos locais normalmente são a aplicação de um algoritmo de otimização

Page 18: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

6

local, e os passos globais são projetados para assegurar que o algoritmo passará para região

iA , onde o processo dos passos locais será capaz de encontrar o mínimo de iA . Estes métodos são chamados de algoritmos globalmente convergentes. Isto significa que eles podem convergir a um mínimo local indiferentemente de sua posição inicial 0z . Estes métodos também são capazes de encontrar o mínimo global. Entretanto, não há nenhum modo geral seguro e conhecido de fazer isto.

A Figura 2.1 ilustra a diferença entre o mínimo local *Ax e o mínimo global

*x .

Figura 2.1 - Um exemplo de função xxxxxf 554212)( 234 −+−= , com o

mínimo local *Ax e o mínimo global

*x .

2.2 Computação Evolucionária (CEs)

Computação evolucionária (CE) define vários métodos projetados para simular a evolução. Estes métodos baseiam-se, para resolver problemas, em população de pontos, e uma combinação de variação aleatória e da seleção. Neste campo existem várias técnicas, incluindo Algoritmos Evolutivos (AEs), Estratégias de Evolução (SE), Programação Evolutivo (PE), Algoritmos Genéticos (AGs) e Programação Genética (PG) [17,18,19].

CEs diferenciam dos métodos tradicionais de otimização em quatro aspectos [13]: 1. Trabalham com codificação do conjunto de parâmetros e não com os próprios

A

*x*Ax

Page 19: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

7

parâmetros; 2. trabalham com uma população e não com um único ponto; 3. utilizam de informações de custo ou recompensa e não derivadas ou outro conhecimento auxiliar; 4. utilizam de regras de transição probabilísticas e não determinísticas.

2.2.1 Histórico

Antes da teoria de evolução apresentada por Charles Darwin e até meados do século 19, os naturalistas acreditavam que cada espécie na natureza havia sido criada separadamente por um ser supremo ou através de geração espontânea. O trabalho do naturalista Carolus Linnaeus levou a comunidade cientifica a acreditar na existência de uma certa relação entre as espécies. Por outro lado, Thomas Robert Malthus propôs que fatores ambientais, tais como doenças e carência de alimentos, limitavam e influenciavam o crescimento de uma população.

Após anos de observações e experimentos, Charles Darwin apresentou em 1858 sua teoria de evolução através de seleção natural, ao mesmo tempo que outro naturalista, Alfred Russel Wallace. No ano seguinte, Darwin publicou o seu livro intitulado “On the Origin of Species by Means of Natural Selection” com a sua teoria completa, sustentada por muitas evidências cientificas.

Por volta de 1900, a moderna teoria da evolução combina a genética e as idéias de Darwin e Wallace sobre a seleção natural, criando o princípio básico de Genética Populacional: a variabilidade entre indivíduos em uma população de organismos que se reproduzem sexualmente é produzida pela mutação e pela recombinação genética.

Durante os anos 30 e 40 este princípio foi desenvolvido por biólogos e matemáticos de grandes centros de pesquisa. Nos anos 50 e 60, muitos biólogos começaram a desenvolver simulações computacionais de sistemas genéticos. Entretanto, foi John Holland quem começou a desenvolver sistematicamente as primeiras pesquisas no tema. Desenvolveu suas idéias e em 1975 publicou o seu livro “Adaptation in Natural and Artificial Systems” [19], hoje considerado a principal referência na área de Algoritmos Genéticos. Desde então, estes algoritmos vêm sendo melhorados e aplicados nos mais diversos problemas de otimização e aprendizado de máquina com sucesso.

2.3 Algoritmos Genéticos (AG’s)

Os Algoritmos Genéticos formam a parte da área dos sistemas inspirados na natureza; simulando os processos naturais e aplicando-os à solução de problemas reais. São métodos generalizados de busca e otimização que simulam os processos naturais de evolução, aplicando a idéia darwiniana de seleção. São capazes de identificar e explorar fatores ambientais e convergir para soluções ótimas, ou aproximadamente.

Na natureza os indivíduos competem entre si por recursos como comida e água. Adicionalmente, entre os animais de uma mesma espécie, aqueles que não obtêm êxito tendem provavelmente a ter um número reduzido de descendentes, tendo, portanto menor probabilidade de seus genes serem propagados ao longo de sucessivas gerações. A combinação entre os genes dos indivíduos que perduram na espécie pode produzir um novo indivíduo muito melhor adaptado às características de seu meio ambiente.

Page 20: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

8

Os Algoritmos Genéticos utilizam uma analogia direta deste fenômeno de evolução na natureza, onde cada indivíduo representa uma possível solução para um problema dado. A cada indivíduo se atribui uma pontuação de adaptação, dependendo da resposta dada ao problema por este indivíduo. Aos mais adaptados é dada uma maior oportunidade de reproduzir-se mediante cruzamentos com outros indivíduos da população, produzindo descendentes com características de ambas as partes. Um Algoritmo Genético desenvolvido de modo adequado possui elevada probabilidade de que a população (conjunto de possíveis respostas) convergirá a uma solução ótima para o problema proposto. Os processos que mais contribuem para a evolução são o cruzamento, mutação e a adaptação baseada na seleção/reprodução. A área biológica mais proximamente ligada aos Algoritmos Genéticos é a Genética Populacional.

Algoritmos Genéticos são eficientes para busca de soluções ótimas, ou aproximadamente ótimas, em uma grande variedade de problemas, pois não impõem muitas das limitações encontradas nos métodos de busca tradicionais. Os pesquisadores referem-se a "algoritmos genéticos" ou a "um algoritmo genético" e não "ao algoritmo genético", pois AGs são uma classe de procedimentos com muitos passos separados, e cada um destes passos possui muitas variações possíveis. Os AGs não são as únicas técnicas baseadas em uma analogia da natureza. Por exemplo, as Redes Neurais estão baseadas no comportamento dos neurônios do cérebro.

2.3.1 Características Gerais dos Algoritmos Genéticos

Os AGs são algoritmos de otimização global que empregam uma estratégia de busca paralela, estruturada e voltada em direção da busca de pontos de "alta aptidão", ou seja, pontos nos quais a função a ser minimizada (ou maximizada) tem valores relativamente baixos (ou altos). Os AGs exploram informações históricas para encontrar novos pontos de busca onde são esperados melhores desempenhos. Isto é feito através de processos iterativos, onde cada iteração é chamada de geração.

O primeiro passo para a utilização de AGs, como ferramenta para solução de problemas, é a representação destes problemas de maneira que os AGs possam atuar adequadamente sobre eles. Tradicionalmente, os indivíduos são representados genotipicamente por um vetor de valores binários, onde cada elemento deste vetor denota a presença (1) ou ausência (0) de uma determinada característica: o seu genótipo. Os elementos podem ser combinados formando as características reais do indivíduo, ou o seu fenótipo. Entretanto, há casos em que é mais adequado o uso de representação numérica.

O princípio básico do funcionamento do AGs é que um critério de seleção vai fazer com que, depois de muitas gerações, o conjunto inicial de indivíduos gere indivíduos mais aptos. Um método de seleção muito utilizado é o Método da Roleta, onde indivíduos de uma geração são escolhidos pelo sorteio para fazer parte da próxima geração através do cruzamento. A Figura 2.2 mostra a representação da roleta para uma população composta por 4 indivíduos.

Os indivíduos são representados na roleta proporcionalmente ao seu índice de aptidão. Finalmente, a roleta é girada um determinado número de vezes, dependendo do tamanho da população, e são escolhidos para participarão da próxima geração, aqueles indivíduos sorteados na roleta.

Page 21: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

9

Figura 2.2 - Indivíduos de uma população e a sua correspondente roleta de seleção.

Um conjunto de operações (operadores) é necessário para que, dada uma população inicial, se consiga gerar sucessivas populações que (espera-se) que melhora sua aptidão com o passar do tempo. Estes operadores utilizados são: cruzamento (crossover) e mutação. Eles são utilizados para assegurar que a nova geração seja totalmente nova, mas possui, de alguma forma, características de seus pais. Para prevenir que os melhores indivíduos não desapareçam e sejam descartados da população pela manipulação dos operadores genéticos, eles podem ser automaticamente colocados na próxima geração através da reprodução elitista.

Esse processo é repetido um determinado número de vezes (numero de gerações). Durante esse processo, os melhores indivíduos, assim como alguns dados estatísticos podem ser armazenados para avaliação. A Figura (2.3) mostrada o pseudocódigo de um algoritmo genético.

Figura 2.3 – O Pseudocódigo do AGs

X12%

X25%

X380%

X413%

I Indivíduo xi

fi(x) Aptidão (x2)

AptidãoRelativa

1 00011 9 0,02 2 00101 25 0,05 3 10100 400 0,8 4 01000 64 0,13

Total 498 1,00

Criar e inicializar: g - geração atual; t – número de gerações para finalizar o algoritmo; P - população

inicio g = 0; inicia_população (P, g) avaliação (P, g); repita:

g = g +1; seleção_dos_pais (P, g);

recombinação (P, g); mutação (P, g); avaliação (P, g); até (g = t)

fim

Page 22: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

10

2.3.2 Operadores Genéticos

Os operadores genéticos transformam a população através de sucessivas gerações, estendendo a busca até chegar a um resultado satisfatório. São necessários para que a população se diversifique e mantenha características de adaptação adquiridas pelas gerações anteriores.

O operador de mutação modifica aleatoriamente um ou mais genes de um cromossomo. A probabilidade de ocorrência de mutação em um gene é denominada taxa de mutação Pm. Usualmente, são atribuídos valores pequenos para a taxa de mutação. A idéia intuitiva por trás desse operador é a criação de variabilidade extra na população, mas sem destruir o progresso já obtido no decorrer do processo evolutivo, como é ilustrado na Figura 2.4, fornecendo assim, meios para introdução de novos elementos na população. Desta forma, a mutação assegura que a probabilidade de se chegar a qualquer ponto do espaço de busca nunca será zero, além de contornar o problema de mínimos locais, pois com este mecanismo, altera-se levemente a direção da busca.

.Figura 2.4 - Exemplo de mutação.

O operador de cruzamento ou recombinação é responsável pela criação de novos

indivíduos por intermédio da combinação de dois ou mais indivíduos (pais). A idéia intuitiva por trás desde operador é a troca de informação entre diferentes soluções candidatas permitindo que características dos pais sejam herdados pelas próximas gerações. Ele é considerado o operador genético mais importante, por isso é aplicado com probabilidade maior que a taxa de mutação e dada pela taxa de crossover Pc. As formas de utilização desse operador são:

• Um-ponto: para a aplicação desse operador, são selecionados dois indivíduos (pais)

e a partir de seus cromossomos são gerados dois novos elementos (filhos). Para gerar os filhos, seleciona-se um ponto de corte aleatoriamente nos cromossomo-pais, de modo que os segmentos a partir do ponto de corte sejam trocados, como mostrado no exemplo da Figura 2.5.

• Multi-pontos: a troca de material genético é feita da mesma forma de um ponto, apenas esta troca é utilizada em muitos pontos.

• Uniforme: como este operador para cada bit no primeiro filho é decidido (com alguma probabilidade fixa p) qual pai vai contribuir com seu respectivo bit para aquela posição.

Page 23: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

11

Figura 2.5 - Um exemplo de crossover de um ponto. (a) dois indivíduos são escolhidos.

(b) um ponto (2) de crossover é escolhido. (c) são recombinadas as características, gerando dois novos indivíduos.

2.3.3 Parâmetros Genéticos

Os parâmetros genéticos influem no comportamento dos Algoritmos Genéticos e é importante, analisá-los e estabelecê-los conforme as necessidades do problema e dos recursos disponíveis.

• Tamanho da População: o tamanho da população afeta de uma forma direta o

desempenho global e a eficiência dos AGs. Uma população pequena oferece uma pequena cobertura do espaço de busca, causando uma queda no desempenho. Uma grande população fornece uma melhor cobertura do domínio do problema e previne a convergência prematura para soluções locais. Entretanto, com uma grande população tornam-se necessários maiores recursos computacionais, ou um tempo maior de processamento do problema.

• Taxa de Cruzamento: quanto mais alta for esta taxa, mais rapidamente novos

indivíduos serão introduzidos na população. Entretanto, isto pode gerar um efeito indesejado, pois a maior parte da população será substituída podendo ocorrer perda de indivíduos com alta aptidão. Com uma taxa baixa, o algoritmo pode ficar muito lento.

• Taxa de Mutação: uma taxa de mutação baixa pode prevenira a população do

problema de estagnação em um determinado valor, além de permitir que se chegue em qualquer ponto do espaço de busca. Com uma taxa muito alta a busca se torna praticamente aleatória.

• Intervalo de Geração: determina a porcentagem da população que será substituída na

próxima geração. Com um valor alto, a maior parte da população será substituída, mas com valores muito altos pode ocorrer perda de indivíduos com alta aptidão. Com um valor baixo, o algoritmo pode ficar muito lento.

Page 24: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

12

2.4 Otimização por Enxame de Partículas (PSO)

O método de otimização denominado Otimização por Enxame de Partículas (PSO) tal como outras meta-heurísticas recentemente desenvolvidas, simula o comportamento dos sistemas fazendo a analogia com comportamentos sociais.

O PSO é um método de otimização baseado em população e foi primeiro proposto pelos Kennedy e Eberhart [10,11]. Possui características interessantes como, a facilidade de implementação nos computadores e o fato que não requer nenhuma informação de gradiente. Pode ser aplicado para resolver uma variedade de diferentes problemas de otimização, incluindo a maioria dos problemas que podem ser resolvidos através dos Algoritmos Genéticos; pode-se citar como exemplo algumas das aplicações, como treinamento de rede neural [20,21,22,23] e a minimizarão de vários tipos de funções [24,25].

Muitos algoritmos de otimizações populares são determinísticos, como os algoritmos baseados em gradientes. O PSO, como o seus similares, que pertencem à família de Algoritmo Evolutiva, é um algoritmo do tipo estocástico que não precisa de gradiente de informações derivadas de função de erro. Isto permite a utilização do PSO em funções onde o gradiente é indisponível ou cuja obtenção está associada a um alto custo computacional.

2.4.1 O Algoritmo PSO

O algoritmo PSO mantém uma população de partículas, onde cada partícula representa uma solução potencial para um problema de otimização. Assume-se que S como sendo o tamanho do enxame. Cada partícula i pode ser representada como um objeto com várias características. Estas características são as seguintes:

xi: A posição atual da partícula; vi: A velocidade atual da partícula; yi: A melhor posição individual alcançada pela partícula.

A melhor posição individual da partícula i representa a melhor posição que a

partícula visitou e onde obteve a melhor avaliação. No caso de uma tarefa de minimização, por exemplo, uma posição que obteve o menor valor da função é considerada como sendo a posição com melhor avaliação ou com mais alta aptidão. O símbolo f será usado para denotar a função objetivo que está sendo minimizada. A equação de atualização para a melhor posição individual é dada pela equação (2.3), utilizando o tempo t explicitamente.

⎩⎨⎧

+>++≤

=+))1(())(()1())1(())(()(

)1(txftyfsetxtxftyfsety

tyiii

iiii (2.3)

Existem duas versões do PSO, chamadas de modelos gbest e lbest (o melhor global e o melhor local) [26]. A diferença entre os dois algoritmos está baseada diretamente na forma com que uma determinada partícula interage com o seu conjunto de partículas. Para

Page 25: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

13

representar esta interação será utilizado o símbolo y . Os detalhes dos dois modelos serão

discutidos por completo mais adiante. A definição do y , como usado no modelo de gbest, é apresentado pela equação (2.4).

{ }

}{ )(),.....,(),())(ˆ(),(min)(ˆ

10 tytytyytyfyfty

s∈=

(2.4)

Note que esta definição mostra que y é a melhor posição até então encontrada por todas as partículas no enxame de tamanho S.

O algoritmo PSO faz uso de duas seqüências aleatórias independentes, )1,0(~1 Ur e )1,0(~2 Ur . Estas seqüências são usadas para dar a natureza estocástica ao algoritmo,

como mostrado abaixo na equação (2.5). Os valores de 1r e 2r são escalados através de

constantes 2,0 21 ≤> cc . Estas constantes são chamadas de coeficientes de aceleração, e exercem influência no tamanho máximo do passo que uma partícula pode dar em uma única iteração. A velocidade que atualiza o passo é especificada separadamente para cada dimensão nj ..1∈ , de forma que jiv , denota a dimensão j do vetor da velocidade

associado com a partícula i . A atualização de velocidade é dada pela seguinte equação:

)]()(ˆ)[(

)]()()[()()1(

,,22

,,,11,,

txtytrc

txtytrctvtv

jijj

jijijjiji

+−+=+ (2.5)

Na definição da equação da atualização de velocidade, a constante 2c regula de uma forma clara o tamanho máximo do passo na direção da melhor partícula global, e a constante 1c regula o tamanho do passo na direção da melhor posição individual daquela

partícula. O valor de jiv , é mantido dentro do intervalo de ],[ maxmax vv− , reduzindo a probabilidade de que uma partícula pode sair fora do espaço de busca. Se o espaço de busca

for definido pelo intervalo ],[ maxmax xx− , então o valor de maxv é calculado da seguinte forma [27]:

maxmax * xkv = , onde 0.11.0 ≥≤ k (2.6) A posição de cada partícula é atualizada usando o seu novo vetor de velocidade:

)1()()1( ++=+ tvtxtx iii (2.7) O algoritmo consiste em aplicação repetida das equações de atualização acima

apresentadas. A Figura 2.6 contém o pseudocódigo do algoritmo de PSO básico.

Page 26: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

14

Figura 2.6 - O Pseudocódigo do algoritmo de PSO básico. A inicialização mencionada no primeiro passo do algoritmo consiste do seguinte: 1. inicialize cada coordenada jix , com um valor aleatório do intervalo ],[ maxmax xx− , para todo o si ..1∈ e nj ..1∈ . Isto distribui as posições iniciais das partículas ao longo do espaço de busca. Deve selecionar um bom algoritmo de distribuição aleatória para obter uma distribuição uniforme no espaço de busca. 2. inicialize cada jiv , com um valor extraído do intervalo ],[ maxmax vv− , para todo o

si ..1∈ e nj ..1∈ . Alternativamente, as velocidades das partículas poderão ser inicializadas com 0 (zero), desde que as posições inicias sejam inicializadas de uma forma aleatória.

A condição de parada mencionado no algoritmo (Figura 2.6) depende do tipo de problema a ser resolvido. Normalmente o algoritmo é executado para um número fixo e pré-determinado de iterações (um número fixo de avaliação de função) ou até alcançar um valor específico de erro. É importante perceber que o termo de velocidade modela a taxa de mudança dentro da posição da partícula. As mudanças induzidas pela equação de atualização de velocidade (2.5) representam aceleração, o que explica por que as constantes

21 , cc são chamados de coeficientes de aceleração.

Uma descrição breve de como o algoritmo trabalha é dada da seguinte forma: Inicialmente, uma partícula qualquer é identificada como sendo a melhor partícula no grupo, baseado na sua aptidão usando a função objetiva. Então, todas as partículas serão

Criar e inicializar: i – particula atual; S – PSO de n-dimensões :

inicio repita:

para cada partícula i = [1..S] se f(S.xi) < f(S. yi) então S. yi = S.xi se f(S.yi) < f(S. y)

então S. y = S. yi fimPara Atualize S usando as equações (2.5 e 2.6)

até a condição da parada seja Verdadeira fim

Page 27: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

15

aceleradas na direção desta partícula, e ao mesmo tempo na direção das próprias melhores posições previamente encontradas. Ocasionalmente as partículas exploram o espaço de busca ao redor da atual melhor partícula. Desta forma, todas as partículas terão a oportunidade para mudar a sua direção e buscar uma nova 'melhor' partícula. Considerando que a maioria das funções têm alguma forma de continuidade, as chances são boas de encontrar as melhores soluções no espaço que cerca a melhor partícula. Aproximação das partículas vindo de diferentes direções no espaço de busca no sentido da melhor solução aumenta as chances de descobrir as melhores soluções que estão na área vizinha da melhor partícula.

2.4.2 O Comportamento do PSO

Foram sugeridas muitas interpretações a respeito do funcionamento e o comportamento do PSO. Kennedy, na sua investigação fortaleceu a visão sócia-biológica do PSO, realizando experiências para investigar as funções dos diferentes componentes da equação de atualização da velocidade [28]. A tarefa de treinar uma rede neural foi usada para comparar o desempenho dos diferentes modelos. Kennedy fez uso do modelo de lbest (veja a seção sobre lbest para uma descrição completa deste modelo), em lugar do modelo gbest.

Para isto desenvolveu duas equações de atualização de velocidade, a primeira, usando apenas a experiência da própria partícula, chamado de componente de cognição, e a segunda, utilizando apenas a interação entre as partículas e chamou de componente social. Considere a equação de atualização de velocidade (2.5) apresentada anteriormente:

)]()(ˆ)[(

)]()()[()()1(

,,22

,,,11,,

txtytrc

txtytrctvtv

jijj

jijijjiji

+−+=+ (2.8)

O termo )]()()[( ,,,11 txtytrc jijij − é associado apenas com a cognição, onde

leva-se em consideração apenas as experiências da própria partícula. Se um PSO for construído com o uso de apenas o componente cognitivo, a equação de atualização de velocidade se tornará :

)]()()[()()1( ,,,11,, txtytrctvtv jijijjiji −+=+ (2.9)

Kennedy constatou que o desempenho deste modelo de “apenas com cognição” era inferior ao desempenho do PSO original. Uma das razões de mal desempenho é atribuído a ausência total da interação entre as diferentes partículas.

O terceiro termo na equação de atualização de velocidade, )]()(ˆ)[( ,,22 txtytrc jijj − , representa a interação social entre as partículas. Uma versão do

PSO com apenas o componente social pode ser construído usando a seguinte equação de atualização de velocidade:

)]()(ˆ)[()()1( ,,22,, txtytrctvtv jijjjiji −+=+ (2.10)

Page 28: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

16

Foi observado que nos problemas específicos que Kennedy investigou, o desempenho deste modelo era superior ao PSO original.

Em resumo, o termo da atualização da velocidade do PSO consiste de dois componentes, o componente de cognição e o componente social. Atualmente, pouco se sabe sobre a importância relativa deles, embora resultados iniciais indiquem que o componente social é mais importante na maioria dos problemas estudados. Esta interação social entre as partículas desenvolve a cooperação entre elas para resolução dos problemas.

2.4.3 Considerações sobre a semelhança entre PSO e EAs

Há uma relação clara do PSO com os algoritmos evolutivos (EAs). Para alguns autores, o PSO mantém uma população de indivíduos que representam soluções potenciais, uma das características encontradas em todos os EAs. Se as melhores posições individuais ( iy ) são tratadas como parte da população, então há uma forma clara de seleção fraca [29]. Em alguns algoritmos de ES, as descendentes (offspring), competem com os pais, substituindo-os se forem mais adaptados. A equação (2.3) se assemelha a este mecanismo, com a diferença que, a melhor posição individual (o pai) só pode ser substituída por sua própria posição atual (descendente), desde que a posição atual seja mais adaptada. Portanto, parece ser alguma forma fraca de seleção presente no PSO.

A equação de atualização de velocidade se assemelha ao operador de cruzamento aritmético (crossover) encontrado nos AGs. Normalmente, o cruzamento aritmético produz dois descendentes que são resultados da mistura de dois pais envolvidos no cruzamento. A equação de atualização de velocidade no PSO, sem o termo )(, tv ji (veja a equação 2.5), pode ser interpretado como uma forma de cruzamento aritmético envolvendo dois pais, devolvendo apenas um único descendente. Alternativamente, a equação de atualização de velocidade, sem o termo )(, tv ji pode ser visto como operador de mutação.

A melhor forma de analisar o termo )(, tv ji é de não pensar em cada iteração como sendo um processo de substituição de população por uma nova (mecanismo de morte e nascimento), mas como um processo de adaptação continuo [30]. Deste modo os valores de ix não são substituídos, mas continuamente adaptados usando os vetores iv de velocidade. Isto torna a diferença entre o PSO e os outros EAs mais clara: o PSO mantém informação relativa a posição e velocidade (mudanças em posição); em contraste, EAs tradicionais só mantêm informação relativa a posição.

Apesar de parecer que há algum grau de semelhança entre o PSO e a maioria do outro EAs, o PSO tem algumas características que atualmente não estão presentes em nenhum outro EAs, especialmente o fato de que o PSO modela a velocidade das partículas como também as suas posições.

2.4.4 Origens e Terminologia

O movimento das partículas foi descrito como sendo "vôo" no espaço de n-dimensionais [26]. Esta terminologia faz parte das experiências realizadas em simulações de vôo de pássaro, e que conduziu o desenvolvimento do algoritmo original do PSO [28], como foi citado pelos autores do PSO, Kennedy e Eberhart.

Page 29: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

17

O termo enxame (swarm) era usado por Millonas para descrever modelos de vidas artificiais [31]. Para ele o termo de inteligência enxame é caracterizado pelas seguintes propriedades : • Proximidade: necessita de espaço simples e pequeno tempo computacional. • Qualidade: Respondendo a fatores de qualidade no ambiente. • Resposta diversa: Não entrando em um subconjunto restrito de soluções. • Estabilidade: Podendo manter modos de comportamentos quando os ambientes mudam. • Adaptabilidade: Podendo mudar modos de comportamentos quando a adaptação for

necessária.

Eberhart et al. [26] apresentou argumentos que demostraram que as partículas do PSO possuem estas propriedades. Também foi justificado o uso do termo “partícula". Para o autor, usar população poderá dar a sensação de que os membros da população precisam de massa e volume, talvez chamar de “pontos" seria o mais preciso. Porém, os conceitos de velocidade e aceleração são mais compatíveis com o termo partícula. Outros campos de pesquisa em computação, como a computação gráfica, também usam o termo "sistemas de partícula” para descrever os modelos usados para fazer efeitos especais e animação [32].

2.4.5 Modelo do Melhor Global (gbest)

O modelo gbest permite uma taxa mais rápida de convergência [26] às custas de robustez. Este modelo mantém só uma única "melhor solução", chamada de melhor partícula global, entre todas as partículas no enxame. Esta partícula age como um atrator, puxando todas as partículas para ela. Eventualmente, todas as partículas convergirão a esta posição. Caso não seja atualizada regularmente, o enxame poderá convergir prematuramente. As equações de atualização para y e iv são as mesmas apresentadas anteriormente:

{ }}{ )(),.....,(),(

))(ˆ(),(min)(ˆ

10 tytytyytyfyfty

s∈=

(2.11)

)]()(ˆ)[(

)]()()[()()1(

,,22

,,,11,,

txtytrc

txtytrctvtv

jijj

jijijjiji

+−+=+ (2.12)

Note que y é chamado de a melhor posição global, e pertence à partícula chamada de a melhor partícula global.

2.4.6 O Modelo do Melhor Local ( Lbest )

O modelo de lbest tenta prevenir convergência prematura mantendo múltiplos atratores. Um subconjunto de partículas é definido para cada partícula de qual é selecionada a melhor partícula local, iy . O símbolo iy é chamado de a melhor posição local ou de melhor na vizinhança (the local best position or the neighbourhood best).

Page 30: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

18

Assumindo que os índices das partículas estão ao redor do espaço S, as equações de atualização de lbest para um bairro de tamanho l são os seguintes:

{})(),....,(

),(),(),.....,(),(

1

11

tytytytytytyN

lii

iililii

++

−+−−= (2.13)

{ } iiii NaaftyfNty ∈∀=+∈+ ,)(min))1(ˆ()1(ˆ (2.14)

)]()(ˆ)[(

)]()()[()()1(

,,22

,,,11,,

txtytrc

txtytrctvtv

jijj

jijijjiji

+−+=+ (2.15)

Note que as partículas selecionadas estão no subconjunto iN e não tem nenhuma relação com as outras partículas dentro do domínio do espaço de busca; a seleção é baseada unicamente no índice da partícula. Isto é feito por duas principais razões: o custo computacional é mais baixo, por não necessitar de agrupamento, e isto ajuda também a promover a expansão de informação relativa às boas soluções para todas as partículas, embora trata-se de busca local.

Finalmente, pode observar que o modelo de gbest é de fato um caso especial do modelo de lbest, quando o l = s, ou seja, quando o conjunto selecionado engloba todo o enxame [26].

2.4.7 A Versão Binária do PSO

Uma versão binária do PSO foi introduzida pelo Kennedy e Eberhart [33]. Esta versão é útil para fazer comparações entre AG’s codificados numa forma binária e o PSO, bem como representar problemas que são por natureza binários. Uma aplicação típica é representar o gráfico de conexão de uma rede neural onde '1' representa uma conexão e '0' representa a ausência de conexão entre dois nodos na rede.

A versão binária restringe os valores de componente de ix e iy para serem elementos do intervalo }1,0{U . Porém, não há nenhuma restrição no valor da velocidade,

iv , de uma partícula. Entretanto, quando a velocidade é usada para atualizar as posições, ela deve ser colocada dentro do intervalo de [0.0,1.0] e tratado como probabilidade. Isto pode ser obtido utilizando a função sigmoidal, definida por:

)exp(11)(

xxsig

−+= (2.16)

Então, a equação de atualização para o termo de velocidade usado no enxame binário é dada por :

)]()(ˆ)[(

)]()()[()()1(

,,22

,,,11,,

txtytrc

txtytrctvtv

jijj

jijijjiji

+−+=+ (2.17)

Page 31: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

19

Note que esta equação de atualização de velocidade é similar a que foi usada no PSO original. Em vez da equação de atualização de posição habitual (por exemplo equação 2.8), uma nova equação de atualização probabilística é usada:

( )( )

3, ,,

3, ,

0 ( ( 1))( 1)

1 ( ( 1))j i j

i jj i j

se r t sig v tx t

se r t sig v t≥ +⎧⎪+ = ⎨ < +⎪⎩

(2.18)

Onde ( ) ( )1,0~,3 Utr j é um variante aleatório uniforme (selecionado a partir do intervalo

[0.0,1.0]). Ao analisar a equação (2.18), pode-se observar que o valor de jix , permanecerá 0 (zero) se 0)( , =jivsig Isto acontecerá quando jiv , é aproximadamente menor do que -10. Igualmente, a função de sigmoid saturará quando

jiv , > 10. Para prevenir isto, é recomendado que o valor de jiv , seja mantido dentro do intervalo de 4± [30]. O artigo original que descreve o PSO binário recomenda um limiar de maxv ligeiramente maior de 6± , resultando em uma probabilidade de aproximadamente 0.0025 [33].

Esta versão foi melhorada com a utilização de novos conceitos [34]. Estes conceitos foram desenvolvidos com sendo extensões do PSO que serão apresentados mais adiante.

2.5 As Principais Propostas de Melhorias do PSO

Foram propostas várias melhorias para a otimização por Enxame de Partícula. Serão apresentadas as mais importantes melhorias agrupadas de acordo com seus objetivos.

2.5.1 Melhorias na Taxa de Convergência

Foram propostas várias técnicas para melhorar a taxa de convergência do PSO. Estas propostas normalmente envolvem mudanças na equação da atualização do PSO, sem mudar a estrutura do próprio algoritmo. Isto normalmente resulta em otimização local de melhor desempenho e às vezes com uma diminuição de desempenho em funções com múltiplos mínimos locais. - Peso da inércia (Inertia weight) : A introdução do peso de inércia por Shi e Eberhart foi uma das primeiras modificações no algoritmo do PSO original objetivando melhorar a sua taxa de convergência [66]. O peso de inércia é um fator escalar associado com a velocidade durante o passo de tempo anterior, resultando na seguinte nova equação de atualização de velocidade :

)]()(ˆ)[(

)]()()[()()1(

,,22

,,,11,,

txtytrc

txtytrctwvtv

jijj

jijijjiji

+−+=+ (2.19)

A equação da atualização da velocidade do PSO original pode ser obtida fixando w = 1. Shi

Page 32: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

20

e Eberhart investigaram o efeito de valores de w na faixa de [0, 1.4], como também variando w com o passar do tempo [66]. Os resultados obtidos demonstram que escolhendo

]2.1,8.0[∈w resulta em convergência mais rápida, mas com o valor de w maior do que (> 1.2) resulta em mais fracassos para convergir. - Coeficiente de enxugamento (Constriction Factor) Recentemente num trabalho feito por Clerc [27,38] foi demonstrado que o coeficiente (ou fator) de enxugamento pode ajudar assegurar a convergência. O modelo de coeficiente de enxugamento descreve, entre outras coisas, um modo de escolher os valores de w, c1 e c2 de forma que a convergência seja assegurada.

A Escolha correta destes valores, elimina a necessidade de ajustar os valores de jiv , à escala de ],[ maxmax vv− . A equação da atualização usando este coeficiente como foi proposta em [27,38], é apresentada na equação (2.20):

( ))]()(ˆ)[()]()()[()()1( ,,22,,,11,, txtytrctxtytrctvχtv jijjjijijjiji −+−+=+ , (2.20)

Onde ϕϕϕ 42

22 −−−

=χ ,

e 4,21 >+= ϕϕ cc .

Eberhart e Shi compararam o desempenho de um enxame usando o ajuste com o maxv com outro enxame, onde foi utilizado apenas o coeficiente de enxugamento [43].

Seus resultados indicaram que o uso do coeficiente de enxugamento (sem ajustar a velocidade) resulta geralmente em uma taxa melhor de convergência em algumas das funções do teste, entretanto, o PSO com o coeficiente de enxugamento não alcançou a convergência esperada com o número de iterações pré-determinado. O problema, de acordo com Eberhart e Shi, é que as partículas vagueiam demasiadamente longe da região desejada do espaço da busca. Para reduzir este efeito decidiram aplicar também o ajuste no próprio coeficiente de enxugamento, ajustando o parâmetro do maxv igual ao maxx ,o tamanho do espaço da busca. Isto conduziu melhora no desempenho do algoritmo para quase todas as funções usadas durante os testes. Para mostrar o funcionamento e aplicação do PSO, no próximo capítulo será apresentada uma aplicação do PSO para otimizar as funções de pertinência num controle fuzzy.

Page 33: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

21

Capítulo 3

Uma aplicação: O Ajuste Automático das

Funções de Pertinência Fuzzy Usando

PSO

Neste capítulo será descrita uma aplicação que foi desenvolvida com objetivo de apresentar uma estratégia para o ajuste automático das funções de pertinência usando PSO. E com o algoritmo PSO pode-se fazer um ajuste automático das funções de pertinência melhorando significativamente o controle, minimizando o espaço percorrido pelo veículo até estacionar e auxiliando os estudantes no aprendizado de controle difuso.

3.1 Introdução

A Teoria dos Conjuntos Difusos foi proposta por Lofti A. Zadeh em um artigo publicado em 1965 [87]. Recentemente, a Lógica Difusa tem sido utilizada no controle de processos industriais, equipamentos eletrônicos, de entretenimento, carros, sistemas de diagnose e, até mesmo, para o controle de eletrodomésticos.

Os sistemas difusos podem ser considerados como sendo sistemas baseados em conhecimento, incorporando conhecimento humano na Base de Conhecimento deles através de Regras Difusas e Funções de Pertinência. A definição destas regras difusas e as funções de pertinência geralmente são feitas através de decisões subjetivas, influenciando de uma forma direta no desempenho do sistema. Na maioria das aplicações existentes, as regras difusas são geradas por peritos na área, especialmente para problemas de controle com poucas entradas (variáveis). Com um número crescente de variáveis, o número de regras aumenta exponencialmente, o que torna mais difícil para peritos definirem conjunto de regras que resultam num sistema de bom desempenho.

Neste estudo de caso foi utilizado um ambiente computacional para o ensino da lógica difusa [88]. Este programa computacional foi desenvolvido para o treinamento de estudantes de Engenharia na Teoria de Controle Difuso. O seu principal objetivo é estacionar um veículo em uma garagem, partindo de qualquer posição dentro de uma área pré-determinada.

Com este pacote, os estudantes dispõem de um recurso que exemplifica uma situação muito conhecida da vida real. Entretanto, este pacote apresenta uma séria desvantagem: o tipo de aprendizagem. Neste caso, os estudantes, para conseguir uma ação

Page 34: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

22

de controle apropriada, utilizam o método da “tentativa-e-erro” na definição das regras e parâmetros para cada uma das funções de pertinência.

Neste trabalho então desenvolveu-se um módulo de treinamento PSO para um controle previamente criado. O algoritmo PSO será utilizado para encontrar os melhores parâmetros das funções de pertinência. A concatenação destes parâmetros constitui as partículas do enxame, que são avaliadas de acordo com o número de iterações necessárias para que o veículo estacionar de acordo com o ajuste feito por cada grupo de partículas.

Nas próximas seções será descrito o módulo de treinamento do PSO apresentando o algoritmo bem, como as telas de interface com o usuário. Em seguida serão mostrados os testes realizados com controles difusos que tiveram suas funções de pertinência ajustadas e finalmente, as conclusões serão apresentadas.

3.2 O Pacote Computacional Original

O pacote computacional tem como principal objetivo estacionar um veículo em uma garagem, partindo de qualquer ponto inicial dentro de uma área pré-definida. Para tal, o usuário deve projetar um conjunto de regras de controle difuso e também as funções de pertinência que controlarão a trajetória do veículo. Para definir tais regras, o programa oferece diversos menus com janelas e rotinas numéricas. Os processos de fuzzificação e de defuzzificação das variáveis são feitos pelo programa sem a necessidade de interferência do usuário [88]. A Figura 3.1 mostra a tela inicial para representar o problema do estacionamento de um veículo. Nesta janela aparecem a posição da garagem, os limites existentes (as paredes) e os valores das coordenados limites. Também são apresentadas as variáveis de entrada (x, y) medidas a partir do ponto central da parte traseira do veículo e finalmente, o ângulo do carro (φ).

Figura 3.1 - Tela básica do programa.

Page 35: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

23

Para a realização de estacionamento do veículo, algumas condições são estabelecidas, e pertencem dois tipos: ligadas ao pacote computacional e ligadas a lógicas. As condições ligadas ao pacote representam as limitações físicas. São elas [88]:

• limites das variáveis de entrada: - posição (x, y): 0 < x < 32 e 0 < y < 20 (m) (limitações do estacionamento) - ângulo do veículo: -90°≤ φ ≤ 270° - sentido do veículo: para frente ou para trás

• limite da variável de saída: - ângulo da roda do veículo: -30°≤ θ ≤ 30° (limitação do modelo real)

Com relação às limitações lógicas, elas podem variar de acordo com os tipos das

estratégias empregadas. Alguns exemplos destas estratégias podem ser, entre outras:

• minimização do número de mudanças de sentido do veículo (para frente ou para trás);

• minimização do espaço percorrido pelo veículo até a garagem; • a restrição de partes da garagem para o estacionamento.

Para o movimento do veículo são estabelecidas as seguintes condições: aceleração igual a 1 (m/s2) e velocidade máxima de 1 (m/s). Estes dois valores são utilizados como referência para todos os movimentos. Para inverter o sentido do movimento do veículo existem três possibilidades, que são:

a) Choque contra a parede: quando o sistema verifica que o veículo irá se chocar contra a parede no próximo passo;

b) Regra que força a inversão: quando a ordem de inverter for utilizada como conseqüência de uma regra; ou,

c) Falta de saídas: quando nenhuma regra for utilizada pelo controle, ou seja, se a saída for nula.

Para obter mais informações sobre este pacote e também como é feita a criação de um controle difuso veja [88].

3.3 Simulações

Selecionada a opção simulação do menu, o usuário pode definir uma posição inicial (Coordenada X, Y e Ângulo) para o veículo. A Figura 3.2 mostra o deslocamento do veículo utilizando o conjunto composto por 356 regras para o deslocamento.

No exemplo de simulação da Figura 3.2, pode-se verificar o rastro deixado pelo veículo durante sua trajetória. Cada ponto significa uma iteração (ou seja, uma passagem completa no conjunto de regras). No exemplo, mostrado na Figura 3.2, produziu-se 256 iterações.

Page 36: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

24

Figura 3.2 - Exemplos de simulação do pacote computacional. O pacote computacional dispõe de recursos, que permitem variar o tamanho do

carro entre: pequeno, médio ou grande. Esta variação cria a oportunidade de verificar o comportamento do sistema de controle para um equipamento que tenha alteradas algumas de suas grandezas. O pacote computacional possui também três métodos de defuzzificação, que são: o centróide, média das áreas e média das máximas [89].

3.4 Descrição do Módulo Treinamento PSO

De forma geral, a integração dos algoritmo PSO com o controle difuso foi implementada da seguinte maneira:

A subpopulação de partículas do enxame foi definido como sendo a concatenação dos valores de ajuste das funções de pertinência.

Os parâmetros são os centros e as larguras de cada conjunto difuso. Estes parâmetros compõem as partículas.

De uma gama inicial de valores de parâmetros possíveis, o sistema difuso é executado para determinar o quanto ele funciona bem.

Essas informações são usadas para determinar o ajuste de cada subpopulação (adaptabilidade) e estabelecer a evolução do enxame.

O ciclo é repetido até que se complete o número de iterações do enxame definido pelo usuário. A cada iteração é encontrado o melhor conjunto de valores para os parâmetros das funções de pertinência. Para o treinamento do PSO podem-se definir as posições iniciais que o veículo irá partir para avaliar cada subpopulação do enxame que representa o conjunto de valores para os parâmetros das funções de pertinência, buscando assim uma otimização do controle não somente sobre uma única trajetória, mas sim de todas as posições iniciais possíveis de se partir o veículo para que se ocorra o estacionamento.

Page 37: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

25

Através de utilização do menu “Opção Treinamento PSO”, o usuário faz o ajuste dos parâmetros para o treinamento, além de definir os parâmetros (população, iteração, velocidade máxima), estabelecer o valor de ajuste para as funções de pertinência que é o quanto a função deslocará para esquerda ou direita e quanto ela se encolherá ou expandirá. Após iniciar o treinamento, pode-se acompanhar o treinamento através das informações exibidas por janelas. Concluídas todas as iterações, tem-se o melhor resultado encontrado. Após o ajuste, as funções de pertinência são redefinidas segundo os parâmetros do melhor resultado encontrado. O sistema fará o controle com base nestas novas funções.

3.5 Componentes do Algoritmo PSO

Serão apresentados nesta seção os mecanismos empregados para gerar ótimas funções de pertinência no controlador difuso usando o algoritmo PSO.

Cada função de pertinência do controlador difuso implementado é definida usando quatro parâmetros. São eles: IE (inferior esquerdo), ID (inferior direito), SE (superior esquerdo) e SD (superior direito).

Figura 3.3 – Parâmetros das funções de pertinência. Na Figura 3.3 são mostrados os parâmetros da função de pertinência PE da variável x. Para está função o valor de IE é igual a 30, ID igual a 160, SE igual a 80 e SD igual a 110. Para ajustar as funções de pertinência foram definidas as seguintes equações:

IE = (IE + ki) – wi ID = (ID + ki) + wi

Page 38: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

26

SE = (SE + ki) SD = (SD + ki)

Onde, ki e wi são coeficientes de ajustes. O ki faz cada função de pertinência mover-se para a direita ou para esquerda sem perder sua forma original. O coeficiente wi faz com que a função de pertinência encolha ou se expanda. Estes coeficientes assumem valores inteiros negativos ou positivos de acordo com o valor de ajuste definido pelo usuário. A Figura 3.4 mostra um exemplo de ajuste com os valores de IE igual a 30, ID igual a 160, SE igual a 80 e SD igual a 110. Sendo k = -8 e w = 5 a função de pertinência terá o seguinte ajuste:

IE’ = ( 30 + (-8)) – 3 = 19

ID’ = (160 + (-8)) + 3 = 155

SE’ = ( 80 + (-8)) = 72

SD’ = (110 + (-8)) = 102

Figura 3.4 – Exemplo de ajuste de uma função de pertinência. O algoritmo PSO será utilizado para achar os ótimos valores das funções de pertinência, segundo a estratégia escolhida, os pontos iniciais utilizados e os coeficientes de ajustes (ki e wi ).

Page 39: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

27

3.5.1 Representação das Soluções usando PSO

O controle difuso normalmente está composto por muitas funções. Assim, para este tipo de problema será necessário o uso de subpopulação. Cada subpopulação representa uma possível solução. Com relação ao tamanho da subpopulação, ou seja, quantos partículas cada subpopulação irá ter, isso dependerá do número de funções de pertinência definidas pelo usuário. Para um controle difuso com um grupo de 18 funções de pertinência, por exemplo, necessita ter uma subpopulação com 18 partículas de 2 (duas) dimensões (x,y) . Isso porque para cada função deve ter dois coeficientes de ajuste: ki e wi. A subpopulação então é representada por um vetor de 18 posições de partículas com 2 posições cada. Então, é necessário ter a seguinte estrutura: sp1 = { p11,p12,p13...p1m } sp2 = { p21,p22,p23...p2m } ..... spn = { pn1,pn2,pn3...pnm } Onde: p: uma partícula de 2 dimensões (ki , wi.) n : numero de população(enxame). m : número de partículas.

3.5.2 Função de Avaliação e o Critério de Parada

A função de avaliação tem o papel de avaliar o nível de aptidão (adaptação) de cada subpopulação gerada pelo algoritmo. Para o problema em questão, o objetivo é minimizar a trajetória do veículo até estacionar. No caso a função de avaliação é dada por:

If

+=

11

(3.1)

onde I é o total de iterações até estacionar com base no ajuste feito por cada subpopulação nas função de pertinência. De acordo com está função, a aptidão de cada subpopulação será inversamente proporcional ao número de iterações. Como critério de parada foi utilizado o número máximo de iterações.

3.5.3 Apresentação do Algoritmo

Seja, G o número de iterações do PSO, S o enxame, N o número de subpopulações, Vmax a velocidade máxima e VA o valor de ajuste permitido para as funções de pertinência. O algoritmo abaixo apresentado gere como saída o vetor gbest com a melhor subpopulação representando a melhor solução.

Page 40: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

28

Passo 1. Gere subpopulações inicial SP com partículas no intervalo [- VA, +VA]. Passo 2. Gere velocidade inicial Vx e Vy com valores aleatórios. Passo 3. Se completou o número de repetição G vá para Passo 7. Passo 4. Avalie a aptidão da subpopulação SP. Passo 5. Atualize S usando as equações (2.5 e 2.7) Passo 6. Vá para Passo 3. Passo 7. Fim.

3.6 Testes

Nesta seção serão apresentados os testes realizados com controles difusos que tiveram suas funções de pertinência ajustadas usando PSO. Estes testes demonstram a eficiência de tais mecanismos, permitindo uma avaliação objetiva dos resultados encontrados.

As funções de pertinência originais são mostradas na Figura 3.5. Este controles possuem 148 regras e 15 funções de pertinência para as variáveis de entrada x, y e ângulo da roda.

Figura 3.5 – Funções de pertinência originais. O treinamento deste controle foi feito a partir de três posições iniciais, conforme mostra a Tabela 3.1 Nesta tabela tem também o número de iterações geradas pelo veículo até estacionar utilizando as funções de pertinência originais.

Page 41: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

29

Tabela 3.1 – Posições iniciais para o treinamento.

Posição X Y Ângulo do Carro

Iterações sem treinamento

1 25 120 180 330 2 160 130 -90 888 3 275 160 -40 655

A Figura 3.6 mostra o veículo em cada uma das posições iniciais.

Figura 3.6 – Posições iniciais de treinamento. Estas posições foram escolhidas de acordo com pontos onde o veículo não desenvolve uma boa trajetória até estacionar e, consequentemente, gerando um número excessivo de iterações. Como já explicado no Capítulo 4, a definição de várias posições iniciais não irá somente minimizar as trajetórias referentes a estes pontos, mas como também para outros pontos, conseguindo assim uma minimização global de espaço percorrido.

A Figura 3.7 mostra as trajetórias referentes a cada posição inicial. Os parâmetros genéticos definidos para o treinamento são mostrados na Tabela 3.2.

Tabela 3.2 – Parâmetros do PSO.

Tamanho da População 14 Número de Iterações 30 Vmax 10

Os resultados gerados pelo algoritmo PSO são mostrados na Tabela 3.3 e Figura 3.8.

Page 42: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

30

Tabela 3.3 – Iterações após o treinamento com PSO.

Posição Iterações sem treinamento

Iterações com treinamento

1 330 285 2 888 592 3 655 439 Total 1873 1316 Média 624,33 438,99

(a) (b)

(c)

Figura 3.7 – Simulações sem treinamento. (a) Posição 1 - (b) Posição 2 – (c) Posição 3

Como mostrado na Tabela 3.3, obteve-se uma redução de 557 iterações (29,74%) para o veículo estacionar partindo-se das posições inicias fixadas para o treinamento. Na Tabela 3.4 serão apresentados resultados de simulações feitas partindo de posições iniciais não utilizadas no treinamento.

Page 43: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

31

(a) (b)

(c)

Figura 3.8– Simulações após treinamento genético. Posição 1 – (b) Posição 2 – (c) Posição 3

Figura 3.9 – Funções de pertinência após o ajuste com PSO.

A Figura 3.9 mostra as funções de pertinência após o ajuste. Nota-se que as maiores modificações ocorreram nas funções das variáveis y e ângulo da roda. O próximo exemplo apresentará modificações significantes nas funções da variável x, uma vez que são utilizadas mais posições iniciais no treinamento.

Page 44: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

32

A Tabela 3.4 apresenta o resultado obtido de simulações feitas com 20 posições escolhidas aleatoriamente para o veículo estacionar utilizando o controle original que tiveram suas funções de pertinência ajustadas pelos PSO. Os resultados demonstram uma redução média do número de iterações para o veículo atingir a posição final de 18,22%. Estes valores representam uma redução global na trajetória do veículo partindo-se de posições não utilizadas no treinamento genético. Outra observação é que em determinadas posições o número de iterações é maior que as geradas pelos controles originais (sem treinamento). Na posição 2 da Tabela 3.4 por exemplo, o controle original gera 167 iterações para estacionar o veículo enquanto que o controle treinado gera 306 iterações. Este aumento é conseqüência das modificações nas funções da pertinência que fazem com que o veículo desenvolva uma trajetória diferente para atingir a posição final.

Tabela 3.4 – Resultados de Simulações.

Iterações geradas pelos Controles Difusos Posição X Y

Ângulo do carro Original Traindo

com PSO 1 1 126 182 450 445 2 6 46 132 167 306 3 8 41 190 1000 1000 4 15 70 -90 318 313 5 70 95 -6 263 257 6 74 69 -70 453 450 7 76 193 232 605 363 8 88 46 44 283 289 9 115 120 240 463 289 10 131 140 -72 457 512 11 141 69 -28 342 225 12 154 166 -80 863 950 13 160 135 268 1101 445 14 217 66 -50 684 506 15 228 194 -48 830 476 16 246 169 154 312 310 17 250 180 -40 739 489 18 265 170 -40 672 483 19 300 124 258 317 308 20 305 156 -40 521 449 Total 10840 8865 Média 542 443,25

3.7 Considerações sobre esta aplicação

O algoritmo PSO oferece vantagens distintas de otimização das funções de pertinência resultando em uma pesquisa global, reduzindo as chances de terminarem em um

Page 45: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

33

mínimo local, pois utiliza vários conjuntos de soluções simultaneamente. A lógica difusa contribuiu com a função de avaliação, estágio do algoritmo PSO onde o ajuste é determinado. Este trabalho é também um exemplo de integração de sistemas difusos com algoritmo PSO, constituindo assim um sistema híbrido. Nesta integração mostrou-se que quando se tem o domínio do problema, este pode ser explorado pelo algoritmo PSO conduzindo a um desempenho melhor do controlador difuso. Os resultados obtidos foram bons e consistentes e comprovam os benefícios visualizados e descritos acima. O desenvolvimento desta aplicação permitiu também maior domínio sobre o algoritmo PSO e ajudou no estudo sobre o seu comportamento que será apresentado no próximo capítulo.

Page 46: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

34

Capítulo 4

Um novo algoritmo: Algoritmo Híbrido de

Otimização por Enxame de Partícula com

Mutação – HPSOM

Este capítulo inicia-se com uma breve analise informal de comportamento do algoritmo PSO padrão e seu desempenho. Em seguida é apresentado um novo algoritmo chamado de Algoritmo de Otimização por Enxame de Partícula Híbrido com Mutação (HPSOM), que combine a idéia do enxame de partícula com o conceito de Algoritmos Genéticos. Serão apresentados e discutidos os resultados dos testes entre os dois modelos: PSO e o HPSOM usando funções unimodal e multimodal.

4.1 Introdução

O desempenho do algoritmo PSO foi investigado em diversos trabalhos, desde o seu surgimento em ([10,11]). O trabalho apresentado na referência [62] descreve a complexa tarefa da seleção dos parâmetros no PSO. Uma comparação formal entre PSO e o Algoritmo Genético padrão foi realizada e apresentada na referencia [40], onde o autor apontou que o PSO possui um bom desempenho nas iterações iniciais, mas apresenta problemas de convergência quando se aproxima da solução ótima.

O comportamento do PSO no modelo global (gbest) apresenta alguns aspectos importantes relacionados com a atualização da sua velocidade. Se a posição atual de uma partícula coincidir com a melhor posição global, a partícula mover-se-á afastando deste ponto somente se o seu peso de inércia (w) e a sua velocidade anterior forem diferentes de zero. Se as velocidades anteriores das partículas forem muito próximas de zero, todas as partículas pararão de se mover, uma vez que já alcançam a melhor posição global. Isso pode conduzir o algoritmo à convergência prematura. De fato, isto não garante nem mesmo que o algoritmo convergiu em um mínimo local, apenas, significa que todas as partículas convergiram à melhor posição encontrada até então pelo enxame. Este fenômeno é conhecido como estagnação [54].

Algumas soluções forem propostas recentemente na literatura. A solução apresentada em [54] está baseada em acrescentar um parâmetro novo e adicionar novas equações ao PSO. Outro trabalho apresentado em [53], combina o algoritmo PSO com técnicas de Algoritmos Evolutivos, introduzindo a procriação (breeding) e subpopulações (subpopulation). As soluções apresentadas geraram modificações profundas no PSO, o que

Page 47: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

35

torna a nova versão do PSO mais complexa ou muito parecida com os Algoritmos Evolutivos.

Para resolver o problema anteriormente mencionado, será apresentado um novo algoritmo híbrido chamado de algoritmo de Otimização por Enxame de Partícula Híbrido com Mutação (HPSOM), que combine a idéia do enxame de partícula com os conceitos de Algoritmo Genéticos. O modelo HPSOM combina a tradicional velocidade e regras de atualização de posição do algoritmo PSO com o conceito da mutação numérica dos AGs.

O HPSOM é testado e comparado com o PSO padrão usando funções unimodal e funções multimodal. Os resultados obtidos demonstram que o HPSOM tem um grande potencial para alcançar convergência mais rapidamente e achar a melhor solução. Esta solução resolverá o problema de estagnação sem criar qualquer modificação nas equações de PSO e seus parâmetros.

A próxima seção apresenta a estrutura do algoritmo HPSOM. Seção 4.3 descreve os testes e apresenta os resultados experimentais e finalmente as conclusões serão apresentadas.

4.2 O Algoritmo HPSOM

O algoritmo Enxame de Partícula Híbrido com Mutação (HPSOM) incorpora o processo de mutação geralmente usado no AGs no PSO. Este processo vai permitir que as partículas possam escapar de um ponto ótimo local e realizar buscas em diferentes área no espaço de busca. Este processo inicia pela escolha aleatória de partículas no enxame e mover para uma nova posição diferente dentro do espaço de busca. O processo da mutação utilizado é dado pela seguinte equação:

ω+−= )1*]([])[( kpkpmut (4.1) Onde o p[k ] é a partícula escolhida aleatoriamente do enxame e ω é obtido também de uma forma aleatória dentro da seguinte escala: [ ])(*1.0,0 minmax xx − , representando 0.1 vez o comprimento do espaço da busca . A Figura 4.1 lista o pseudocódigo do algoritmo HPSOM.

Figura 4.1 - o pseudocódigo do algoritmo HPSOM.

inicio Criar e inicializar : Enquanto ( condição da parada seja falso) inicio

avaliar atualizar velocidade e posição mutação

fim fim

Page 48: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

36

4.3 Testes e experimento

Como o objetivo de estudo de desempenho do algoritmo HPSMO e a comparação com o algoritmo original PSO, forem realizados testes usando quatro funções evolvendo problemas de minimização. As primeiras duas funções são unimodal, enquanto que as últimas duas são multimodal com muitos mínimos locais. Estas quatro funções foram usadas em todos os outros estudos realizados sobre o PSO ([42], [53]). • A função “Spherical”: A função de Esfera generalizada é uma função muito simples e

unimodal. O seu mínimo global está localizado na x = 0, com f(x) = 0. Esta função não tem nenhuma interação entre suas variáveis.

Spherical: ∑=

=n

iixxf

1

21 )( (4.2)

• A função “Rosenbrock”: A segunda função é a função de Rosenbrock generalizada.

Uma função unimodal, com interação significante entre suas variáveis.

Rosenbrock: ))1()(100()( 221

1

212 −+−=∑

=+ i

n

iii xxxxf (4.3)

• A função “Griewank”: Uma função multimodal com interação significante entre suas

variáveis, e seu mínimo global se encontra no x = 0, onde f(x) = 0.

Griewank: 1)(cos4000

1)(11

23 +−= ∏∑

== ixxxf i

n

i

n

ii (4.4)

• A Função “Rastrigin”: A quarta função é a função de Rastrigin generalizada. É um exemplo típico e muito utilizado de funções não-linear e multimodal. Esta função representa um problema com um grau de dificuldade acentuado causado por seu grande espaço de busca e principalmente por um número grande de mínimos locais como mostrado na Figura (4.2).

Rastrigin: )10)2cos(10()(1

24 +−=∑

=

n

iii xxxf π (4.5)

A Figua 4.2 da função de Rastrigin mostra que existem muitos mínimos locais organizados como inchaços. A função tem apenas um mínimo global, que ocorre no ponto [ 0 0 ] no plano x-y, como indicado pela linha vertical, onde o valor da função é 0. Em qualquer mínimo local à exceção de [ 0 0 ], o valor da função é maior do que 0. A função de Rastrigin é freqüentemente usada também nos estudos sobre os algoritmos genéticos.

Page 49: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

37

Figura 4.2 – A função Rastrigin em 3D

As escalas do espaço da busca e os valores iniciais usados nos experimentos são

apresentados na Tabela 4.1. Todos esses experimentos consistiram em 100 execuções. Os parâmetros de PSO e de HPSOM foram ajustados aos valores dos coeficientes c1 = c2 = 2.0 e um peso de inércia que começa em 0.7 e diminui linearmente até chegar ao limite de 0.4. O valor da velocidade máxima (Vmax) de cada partícula foi ajustado à metade do comprimento de espaço da busca em uma dimensão. O tamanho da população nos experimentos foi mantida em 20 partículas a fim de manter as exigências computacionais baixas. Note que o HPSOM tem um parâmetro adicional relacionado com a taxa da mutação que foi ajustado a 30%.

Os experimentos das quatro funções foram feitos usando diferente dimensão (10, 20 e 30) e diferente iteração (1000, 1500 e 2000) respectivamente.

Tabela 4.1- O espaço de busca e os valores iniciais das funções de teste.

Função Espaço de Busca Escala Inicial f1 100100 ≤≤− ix 10050 ≤≤ ix f2 100100 ≤≤− ix 3015 ≤≤ ix

f3 600600 ≤≤− ix 600300 ≤≤ ix f4 1010 ≤≤− ix 12.556.2 ≤≤ ix

Page 50: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

38

Tabela 4.2 - Resultados de média da melhor aptidão para 100 execuções (médio da melhor aptidão ± erro padrão)

F Dim. Iter. PSO (Padrão) HPSOM

10 1000 2.15E-037± 2.30E-037 2.24E-096 ± 1.73E-095 f1 - Spherical 20 1500 1.44E-028± 9.13E-029 2.1449E-119 ± 1.6891E-118 30 2000 2.07E-014± 2.90E-014 6.5764E-147 ± 5.6809E-146

10 1000 30.2215± 29.6403 6.7701±0.3748 f2-Rosenbrock 20 1500 110.3035 ± 15.2610 16.9664± 0.4855 30 2000 151.7675 ± 9.5624 27.3682± 0.7146

10 1000 0.09013±0.00362 0.00±0.00 f3 -Griewank 20 1500 0.03031±0.0013 0.00± 0.00 30 2000 0.0189 ± 0.0586 0.00± 0.00

10 1000 4.6900±0.3410 0.00±0.00 f4 -Rastrigin 20 1500 24.3247±0.6291 0.00± 0.00 30 2000 49.4664± 0.6299 0.00± 0.00

Figura 4.3- PSO versus HPSOM para a função Spherical (esfera) - f1

Page 51: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

39

Figura 4.4- PSO versus HPSOM model for Rosenbrock function- f2

Figura 4.5 - PSO versus HPSOM para a função for Griewank - f3

Page 52: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

40

Figura 4.6 - PSO versus HPSOM para a função Rastrigin - f4

(a)-PSO (b)-HPSOM

Figure 4.7- Os comportamentos das partículas PSO/HPSOM para a função Esfera

(pop = 3)- f1

Page 53: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

41

Para ampliar o escopo da comparação, a Tabela 4.3 contém os resultados obtidos

usando o Algoritmo Genético padrão como foi apresentado no trabalho [53]. A população é composta por 20 indivíduos (o mesmo tamanho da população dos PSO/HPSOM) e as taxas de cruzamento e mutação estão na Tabela 4.4.

Tabela 4.3- Resultados de média da melhor aptidão para 100 execuções - PSO, HPSOM e AG- (médio da melhor aptidão ± erro padrão)

F Dim. Iter. PSO (Padrão) GA (Padrão) HPSOM

10 1000 2.15E-037± 2.30E-037 2.43E-04±1.14E-05 2.24E-096 ± 1.73E-095 f1 - Spherical 20 1500 1.44E-028± 9.13E-029 0.00145± 6.22E-05 2.1449E-119 ± 1.6891E-118 30 2000 2.07E-014± 2.90E-014 0.00442± 1.78E-04 6.5764E-147 ± 5.6809E-146

10 1000 30.2215± 29.6403 109.810± 6.212 6.7701±0.3748 f2-Rosenbrock 20 1500 110.3035 ± 15.2610 146.912 ±10.951 16.9664± 0.4855 30 2000 151.7675 ± 9.5624 199.730 ±16.285 27.3682± 0.7146

10 1000 0.09013±0.00362 283.251±1.812 0.00±0.00 f3 -Griewank 20 1500 0.03031±0.0013 611.266±3.572 0.00± 0.00 30 2000 0.0189 ± 0.0586 889.537 ± 3.939 0.00± 0.00

10 1000 4.6900±0.3410 3.1667±0.2237 0.00±0.00 f4 -Rastrigin 20 1500 24.3247±0.6291 16.8732±0.6007 0.00± 0.00 30 2000 49.4664± 0.6299 49.3212± 1.1204 0.00± 0.00

Tabela 4.4 - As taxas de cruzamento e mutação usados pelo AG (padrão)

Função Taxa de cruzamento Taxa de mutação f1 0.60 0.30 f2 0.50 0.30 f3 0.50 0.40 f4 0.20 0.02

4.4 Discussões dos Resultados

Como apresentado na Tabela 4.2, os testes foram realizados variando a dimensão das funções em (10,20 e 30) e variando o número de iterações dos algoritmos para (1000,2000 e 3000) respectivamente. Os testes foram repetidos 100 vezes e os resultados dos algoritmos PSO e HPSOM são representados pelo valor médio da aptidão da melhor partícula encontrada e seguido pelo valor do erro padrão.

Page 54: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

42

As Figuras 4.3 a 4.6 apresentam gráficos que correspondem aos experimentos e mostram os comportamentos obtidos pela melhor aptidão para cada repetição de ambos os algoritmos. Os gráficos ilustram os resultados obtidos nos teste nas funções com dimensão de 30.

No caso dos experimentos com as funções unimodal (Esfera e Rosenbrock), o HPSOM alcançou melhores resultados e teve sua convergência mais rápida do que o PSO. No caso dos experimentos com as funções multimodal (Griewank e Rastrigin), o HPSOM novamente obteve uma convergência mais rápida que o PSO, e achou o valor mínimo das duas funções (zero).

A Figura (4.3) apresenta um gráfico que descreve o comportamento do PSO na minimização da função de Esfera. Pode-se observar que o PSO entrou em estagnação com iteração próxima a ~800 e mantém o mesmo resultado representado no gráfico como uma linha reta até o fim de execução, sem que o aumento do número de iteração gere uma melhoria nos resultados. Ao mesmo tempo, pode-se observar um comportamento não linear no gráfico do HPSOM na direção ao mínimo global com o aumento de iteração. Como mostrado nos gráficos da Figura (4.7) que apresentam os comportamentos dos dois algoritmos para apenas 3 partículas e com iterações até a 100. Nestes gráficos o PSO entra em estagnação enquanto o HPSOM continua na busca de melhor posição. Este comportamento praticamente idêntico é observado também nos outros gráficos.

Isso leva a observação de que o HPSOM tende a varrer de uma forma mais eficiente o espaço de busca e mostra a sua superioridade neste requisito.

A Tabela 4.3 apresenta uma outra situação com a inclusão dos resultados obtidos pelo AG padrão [53]. Nesta situação o desempenho do AG padrão foi inferior ao PSO padrão em todas as funções e conseqüentemente é bem abaixo do Híbrido.

Pode-se observar claramente e com bases nos resultados obtidos pelos testes realizados e mostrados na Tabelas (4.2 e 4.3) e nas Figuras ( 4.3,4.4.3, 4.5 e 4.6), que o HPSOM obteve melhor desempenho comparando com o PSO e AG padrão, onde o HPSOM alcançou melhores resultados em todas as funções e chegou à uma convergência mais rapidamente do que o PSO.

No próximo capítulo será apresentada uma aplicação de otimização de perdas elétricas usando os dois algoritmos e vai ser possível observar entre outras coisas, o fato de que o HPSOM apresenta um desempenho superior ao PSO.

Page 55: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

43

Capítulo 5

Aplicação do PSO e HPSOM na Resolução

de Problema de Otimização de Perdas

Elétricas

Este capítulo apresenta um estudo sobre a aplicação dos algoritmos PSO e HPSOM em resolução de problemas de otimização ligados ao Sistema Elétrico de Potência – SEP. Será apresentada uma aplicação de Otimização de Perdas Elétricas usando os algoritmos PSO e HPSOM. Os resultados alcançados pelos dois algoritmos serão comparados entre si e também comparados com os resultados obtidos utilizando outro método matemático de otimização [36].

5.1 Otimização de Perdas Elétricas

O objetivo desta aplicação é minimizar as Perdas Elétricas em um sistema. Logo, uma ação do controle é indicada para a redução destas perdas. Neste trabalho a ação considerada é a instalação do capacitor shunt. Este modelo é desenvolvido e integrado a um programa já escrito de fluxo da carga.

O estudo é realizado em duas etapas: Primeiramente, as barras críticas nos sistemas são identificadas usando a técnica do vetor tangente [74]. Na segunda etapa, os algoritmos de otimização PSO e HPSOM são aplicados individualmente para calcular a quantidade ideal de shunt a ser instalado em cada barra identificada a fim de obedecer a função objetivo.

5.1.1 Formulação do Problema

O problema de otimização de perdas elétricas é basicamente um problema de otimização não linear, que minimiza uma função objetivo sujeito a restrições de igualdades e desigualdades como segue: Minimizar )(xf (5.1) Sujeito a 0)( =xg maxmin )( hxhh ≤≤ maxmin ˆˆˆ xxx ≤≤

Page 56: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

44

onde

)(xf : função escalar que representa o objetivo do problema, a redução de perdas na área de interesse.

( ) ( , , )loss i i SHj

j sbsf x P V bθ

= = ∑ ( ) 2cos senk j jk jk jk jk jk jk sbl

V V G B G Vθ θ∈

⎡ ⎤+ −⎣ ⎦∑

sbl – conjunto de barras ligadas à j.

x : vetor das variáveis de decisão, dado por ),,( shjii BVx θ=

i ∈ sbus, conjunto de barras do sistema

j ∈sbs, conjunto de barras candidatas à ação de controle

iV − Tensão nas barras

iθ − Ângulo nas barras

shjB − Valor da suceptância instalada nas barras.

)(xg : conjunto de equações representando o sistema de fluxo de potência clássico.

=)(xg⎥⎥⎦

⎢⎢⎣

−−

calspq

espspq

calspqspv

espspqspv

QQPP

)()(

,(),(

que será dividido em parte ativa e reativa, da seguinte forma: [ ]esp

spqspvesp

spqspv PPxg ,),(1 )( −= [ ]esp

spqespspq PQxg )()(1 )( −=

spv − conjunto de barras de geração.

spq − conjunto de varras de carga.

)(xh :vetor com os limites superior e inferior de funções que precisem ter seus

limites controlados. No caso o controle será sobre a potência reativa em spv.

minmin

spvQh =

maxmaxspvQh =

Page 57: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

45

x :vetor que contêm as variáveis de decisão que precisa manter seus limites

dentro de uma faixa de operação.

T

shjspq bVx ⎥⎦⎤

⎢⎣⎡= minmin

minˆ

T

shjspq bVx ⎥⎦⎤

⎢⎣⎡= minmax

maxˆ

I : Matriz que obedece ao seguinte critério: xxI ˆ. =

Logo:

x ∈ )*2( nbsnbus+ℜ

θ,V ∈ nbusℜ

shB ∈ bsnℜ

LossP ∈ 1ℜ

)(1 xg ∈ )( npqnpv+ℜ

)(2 xg ∈ )(npqℜ

)(xh ∈ )(npvℜ

x ∈ )( nbsnpq+ℜ

onde

nbus − número de barras do sistema

nbs − número de barras candidatas para o controle

nbs´ − número de barras na área de controle

npv − número de barras de geração do sistema

npq − número de barras de carga do sistema

5.1.2 Metodologia

Para minimizar as perdas elétricas, necessita-se de uma ação de controle. Logo, uma ação de controle indicada é a instalação de capacitância shunt. Esta ação será utilizada nesse trabalho.

O cálculo do valor ideal de shunt a ser instalado em cada barra identificada para obedecer à função objetivo (redução de perdas elétricas) é um problema de programação não linear sujeito a uma série de restrições.

Page 58: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

46

Os algoritmos PSO e HPSOM foram desenvolvidos e integrados em um programa já escrito de fluxo da carga. Os resultados alcançados por ambos serão comparados entre si e também serão comprados com os resultados obtidos pela aplicação do método preditor-corretor de pontos interiores (MPC) desenvolvido num outro trabalho [36]. Para cumprir a meta estabelecida acima, a seguinte metodologia será adotada:

a) Através do método do vetor tangente, serão identificadas as áreas críticas para redução de perdas elétricas nos sistemas IEEE 14, 30, 57 e 118 barras. Este passo foi utilizado pelos ambos os algoritmos (PSO e HPSOM) e também por MPC.

b) Serão realizadas várias simulações com os algoritmos PSO e HPSOM, variando-se o número de população de partículas no enxame e o número de iterações.

5.1.3 Análise Preliminar dos resultados

Nesta seção serão analisados os resultados obtidos pela metodologia proposta. Para tanto, serão utilizados os sistemas IEEE 14, 30, 57 e 118 barras. Os parâmetros referentes ao processo de otimização são os mesmos das Tabela 5.1 e 5.2, alterando-se apenas o conjunto de barras selecionadas. Note que o HPSOM tem um parâmetro a mais, o que diz respeito à taxa de mutação, que foi fixada em 30%.

Para cada sistema serão identificadas as áreas de atuação (BCS – Barras Crítica do sistema e TBS – Conjunto de todas as barras de carga do sistema) e, através dos algoritmos PSO e HPSOM um valor ótimo de compensação shunt será encontrado. Também será apresentado o valor obtido pelo MPC com a finalidade de comparação. No caso dos algoritmos PSO e HPSOM, foram realizadas várias simulações variando os números das partículas e o número de iterações, com o objetivo de estudar as melhores configurações dos seus parâmetros.

No sistema IEEE 14 serão apresentados e analisados os resultados obtidos com população variando de 5, 10 e 15 nos dois algoritmos PSO e HPSOM. Para os sistemas de IEEE 30, 57, 118 serão apresentados os resultados obtidos utilizando também população de 5,10 e 15, porém com iteração de 5,25,50,75 e 100, com o objetivo de tornar os dados mais apresentáveis e mais fácies de serem agrupados em pequenas tabelas. Foram repetidas 50 simulações para cada combinação e os resultados aqui apresentados foram selecionados aleatoriamente entre estes 50 simulações.

Tabela 5.1 –Parâmetros utilizados para as simulações

Limite de Shunt Máximo 1 pu

Limite de Shunt Mínimo -1 pu

Limite de Tensão Máxima 1.06 pu

Limite de Tensão Mínima 0.9 oµ 0.5

αº 0.999995 γ 0.35

0σ 0.2

Page 59: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

47

Tabela 5.2 – Parâmetros do PSO/HPSOM utilizados para as simulações Número de População 5, 10 e 15

Número de Iterações 100

Wmax (Maximo do peso da inércia) 0.9

Wmin (Mínimo do peso da inércia) 0.2

C1; C2 (coeficientes de aceleração) 1

Taxa de Mutação (HPSOM) 30%

5.1.4 Identificação das Áreas

A idéia usada neste trabalho é reduzir a perda de potência ativa em uma área crítica. A redução da perda é executada na área mais vulnerável ao colapso da tensão. Esta área crítica é facilmente determinada com a ajuda do vetor tangente. Tal vetor é dado pela equação (5.7), e mais informações sobre está técnica podem ser encantados na referência [29].

O modelo de fluxo de potência utilizado nesse trabalho pode ser apresentado pelo conjunto

de equações:

),( σxf (5.2)

Ondeσ é o parâmetro que conduz o sistema de um ponto estável para um ponto de instabilidade.

O Vetor Tangente indica como as variáveis de estado variam de acordo com a mudança de carregamento do sistema e pode ser obtido a partir da matriz jacobiana do fluxo de potência. Assumindo um ponto de operação conhecido

[ ]⎥⎥⎥

⎢⎢⎢

∆∆∆

=⎥⎥⎥

⎢⎢⎢

∆∆∆

l

l

g

l

l

g

VJ

QPP

θθ

(5.3)

Onde, P, Q: potência consumida na barra. Pi, Qi: potência na barra i. V: tensão da barra correspondente a P e Q. Vi: tensão da barra correspondente a Pi e Qi. θ i: ângulo de tensão na barra i. J : matriz jacobiana. σ : parâmetro do sistema. e a carga é acrescida da seguinte forma

Page 60: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

48

PLi = PLio (1 + σ∆ ) (5.4) PGi = PGio (1 + σ∆ ) (5.5) QLi = QLio (1 + σ∆ ) (5.6)

Onde PLi, PGi e QLi são respectivamente a carga ativa, a potência ativa gerada e carga reativa

após a variação de σ . E PLio, PGio e QLio são os fatores iniciais na barra i. Substituindo (5.4) a (5.6) em (5.3) obtêm-se:

[ ]⎥⎥⎥

⎢⎢⎢

⎡=

∆⎥⎥⎥

⎢⎢⎢

∆∆∆

lo

lo

go

l

l

g

QPP

JV

11σ

θθ

(5.7)

Onde

gθ∆ , goP ∈ )(npvℜ

lθ∆ , lV∆ , loP , loQ ∈ )(npqℜ npv – número de barras de geração (PV) npq – número de barras de carga (PQ)

Este vetor da equação (5.7) mostra como as variáveis do estado mudam em função de uma variação dos parâmetros do sistema, e seus maiores componentes indicam as barras mais prováveis para levar o sistema ao colapso da tensão. A aplicação desta técnica aos estudos da sensibilidade da perda é proposta dentro da referência [3]. Entretanto, a referência [4] mostra que o colapso da tensão e a redução da perda podem não ser conectado. Por outro lado, no estudo da referência [5] foi estabelecida uma conexão entre a redução de perdas e os problemas do colapso da tensão. Neste trabalho foram realizados vários experimentos que mostraram bons resultados entre a redução de perdas nas áreas criticas e o problema de colapso da tensão. Baseados neste estudo, aqui foram estabelecidos dois pontos: a redução da perda é executada com a ajuda de PSO e HPSOM, e tal redução ocorre na área identificada pela equação (5.7).

A Tabela 5.3 mostra as quantidades das barras criticas (BCS) e as barras de carga (TBS) para cada sistema, por exemplo, no sistema IEEE 14 barras, apenas 4 barras são considerados com criticas e 9 barras são barras de carga.

Tabela 5.3- Quantidade de Barras de Controle IEEE14 IEEE30 IEEE57 IEEE118

BCS 4 6 8 8

TBS 9 24 50 64

A Tabela 5.4 mostra a relação dos nomes das barras criticas (BCS) para cada sistema, por exemplo, no sistema IEEE 14 barras, apenas as 4 barras ( 10,12,13 e 14) são considerados com barras criticas dentro das 9 barras de carga.

Page 61: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

49

Tabela 5.4- Relação dos sistemas com respectivas Barras Criticas Sistema BCS (Nomes das Barras)

IEEE14 14 13 12 10

IEEE30 30 29 26 19 24 18

IEEE57 31 33 32 30 25 57 56 42

IEEE118 41 39 33 117 35 43 2 3

Antes de mostrar os resultados obtidos pelas simulações nos sistemas (IEEE 14,30,

57 e 118) será apresentado na próxima seção, um pequeno exemplo didático de aplicação num sistema de 4 barras, afim de tornar os conceitos de como aplicar os algoritmos (PSO e HPSOM) mais claros e simples de serem compreendidos.

5.1.5 Exemplo de aplicação usando Sistema de 4 barras

A finalidade deste exemplo é de mostrar de uma forma didática, como os métodos (PSO e HPSOM) trabalham e também identificar os elementos envolvidos no processo de otimização. Isto será feito através de explicar e associar a nomenclatura usada pelos métodos com os conceitos já conhecidos na área de engenharia elétrica. O seguinte sistema simples de 4 barras é usado ( os dados do sistema se encontram no Apêndice A):

1 2

34

~ ~

Figure 5.1 – Sistema elétrico simples

Como caso base, a perda do sistema é dada por 0.2412 pu. A função objetivo deve reduzir este valor. Para esta finalidade, a instalação do capacitor shunt nas barras 3 e 4 é considerada. Estas barras têm bancos dos capacitores disponíveis, e a escala da compensação pode variar de 0 a 1 pu. Quando o processo foi iniciado, a seguinte população foi obtida:

Tabela 5.5- A população inicial - sistema 4 barras Barra 3 0 0.0445 0.0380 0.0686 0.0050 Barra 4 0 0.0913 0.0203 0.0919 0.0766

Neste momento, é possível associar um significado físico com o que foi apresentado na seção 2.4 e também com o dicionário mostrado pelo autor do trabalho apresentado em [9]. Uma partícula é relacionada à ação do controle. Neste caso, qualquer par da compensação shunt nas barras 3 e 4 representa uma partícula. A população ou o enxame é um conjunto das partículas, e neste exemplo, por simplificação, foi ajustado a 5. Os efeitos de cada

Page 62: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

50

partícula na função objetivo podem ser calculados. Tal cálculo consiste em determinar a perda do sistema quando cada partícula (compensação shunt) é considerada. Para cada partícula, é obtido:

Tabela 5.6- Relação das partículas e o seu valor de perdas - sistema 4 barras Partícula 1 2 3 4 5 Perdas 0.2412 0.2236 0.2412 0.2181 0.2356

Dos resultados acima, pode determinar o melhor indivíduo. Como aquela é a primeira iteração, este valor já é o melhor indivíduo de cada partícula. O melhor global é dado pelo resultado do mais eficaz da população, que é dada pela partícula 4 (0.2181). A fim de gerar uma nova população, precisa-se considerar o melhor indivíduo de cada partícula, o melhor global da população, o peso da inércia, o coeficiente de aceleração e também a velocidade da partícula.

Até este ponto, o valor inicial da população é mantido igual para os dois algoritmos (PSO e HPSOM) e daqui para adiante o processo de otimização será divido em duas direções: usando PSO e HPSOM.

5.1.5.1 Usando PSO: Como está na primeira iteração e com a população inicial já foi gerada então, seguindo o algoritmo (Figura 2.6), os valores das velocidades das partículas são calculados pela equação 2.3:

Tabela 5.7(a)- Relação das partículas e suas velocidades – sistema 4 barras (PSO) Partícula 1 2 3 4 5 Barra 3 0.0049 0.0062 0.0026 0.0099 0.0080 Barra 4 0.0021 0.0025 0.0024 0.0024 0.0042

Uma vez que a velocidade é conhecida, a nova população é calculada pela equação 2.7, gerando os seguintes resultados:

Tabela 5.7(b)- A nova população (1ª- Iteração) – sistema 4 barras (PSO) Partícula 1 2 3 4 5 Barra 3 0.215 0.0492 0.0456 0.0761 0.0294 Barra 4 0.0218 0.0932 0.0658 0.0937 0.0806

O melhor individual pode agora ser obtido da seguinte forma: para cada partícula, o valor nesta iteração é comparado com os valores na iteração precedente. Isto dá os resultados abaixo. O número entre parênteses indica a iteração onde o melhor individual ocorre.

Tabela 5.7 (c)- O melhor individual de cada partícula – sistema 4 barras (PSO) Partícula 1 2 3 4 5 Melhor Ind. 0.2412(2) 0.2222(2) 0.2273(2) 0.2162(2) 0.2288(2)

Page 63: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

51

É importante mencionar que, não necessariamente, todas as partículas produzem resultados melhores com a evolução do processo. Isto significa que, uma partícula qualquer pode se mover para uma posição associada com resultado pior do que obtido na iteração anterior. Isto é, a base do processo cognitivo e estocástico. Pode-se observar que o valor 0.2162 (partícula 4) é o melhor valor global desta população, uma vez que tem o menor valor de perda do sistema . Isto significa que, até então, a partícula 4 com os valores (0.0761, 0.0937) tem os melhores resultados. Então, a barra 3 deve experimentar compensação shunt com o valor de aproximadamente 0.0761 pu, e a barra 4 com o valor shunt de 0.0937 pu. O processo é repetido, e a velocidade de cada partícula deve ser calculada, como também a sua nova posição. Após a quinta e última iteração os resultados obtidos foram:

Tabela 5.7(d)- A população da última (5ª- Iteração) – sistema 4 barras (PSO) Partícula 1 2 3 4 5 Barra 3 0.0586 0.0895 0.0809 0.0782 0.0830 Barra 4 0.0870 0.0942 0.1541 0.1102 0.1377

Neste caso, a função objetivo para cada partícula é dada por:

Tabela 5.7(e)- O melhor global de cada partícula – sistema 4 barras (PSO) Partícula 1 2 3 4 5 Perdas 0.2210 0.2133 0.2073 0.2135 0.2089

Desta vez, a partícula 3 está associada com o melhor valor global. Esta partícula indica uma compensação de 0.0809 pu na barra 3 e 0.1541 na barra 4. Note que, nas primeiras duas iterações, a partícula 4 era a melhor global. Esta característica importante mostra que todas as partículas devem ser focalizadas a fim de buscar uma boa direção. Por ser um exemplo ilustrativo, apenas o número de iterações foi empregado como o único critério de parada.

5.1.5.2 Usando HPSOM: Repete-se agora o processo usando o HPSOM. A partir da primeira iteração e com a população inicial já gerada ( Tabelas 5.5-5.6) , os valores das velocidades das partículas são calculados pela equação 5.3:

Tabela 5.8(a)- Relação das partículas e suas velocidades – sistema 4 barras (HPSOM) Partícula 1 2 3 4 5 Barra 3 0.0049 0.0006 0.0087 0.0070 0.0203 Barra 4 0.0021 0.0075 0.0327 0.0055 0.0192

Uma vez que a velocidade é conhecida, a nova população é calculada pela equação 2.7, gerando as seguintes resultados:

Page 64: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

52

Tabela 5.8(b)- A nova população (1ª- Iteração) – sistema 4 barras (HPSOM) Partícula 1 2 3 4 5 Barra 3 0.0219 0.0451 0.0467 0.0686 0.0050 Barra 4 0.0219 0.0988 0.0530 0.0919 0.0766

Neste momento, o processo de mutação é iniciado, e o valor da equação é calculado. A taxa de mutação usada neste exemplo é de 30%. Isto significa que somente 2 partículas serão selecionadas aleatoriamente do enxame (com a população de 5). Usando a equação 4.1 o valor do mut é calculado da seguinte forma: ω = [ ])(*1.0,0 minmax xx − = 0.0100, onde, 0min =x , 0.1max =x As partículas selecionadas aleatoriamente para esta iteração são as partículas 2 e 3. Para ilustrar como a equação do mutação é calculada, o processo do mutação para a partícula 2 da barra 3 é dado pelo : mut (p[2,3])=(0.0451*-1)+0.0100 = -0.0351 . Os valores das partículas nas barras 3 e 4, antes e depois da mutação, são dados por:

Tabela 5.8(c)- As partículas sorteados para a Mutação – sistema 4 barras (HPSOM) Partículas 2 – Barra 3 3 – Barra 3 2 – Barra 4 3 – Barra 4 Antes 0.0451 0.0467 0.0988 0.0530 Depois -0.0351 -0.0367 -0.0888 -0.0430

A nova população após a mutação é dada por:

Tabela 5.8(d)- A nova população antes e depois da Mutação – sistema 4 barras (HPSOM) Partícula 1 2 3 4 5 Barra 3 0.0219 -0.0351 0.0367 0.0686 0.0050 Barra 4 0.0219 -0.0888 -0.0430 0.0919 0.0766

Para esta população o valor da função objetivo associado a cada partícula é calculado da seguinte forma:

Tabela 5.8(e)- Relação das partículas e o seu valor de perdas - sistema 4 barras (HPSOM) Partícula 1 2 3 4 5 Perdas 0.2412 0.2236 0.2412 0.2158 0.2274

O número entre parentes indica a iteração onde o melhor individual foi encontrado.

Tabela 5.8 (f)- O melhor individual de cada partícula – sistema 4 barras(HPSOM) Partícula 1 2 3 4 5 Melhor Ind. 0.2412(1) 0.2236(1) 0.2412(1) 0.2158(2) 0.2274(2)

O valor 0.2158 (isto é a partícula (0.0686, 0.0919)) é a partícula com o melhor global desta população, uma vez que tem o menor valor de perda do sistema. Isto significa que, a barra 3 deve experimentar compensação shunt com o valor de aproximadamente 0.0686 pu, e a barra 4 com o valor shunt de aproximadamente 0.0919 pu. O processo é repetido, e a

Page 65: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

53

velocidade de cada partícula deve ser calculada, bem como também a mutação e sua nova posição. Após a quinta e última iteração os resultados obtidos foram:

Tabela 5.8(g)- A população da última (5ª- Iteração) – sistema 4 barras (HPSOM) Partícula 1 2 3 4 5 Bus 3 0.1131 0.0673 0.2193 -0.1397 0.1584 Bus 4 0.1292 0.1022 0.1107 -0.1064 0.1325

Neste caso, a função objetiva para cada partícula é dada por:

Tabela 5.8(h)- O melhor global de cada partícula – sistema 4 barras (HPSOM) Partícula 1 2 3 4 5 Perdas 0.2257 0.2182 0.1899 0.2137 2034

Desta vez, a partícula 3 está associada com o melhor valor global. Esta partícula indica uma compensação shunt de 0.2193 pu na barra 3 e 0.1107 na barra 4. Note que, nas primeiras duas iterações, a partícula 4 era o melhor global.

Nota-se, os resultados finais foram diferentes nos dois casos usando o mesmo número de população e iterações a pesar que, a partícula associada com o menor perda foi por acaso a mesma (partícula 3), no PSO a perda do sistema foi de 0.2073 e no HPSOM foi de 0.1899, desta forma o HPSOM apresentou melhor desempenho.

5.1.6 Simulação do Sistema IEEE14 barras

Nesta seção serão apresentados os resultados de simulações no Sistema IEEE 14 barras, inicialmente na barras criticas (BCS) e em seguida em todas as barras (TBS).

5.1.6.1 Simulação nas BCS – IEEE14 As Tabelas 5.9 e 5.11 mostram os resultados obtidos pelas simulações realizadas

para o sistema IEEE 14 barras para fator de carregamento de 1pu. Analisando as tabelas, e comparando os três métodos, pode se observar melhores resultados obtidos pelo HPSOM comparando com PSO e MPC na redução de perdas. O HPSOM apresentou melhores resultados comparando com MPC desde a primeira simulação com população = 5 e iterações =5 (ver Tabela 5.11). No caso de PSO e MPC, o algoritmo PSO apresentou uma redução melhor a partir da iteração = 35 ( ver Tabela 5.10).

Tabela 5.9 - Resultados obtidos pelo MPC – Sistema – IEEE 14

Barras Criticas (BCT)

Iterações = 6 Tempo de Simulação (s) = 0.89 Perda de Potência Ativa (antes) (pu) = 0.091 Perda de Potência Ativa (depois) (pu) = 0.0903 Redução de P.P. Ativa (pu) = 0.0005

Page 66: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

54

Tabela 5.10 - Resultados obtidos pelo PSO no sistema IEEE 14 – barras Criticas Numero de População = 5 - PSO

Perda Potência Ativa (antes) (pu) = 0.09099 Iteração P.P. Ativa

(depois) (pu)

Redução de P. P. Ativa

(pu)

Tempo de simulação

(s)

Total Shunt instalado

(pu) 5 0.09041622 0.00057395 30.49 0.11324086 10 0.09041622 0.00057395 61.74 0.11324086 15 0.09041622 0.00057395 91.51 0.11324086 20 0.09041622 0.00057395 119.80 0.11324086 25 0.09041622 0.00057395 147.20 0.11324086 30 0.09041622 0.00057395 174.83 0.11324086 35 0.09038501 0.00060516 199.05 0.09891350 40 0.09037969 0.00061048 223.33 0.11457272 45 0.09037967 0.00061050 249.15 0.11009633 50 0.09037343 0.00061674 275.57 0.10464175 55 0.09037065 0.00061952 301.98 0.10491014 60 0.09036921 0.00062096 328.40 0.10541847 65 0.09036818 0.00062199 355.15 0.10583967 70 0.09036766 0.00062251 381.57 0.10634546 75 0.09036750 0.00062267 408.05 0.10656279 80 0.09036742 0.00062275 434.52 0.10658013 85 0.09036742 0.00062275 460.88 0.10658582 90 0.09036742 0.00062275 487.30 0.10658718 95 0.09036742 0.00062275 513.78 0.10658730 100 0.09036742 0.00062275 540.64 0.10658731

(a)- PSO (b)- HPSOM

Figura 5.2 – A evolução dos algoritmos PSO/HPSOM – IEEE 14- Barras Criticas

Page 67: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

55

Tabela 5.11 - Resultados obtidos pelo HPSOM sistema IEEE 14 – barras Criticas Numero de População = 5 – HPSOM

Perda Potência Ativa (antes) (pu) = 0.09099 Iteração P.P. Ativa

(depois) (pu)

Redução de P. P. Ativa

(pu)

Tempo de simulação

(s)

Total Shunt instalado

(pu) 5 0.09036308 0.00062709 112.65 0.10440000 10 0.09036308 0.00062709 135.44 0.10440000 15 0.09036308 0.00062709 158.84 0.10440000 20 0.09036164 0.00062852 179.82 0.10523192 25 0.09036027 0.00062990 198.77 0.10608202 30 0.09036027 0.00062990 217.61 0.10608202 35 0.09036020 0.00062997 235.46 0.10612540 40 0.09036019 0.00062998 253.53 0.10613050 45 0.09035885 0.00063132 271.99 0.10526498 50 0.09035436 0.00063580 289.78 0.10561314 55 0.09035138 0.00063879 306.54 0.10667764 60 0.09034805 0.00064212 322.85 0.10706952 65 0.09034704 0.00064313 340.15 0.10726002 70 0.09034622 0.00064395 357.56 0.10711262 75 0.09034580 0.00064437 373.77 0.10710461 80 0.09034559 0.00064458 389.97 0.10717227 85 0.09034548 0.00064469 406.12 0.10721709 90 0.09034548 0.00064469 422.48 0.10722469 95 0.09034546 0.00064471 438.69 0.10722513 100 0.09034546 0.00064471 454.78 0.10722532

(a)- PSO (b)- HPSOM

Figure 5.3-: O comportamento das partículas usando PSO/HPSOM - Pop(5)

Page 68: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

56

(a)- PSO (b)- HPSOM

Figure 5.4- A evolução dos algoritmos PSO/HPSOM a partir de 20ª iteração - Pop(5) Tabela 5.12 (a,b) - Resultados obtidos pelos PSO e HPSOM- IEEE 14 – BCS

Número de População = 10 Perda Potência Ativa (antes) (pu) = 9099017 PSO HPSOM

Itera P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

5 0.09039776 0.00059241 4.11 0.10264365 10 0.09039776 0.00059241 8.24 0.10264365 15 0.09039776 0.00059241 12.16 0.10471832 20 0.09039776 0.00059241 16.14 0.10471832 25 0.09039776 0.00059241 19.83 0.10471832 30 0.09039776 0.00059241 23.31 0.10471832 35 0.09039776 0.00059241 26.69 0.10471832 40 0.09036778 0.00062239 30.13 0.11544538 45 0.09036091 0.00062926 33.73 0.12003763 50 0.09036064 0.00062953 37.52 0.11989585 55 0.09035966 0.00063051 41.30 0.11936608 60 0.09035954 0.00063062 45.09 0.11933401 65 0.09035949 0.00063068 48.95 0.11917146 70 0.09035769 0.00063248 52.75 0.11608773 75 0.09035745 0.00063272 56.56 0.11577230 80 0.09035730 0.00063287 60.38 0.11579828 85 0.09035727 0.00063290 64.23 0.11579438 90 0.09035727 0.00063290 68.03 0.11581070 95 0.09035727 0.00063290 71.84 0.11580664 100 0.09035727 0.00063290 75.69 0.11580619

0.09037421 0.00061596 3.42 0.10039760 0.09036889 0.00062128 7.20 0.10688778 0.09036829 0.00062187 10.83 0.10123499 0.09034190 0.00064827 14.17 0.10307741 0.09034190 0.00064827 17.89 0.10307741 0.09034190 0.00064827 21.42 0.10307741 0.09034178 0.00064839 24.81 0.10307803 0.09034178 0.00064839 28.14 0.10307803 0.09034162 0.00064855 31.38 0.10292951 0.09034016 0.00065001 34.55 0.10334608 0.09033942 0.00065075 37.91 0.10362536 0.09033925 0.00065092 41.14 0.10368822 0.09033902 0.00065115 44.41 0.10361619 0.09033871 0.00065146 47.61 0.10351063 0.09033838 0.00065178 50.70 0.10319155 0.09033833 0.00065184 53.97 0.10320160 0.09033831 0.00065186 57.17 0.10321190 0.09033830 0.00065187 60.27 0.10321637 0.09033829 0.00065188 63.22 0.10322021 0.09033829 0.00065188 66.17 0.10322032

Na comparação dos dois algoritmos PSO e HPSOM, pode se observar que, o algoritmo HPSOM apresentou desde o início de simulação resultados melhores. Os gráficos da Figura 5.2(a,b), apresentam a evolução dos algoritmos, onde HPSOM teve melhor tendência de redução. Os gráficos da Figura 5.3 (a,b) apresentam os comportamentos das

Page 69: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

57

partículas nos dois algoritmos. Estes gráficos mostram claramente que, as partículas do PSO ao se aproximarem no final de iterações (~ 80) entraram no estado de estagnação, enquanto as partículas do HPSOM se mantém ativas na busca de melhores soluções, como fica evidente na Figura 5.4 (a,b). Onde o gráfico apresenta a evolução dos algoritmos a partir da 20ª iteração para ampliar o foco sobre a parte onde aconteceu este comportamento em especial . Na maioria absoluta de simulações estes resultados permaneceram estáveis.

Os gráficos das Figuras 5.2(a,b) apresentam uma tendência de melhora na redução de perdas com aumento do número de população de partícula e o aumento de número de iterações. Esta tendência é constatada em todas as simulações, independentemente do sistema.

As Tabelas 5.12 e 5.13, apresentam os resultados utilizando PSO e HPSOM com população de 10 e 15 respectivamente.

As Figuras 5.5 (a,b) apresentam gráficos dos algoritmos com o aumento de iteração e o número da população. Pode ser observado que a solução tende a melhorar.

Tabela 5.13 (a,b) - Resultados obtidos pelos PSO/HPSOM- IEEE 14 – BCS criticas

Número de População = 15 Perda Inicial = 9099017 PSO HPSOM

Itera P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

5 0.09036721 0.00062296 4.80 0.09582646 10 0.09036705 0.00062312 10.08 0.09748251 15 0.09035669 0.00063347 14.80 0.09861758 20 0.09034784 0.00064233 19.84 0.10008997 25 0.09034439 0.00064578 25.03 0.10215723 30 0.09033973 0.00065044 30.02 0.10311043 35 0.09033841 0.00065176 35.20 0.10339469 40 0.09033815 0.00065202 40.58 0.10349661 45 0.09033811 0.00065206 45.91 0.10349704 50 0.09033803 0.00065213 51.11 0.10346126 55 0.09033801 0.00065216 56.22 0.10343453 60 0.09033800 0.00065217 61.39 0.10343514 65 0.09033799 0.00065218 66.67 0.10343243 70 0.09033799 0.00065218 71.88 0.10343171 75 0.09033797 0.00065219 76.89 0.10342244 80 0.09033796 0.00065221 81.80 0.10342397 85 0.09033796 0.00065221 86.64 0.10342220 90 0.09033795 0.00065222 91.69 0.10342151 95 0.09033795 0.00065222 96.58 0.10342128 100 0.09033795 0.00065222 101.41 0.10341871

0.09035983 0.00063034 5.97 0.10915536 0.09035983 0.00063034 12.44 0.10915536 0.09035983 0.00063034 18.66 0.10915536 0.09035893 0.00063124 24.27 0.10993119 0.09035893 0.00063124 29.66 0.10993119 0.09035885 0.00063132 35.09 0.11000588 0.09035885 0.00063132 40.52 0.11000588 0.09035884 0.00063133 45.78 0.11000733 0.09035575 0.00063442 51.25 0.10903626 0.09034675 0.00064341 56.44 0.10469921 0.09034247 0.00064770 61.41 0.10327239 0.09034117 0.00064900 66.55 0.10310693 0.09034094 0.00064923 71.89 0.10284245 0.09033888 0.00065128 76.72 0.10350374 0.09033798 0.00065219 81.41 0.10378145 0.09033757 0.00065260 86.14 0.10391477 0.09033757 0.00065260 91.17 0.10391374 0.09033756 0.00065261 95.89 0.10391176 0.09033756 0.00065261 100.34 0.10391061 0.09033755 0.00065262 104.77 0.10391514

Page 70: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

58

(a) - PSO (b): HPSOM

(c) - PSO (escala maior - 5ª- Iteração) (d): HPSOM (escala maior - 5ª- Iteração)

Figure5.5- A evolução dos algoritmos PSO/HPSOM - IEEE14

5.1.6.2 Simulação nas TBS – IEEE14

No caso de redução de perdas em todas as barras e como mostrado nas Tabelas 5.14 e 5.15 (a,b), o PSO somente alcança os mesmo resultados do MPC com iteração = 45 e HPSOM com iteração = 25, e os dois algoritmos mantém a tendência de maior redução, como é mostrado nos gráficos da Figura 5.6 (a,b). Esta situação de não alcançar os mesmos resultados do MPC desde o inicio é gerada pelo aumento do número de barras que neste sistema em especial são passados de 4 para 9 barras, como consta na Tabela 5.3. Esta situação vai se repetir em todos os sistemas, e em alguns casos vai necessitar de um aumento de número de iterações por parte dos algoritmos PSO e HPSOM para que alcancem os mesmos resultados obtidos pela MPC.

A Tabela 5.15 (c) apresenta uma versão compacta das Tabelas 5.15 (a,b) com apenas 100 iterações, a fim de simplificar a interpretações dos resultados.

Page 71: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

59

Tabela 5.14 - Resultados obtidos pelo MPC – Sistema – IEEE 14

Toadas as Barras (TBS)

Iterações = 9 Tempo de Simulação (s) = 0.89 Perda de Potência Ativa (antes) (pu) = 0.091 Perda de Potência Ativa (Depois) (pu) = 0.0899 Redução de P.P. Ativa (pu) = 0.0011

Tabela 5.15(a,b) - Resultados obtidos pelos PSO/HPSOM- sistema IEEE 14 – TBS. PSO – P. P. Ativa (antes) (pu) = 0.09099017 HPSOM

População = 5 População = 5

Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

5 0.09078400 0.00020617 2.25 0.11068847 25 0.09078400 0.00020617 11.55 0.11068847 50 0.09051756 0.00047261 21.66 0.00840953 75 0.09005388 0.00093629 32.00 0.03557383 100 0.09005297 0.00093720 42.42 0.03522064

0.09053317 0.00045700 1.52 0.09935994 0.09010919 0.00088098 7.98 0.05860591 0.08996253 0.00102764 16.95 -0.01803455 0.08995108 0.00103909 25.92 -0.00757745 0.08995105 0.00103912 34.86 -0.00760884

População = 10 População = 10

Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

5 0.09075000 0.00024017 4.28 0.09939676 25 0.09074997 0.00024020 19.83 0.10222233 50 0.08998794 0.00100223 38.02 0.04047896 75 0.08984527 0.00114489 53.36 -0.00198787 100 0.08984128 0.00114889 76.42 -0.00065533

0.09056892 0.00042125 3.06 0.11980364 0.09004937 0.00094080 17.02 0.03832095 0.08988595 0.00110422 34.94 0.01383477 0.08986443 0.00112574 52.70 0.01379422 0.08986280 0.00112737 70.86 0.01386944

População = 15 População = 15

Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

5 0.09061366 0.00037651 6.69 0.10792726 25 0.09061240 0.00037777 30.33 0.12834041 50 0.08993192 0.00105825 57.83 -0.00085381 75 0.08984609 0.00114407 87.48 0.01224753 100 0.08984390 0.00114627 116.53 0.01300418

0.09046173 0.00052844 5.48 0.11731905 0.08997065 0.00101951 27.83 0.00652116 0.08985989 0.00113027 54.67 0.00789957 0.08984617 0.00114400 81.61 -0.00925344 0.08984606 0.00114411 108.50 -0.00873955

Page 72: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

60

Tabela 5.15(c) - Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 14 – TBS.

Numero de População = 5,10,15 P.P. Ativa (antes) = 0.09099017

POP/ Iter

P.P. Ativa (depois)

Redução de P. P. Ativa (pu)

Tempo (s)

Total Shunt instalado

MPC 9 0.0899 0.0011 0.89 1.0490

5 /100 0.09005297 0.00093720 42.42 0.03522064

10/100 0.08984128 0.00114889 76.42 -0.0006553

PSO

15/100 0.08984390 0.00114627 116.53 0.01300418

5/100 0.08995105 0.00103912 34.86 -0.00760884

10/100 0.08986280 0.00112737 70.86 0.01386944

HPSOM

15/100 0.08984606 0.00114411 108.50 -0.00873955

(a)- PSO

(b)- HPSOM

Figure 5.6- A evolução dos algoritmos PSO/HPSOM - IEEE14- Todas as Barras

5.1.7 Simulação do Sistema IEEE30 barras

Nesta seção serão apresentados os resultados de simulações no Sistema IEEE 30 barras, inicialmente na barras criticas (BCS) e em seguida em todas as barras (TBS).

5.1.7.1 Simulação nas BCS – IEEE30 As Tabelas 5.16 e 5.17 (a, b) mostram os resultados obtidos pelas simulações para o sistema IEEE 30 barras para fatores de carregamento de 1 pu. Como no item anterior, no caso das barras criticas, o PSO e HPSOM apresentam resultados melhores do que MPC

Page 73: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

61

desde o inicio de processo com população = 5 e com iterações = 5. O HPSOM apresenta as melhores resultados com população = 5. O PSO, por sua vez, alcança bons resultados com o aumento da população e neste caso até ultrapassa o HPSOM com população = 15, como é também mostrado no gráfico da Figura 5.7 (a,b).

A Tabela 5.17 (c) apresenta uma versão compacta das Tabelas 5.17 (a,b) com apenas 100 iterações para simplificar a interpretações dos resultados.

Tabela 5.16 - Resultados obtidos pelo MPC – Sistema IEEE 30

Barras Criticas – IEEE 30

Iterações = 6 Tempo de Simulação (s) = 4.96 P.P Ativa (antes) (pu) = 0.1896 P.P Ativa (depois) (pu) = 0.184 Redução de P.P. Ativa (pu) = 0.0056

Tabela 5.17(a,b) - Resultados obtidos pelos PSO/HPSOM- sistema IEEE 30 – BCS PSO – P. P. Ativa (antes) (pu) = 0.18962255 HPSOM

População = 5 População = 5

Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

5 0.18187247 0.00775008 5.14 0.24561269 25 0.18178006 0.00784249 28.33 0.28022136 50 0.18170207 0.00792048 53.70 0.28885608 75 0.18154986 0.00807269 79.95 0.28136534 100 0.18154918 0.00807337 106.28 0.28138529

0.18171749 0.00790506 2.30 0.26015702 0.18156892 0.00805363 11.77 0.28792036 0.18153594 0.00808661 23.61 0.28679078 0.18148746 0.00813509 35.38 0.29040139 0.18147772 0.00814483 47.45 0.29000280

População = 10 População = 10

Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

5 0.18190299 0.00771956 7.94 0.24783826 25 0.18181651 0.00780604 36.70 0.28301119 50 0.18156779 0.00805476 67.33 0.28790942 75 0.18141488 0.00820767 94.52 0.28587097 100 0.18139671 0.00822584 122.31 0.28629105

0.18162110 0.00800146 4.58 0.26764130 0.18145504 0.00816751 23.36 0.28935626 0.18132028 0.00830227 46.91 0.28368012 0.18131041 0.00831214 70.66 0.28403509 0.18130889 0.00831366 94.39 0.28407691

População = 15 População = 15

Ite P.P. Ativa P.P.Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

5 0.18164544 0.00797711 2.17 0.26565748 25 0.18158854 0.00803401 59.02 0.28925055 50 0.18136273 0.00825982 112.34 0.28806400 75 0.18127150 0.00835105 162.77 0.28611939 100 0.18126211 0.00836044 213.05 0.28632191

0.18149047 0.00813208 6.84 0.26579463 0.18141779 0.00820476 35.09 0.28946575 0.18128919 0.00833336 70.47 0.28562741 0.18126613 0.00835643 106.45 0.28582465 0.18126535 0.00835720 142.59 0.28581151

Page 74: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

62

Tabela 5.17(c) -Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 30–BCS.

Numero de População= 5,10,15 P.P. Ativa (antes) = 0.18962255

POP/ Iter

P.P. Ativa (Depois)

Redução de P. P. Ativa (pu)

Tempo (s)

Total Shunt instalado

MPC 6 0.184 0.0056 4.96 0.2827

5 /100 0.18154918 0.00807337 106.28 0.28138529

10/100 0.18139671 0.00822584 122.31 0.28629105

PSO

15/100 0.18126211 0.00836044 213.05 0.28632191

5/100 0.18147772 0.00814483 47.45 0.29000280

10/100 0.18130889 0.00831366 94.39 0.28407691

HPSOM

15/100 0.18126535 0.00835720 142.59 0.28581151

(a)- PSO

(b)- HPSOM

(c)- PSO (escala maior - 5ª- Iteração)

(d)- HPSOM (escala maior - 5ª- Iteração)

Figure 5.7- A evolução dos algoritmos PSO/HPSOM - IEEE30 - BCS

Page 75: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

63

5.1 .7.2 Simulação nas TBS – IEEE30

No caso de redução de perdas em todas as barras, como mostrado nas Tabelas 5.18 e 5.19 (a,b), o PSO e HPSOM não alcançaram o mesmo resultado obtidos pelo MPC com população de 5, 10 e 15 e necessita de aumento de número de iterações. Os gráficos das Figuras 5.8(a,b) mostram esta tendência.

A Tabela 5.19 (c) apresenta uma versão compacta das Tabelas 5.19 (a,b) com apenas 100 iterações para simplificar a interpretações dos resultados.

(a)-PSO

(b)-HPSOM

(a)-PSO (escala maior - 5ª- Iteração)

(b)-HPSOM (escala maior - 5ª- Iteração)

Figure 5.8- A evolução dos algoritmos PSO/HPSOM - IEEE30 – TBS

Page 76: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

64

Tabela 5.18 - Resultados obtidos pelo MPC – Sistema IEEE 30 Todas as Barras – IEEE 30

Iteração = 10 Tempo = 8.35 P.P. Ativa (antes) = 0.1896 P.P. Ativa (Depois) = 0.1783 Redução = 0.0113

Tabela 5.19 (a,b) - Resultados obtidos pelo PSO sistema IEEE 30 – Todas as Barras PSO – P. P. Ativa (antes) (pu) = 0.18962255 HPSOM

População = 5 População = 5

Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

5 0.18063805 0.00898450 4.48 0.30691063 25 0.18042311 0.00919944 19.69 0.32463203 50 0.18041718 0.00920537 32.89 0.32516787 75 0.18036935 0.00925320 45.44 0.32149205 100 0.18031622 0.00930633 58.19 0.32290373

0.18073349 0.00888906 2.27 0.29093544 0.18065570 0.00896685 11.67 0.29593851 0.18065090 0.00897165 23.06 0.29625369 0.18060903 0.00901352 34.36 0.29777501 0.18060340 0.00901915 45.83 0.29793513

População = 10 População = 10

Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

P.P Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

5 0.18123220 0.00839035 9.45 0.27902518 25 0.18061866 0.00900389 44.03 0.32026264 50 0.18061810 0.00900445 74.23 0.32030661 75 0.18047896 0.00914359 98.70 0.33315479 100 0.18036992 0.00925264 123.42 0.33932326

0.18055438 0.00906817 4.20 0.30343231 0.18051957 0.00910298 22.67 0.30596792 0.18049386 0.00912869 46.17 0.30376842 0.18039646 0.00922609 70.05 0.30021547 0.18037118 0.00925137 94.09 0.30038815

População = 15 População = 15

Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

5 0.18087628 0.00874627 14.69 0.30190055 25 0.18078846 0.00883409 73.75 0.30796779 50 0.18078748 0.00883508 137.02 0.30803726 75 0.18029656 0.00932599 195.66 0.32972810 100 0.18021760 0.00940495 254.83 0.32666634

0.18041347 0.00920908 6.39 0.30510003 0.18028354 0.00933901 34.11 0.31229991 0.18018882 0.00943373 68.89 0.31395918 0.18006706 0.00955549 104.47 0.31970647 0.18002917 0.00959338 140.31 0.32251528

Page 77: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

65

Tabela 5.19(c) -Resumo dos resultados obtidos pelos PSO/HPSOM-sistema IEEE 30– TBS.

Numero de População = 5,10,15 P.P. Ativa (Antes) = 0.18962255

POP/ Iter

P.P. Ativa (Depois)

Redução de P. P. Ativa (pu)

Tempo (s)

Total Shunt instalado

MPC 10 0.1783 0.0113 8.35 1.6511

5 /100 0.18031622 0.00930633 58.19 0.32290373

10/100 0.18036992 0.00925264 123.42 0.33932326

PSO

15/100 0.18021760 0.00940495 254.83 0.32666634

5/100 0.18060340 0.00901915 45.83 0.29793513

10/100 0.18037118 0.00925137 94.09 0.30038815

HPSOM

15/100 0.18002917 0.00959338 140.31 0.32251528

Tabela 5.20 (a,b) - Resultados obtidos pelo PSO/HPSOM sistema IEEE 30 – TBS- iteração = 500

PSO – População = 15 HPSOM Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

P.P. Ativa P.P. Ativa Tempo Tot. ShuntDepois (pu) Redução (pu) Simulação Instalado

50 0.18049415 0.00912840 192.02 0.30517389 100 0.18049291 0.00912964 378.72 0.30526579 150 0.18049291 0.00912964 508.56 0.30526579 200 0.17930750 0.01031505 613.53 0.50418642 250 0.17898896 0.01063359 712.08 0.49367290 300 0.17882696 0.01079559 811.06 0.50579156 350 0.17881801 0.01080454 914.78 0.50609992 400 0.17881798 0.01080457 1019.19 0.50610090 450 0.17881798 0.01080457 1124.23 0.50610091 500 0.17881798 0.01080457 1229.22 0.50610091

0.18051119 0.00911136 67.94 0.30177493 0.18051119 0.00911136 137.67 0.30177493 0.17973408 0.00988847 207.11 0.32694368 0.17887682 0.01074573 277.41 0.40183573 0.17853154 0.01109102 349.13 0.44150669 0.17833916 0.01128339 422.81 0.48702635 0.17827474 0.01134781 498.44 0.51059651 0.17826915 0.01135340 575.95 0.51416224 0.17826913 0.01135342 654.86 0.51417523 0.17826913 0.01135342 734.91 0.51417524

Como foi mencionado na seção anterior, no caso da redução nas TBS, os algoritmos

PSO e HPSOM necessitam de mais iterações. Este fato é gerado pelo aumento de número de barras que neste sistema IEEE 30 passaram de 6 para 24 barras, como consta na Tabela 5.3. Para demonstrar esta situação foram realizadas simulações com população de 15 e com 500 iterações como apresentado nas Tabelas 5.20 (a,b) e mais resumido na Tabela 5.20 (c). Pode observar que neste caso e devido o aumento de número de iterações o HPSOM alcançou o mesmo resultado obtido pelo MPC e o PSO chegou próximo, o que confirma a afirmação dada anteriormente.

Page 78: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

66

Tabela 5.20(c) - Resumo dos resultados obtidos pelo PSO/HPSOM sistema IEEE 30 – TBS- iteração = 500

Numero de População = 15 P.P. Ativa (Antes) = 0.18962255

POP/ Iter

P.P. Ativa (Depois)

Redução de P. P. Ativa (pu)

Tempo (s)

Total Shunt instalado

MPC 10 0.1783 0.0113 8.35 1.6511

15/300 0.17882696 0.01079559 811.06 0.50579156

15/400 0.17881798 0.01080457 1019.19 0.50610090

PSO

15/500 0.17881798 0.01080457 1229.22 0.50610091

15/300 0.17833916 0.01128339 422.81 0.29793513

10/400 0.17826915 0.01135240 575.95 0.51416224

HPSOM

15/500 0.17826913 0.01135342 734.91 0.51417524

5.1.8 Simulação do Sistema IEEE57 barras

Nesta seção serão apresentados os resultados de simulações no Sistema IEEE 57 barras, inicialmente na barras criticas (BCS) e em seguida em todas as barras (TBS).

5.1.8.1 Simulação nas BCS – IEEE57 As Tabelas 5.21 e 5.22 (a,b) mostram os resultados obtidos pelas simulações para o sistema IEEE 57 barras para fatores de carregamento de 1 pu. No caso das barras criticas o HPSOM apresenta resultados semelhantes ao MPC com tendência de melhora, como mostrado no gráfico da Figura 5.9. Quanto ao PSO, apresenta resultados um pouco piores.

A Tabela 5.22 (c) apresenta uma versão compacta das Tabelas 5.22 (a,b) com apenas 100 iterações para simplificar a interpretações dos resultados.

Tabela 5.21 - Resultados obtidos pelo MPC – Sistema IEEE57

Barras Criticas – IEEE 57

Iteração = 5 Tempo = 24.95 P.P. Ativa (antes) = 0.3331 P.P. Ativa (Depois) = 0.32118 Redução = 0.012

Page 79: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

67

(a)- PSO

(b)- HPSOM

(c)- PSO (escala maior - 5ª-Iteração)

(d)- HPSOM (escala maior - 5ª- Iteração)

Figure 5.9 - A evolução dos algoritmos PSO/HPSOM - IEEE57 - BCS

Tabela 5.22(c)-Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 5– BCS.

Numero de População = 5,10,15 P.P. Ativa (Antes) = 0.3314487

POP/ Iter

P.P. Ativa (Depois)

Redução de P. P. Ativa (pu)

Tempo (s)

Total Shunt instalado

MPC 5 0.32118 0.012 24.95 0.3155

5 /100 0.32216352 0.01098135 51.45 0.26042634

10/100 0.32204286 0.01110201 490.98 0.26634863

PSO

15/100 0.32224829 0.01089658 693.24 0.27699636

5/100 0.32191366 0.01123121 83.39 0.27445589

10/100 0.32178183 0.01136304 176.17 0.28600576

HPSOM

15/100 0.32152498 0.01161989 257.53 0.28859325

Page 80: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

68

Tabela 5.22(a,b) - Resultados obtidos pelo PSO sistema IEEE 57 – Barras Criticas. PSO - Perda Ativa (antes) (pu) = 0.33314487 HPSOM

População = 5 População = 5

Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

5 0.32237881 0.01076606 15.05 0.24625745 25 0.32219962 0.01094525 62.45 0.26218442 50 0.32219733 0.01094754 97.64 0.26245189 75 0.32216435 0.01098052 24.58 0.26031332 100 0.32216352 0.01098135 51.45 0.26042634

0.32262113 0.01052374 3.75 0.23223198 0.32228103 0.01086384 21.34 0.25875768 0.32202364 0.01112123 43.34 0.26602320 0.32191902 0.01122585 63.31 0.27432205 0.32191366 0.01123121 83.39 0.27445589

População = 10 População = 10

Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

5 0.32248346 0.01066141 24.11 0.24136926 25 0.32219685 0.01094802 128.13 0.26475234 50 0.32219672 0.01094815 249.78 0.26476727 75 0.32204993 0.01109494 371.03 0.26563221 100 0.32204286 0.01110201 490.98 0.26634863

0.32214167 0.01100320 8.00 0.26482108 0.32210957 0.01103530 46.20 0.27332951 0.32210922 0.01103565 92.34 0.27336464 0.32179469 0.01135018 135.27 0.28578889 0.32178183 0.01136304 176.17 0.28600576

População = 15 População = 15

Ite P.P, Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

P.P, Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

5 0.32293788 0.01020699 36.61 0.23002148 25 0.32275583 0.01038904 241.20 0.25135548 50 0.32275475 0.01039012 409.30 0.25159874 75 0.32230173 0.01084314 552.33 0.27482867 100 0.32224829 0.01089658 693.24 0.27699636

0.32223826 0.01090661 11.84 0.26814889 0.32223826 0.01090661 68.39 0.26814889 0.32187945 0.01126542 135.02 0.28567391 0.32155088 0.01159399 196.27 0.29168415 0.32152498 0.01161989 257.53 0.28859325

5.1.8.2 Simulação nas TBS – IEEE57 No caso de redução de perdas em todas as barras, como mostrado nas Tabelas 5.23

e 5.24 (a,b), aconteceu a mesma situação ocorrida nos outros sistemas. O PSO e HPSOM não alcançaram o mesmo resultado obtido pelo MPC com população de 5, 10 e 15 e necessitam de aumento de número de iterações. Porém, o HPSOM alcançou melhores resultados com população = 15 com forte tendência de melhora com apresentado no gráfico da Figura 5.10(b) .

A Tabela 5.24 (c) apresenta a versão compacta das Tabelas 5.24 (a,b).

Tabela 5.23 - Resultados obtidos pelo MPC – Sistema IEEE 57

Todas as Barras

Iterações = 9 Tempo de Simulação = 61.12 P.P. Ativa (antes)(pu) = 0.3331 P.P. Ativa (depois)(pu) = 0.2998 Redução de P.P Ativa (pu)= 0.0333

Page 81: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

69

(a)- PSO

(b)- HPSOM

(c)- PSO (escala maior - 5ª- Iteração)

(d)- HPSOM (escala maior - 5ª- Iteração)

Figura 5.10 - A evolução dos algoritmos PSO/HPSOM- IEEE57 – TBS

Tabela 5.24(c) Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 5– TBS.

Numero de População = 5,10,15 P.P. Ativa (Antes) = 0.3314487

POP/ Iter

P.P. Ativa (Depois)

Redução de P. P. Ativa (pu)

Tempo (s)

Total Shunt instalado

MPC 9 0.2998 0.0333 61.12 7.6357 5 /100 0.32344938 0.00969549 145.58 0.25730916

10/100 0.32355659 0.00958828 544.03 0.25571267

PSO

15/100 0.32224829 0.00973524 796.63 0.25505954

5/100 0.32260236 0.01054251 68.73 0.26034524

10/100 0.32023457 0.01291030 159.42 0.26005473

HPSOM

15/100 0.31102295 0.02212192 258.78 0.77465776

Page 82: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

70

Tabela 5.24(a,b) - Resultados obtidos pelo PSO sistema IEEE 57 –TBS.

PSO – P. P. Ativa (antes) (pu) = 0.33314487 HPSOM População = 5 População = 5

Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

5 0.32396865 0.00917622 8.88 0.24190998 25 0.32344939 0.00969548 48.30 0.25730882 50 0.32344938 0.00969549 87.52 0.25730914 75 0.32344938 0.00969549 117.44 0.25730916 100 0.32344938 0.00969549 145.58 0.25730916

0.32346589 0.00967898 3.61 0.24966947 0.32322388 0.00992099 18.83 0.25690661 0.32297388 0.01017099 36.36 0.25446013 0.32262744 0.01051743 52.56 0.25999741 0.32260236 0.01054251 68.73 0.26034524

População = 10 População = 10

Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

5 0.32449603 0.00864884 27.06 0.22848809 25 0.32357390 0.00957097 138.41 0.25520528 50 0.32355659 0.00958828 270.08 0.25571266 75 0.32355659 0.00958828 405.49 0.25571267 100 0.32355659 0.00958828 544.03 0.25571267

0.32406455 0.00908032 7.81 0.23511259 0.32399449 0.00915038 39.63 0.19469395 0.32220425 0.01094062 78.14 0.21735820 0.32041167 0.01273320 118.75 0.25322999 0.32023457 0.01291030 159.42 0.26005473

População = 15 População = 15

Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

5 0.32436390 0.00878097 42.11 0.22775763 25 0.32341161 0.00973327 38.64 0.25500235 50 0.32340963 0.00973524 428.42 0.25505954 75 0.32340963 0.00973524 614.61 0.25505954 100 0.32340963 0.00973524 796.63 0.25505954

0.32356294 0.00958193 11.81 0.26135359 0.31325073 0.01989414 65.91 0.72617974 0.31193360 0.02121127 132.53 0.72772163 0.31109402 0.02205085 196.20 0.76988394 0.31102295 0.02212192 258.78 0.77465776

5.1.9 Simulação do Sistema IEEE118 barras

Nesta seção serão apresentados os resultados de simulações no Sistema IEEE 118 barras, inicialmente na barras criticas (BCS) e em seguida em todas as barras (TBS).

5.1.9.1 Simulação nas BCS – IEEE118 As Tabelas 5.25 e 5.26 (a, b) mostram os resultados obtidos pelas simulações para o sistema IEEE 118 barras para fatores de carregamento de 1 pu. No caso das barras críticas, o PSO e HPSOM apresentam resultados semelhantes ao MPC. Os gráficos das Figuras 5.11(a,b) apresentam uma tendência de melhora com o aumento de números de iterações. A Tabela 5.26 (c) apresenta a versão compacta das Tabelas 5.26 (a,b).

Page 83: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

71

Tabela 5.25 - Resultados obtidos pelo MPC – Sistema IEEE118

Barras Criticas – IEEE 118

Iteração = 7 Tempo = 285.3 P.P. Ativa (antes) = 1.9728 P.P. Ativa (Depois) = 1.971 Redução = 0.0018 Total de shunt instalado (pu) = 0.6196

Tabela 5.26(a,b) - Resultados obtidos pelo PSO sistema IEEE 118 –BCS.

PSO - Perda Ativa (antes) (pu) = 0.33314487 HPSOM População = 5 População = 5

Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

5 1.97190198 0.00093457 18.73 0.20409079 25 1.97190198 0.00093457 87.39 0.20409079 50 1.97145892 0.00137763 155.95 0.33779544 75 1.97137837 0.00145819 209.81 0.39267308 100 1.97137777 0.00145879 263.33 0.39299718

1.97222370 0.00061286 11.17 0.15661822 1.97178127 0.00105529 62.72 0.30174382 1.97138389 0.00145267 124.97 0.41398190 1.97128163 0.00155492 183.88 0.45364891 1.97127956 0.00155700 238.69 0.45431773

População = 10 População = 10

Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

5 1.97230905 0.00052751 40.30 0.15808774 25 1.97189725 0.00093931 202.39 0.31953748 50 1.97171502 0.00112154 384.45 0.41672534 75 1.97157634 0.00126021 564.06 0.55294299 100 1.97154250 0.00129406 744.67 0.57006539

1.97221459 0.00062197 21.97 0.16272738 1.97142391 0.00141264 128.33 0.50938913 1.97131505 0.00152150 262.48 0.56001065 1.97129738 0.00153918 386.03 0.56454069 1.97129540 0.00154116 497.28 0.56498524

População = 15 População = 15

Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

5 1.97252426 0.00031229 63.47 0.09012760 25 1.97225333 0.00058322 310.78 0.17821769 50 1.97129726 0.00153929 587.19 0.49228015 75 1.97097915 0.00185740 856.67 0.71956732 100 1.97097509 0.00186147 1129.61 0.72289243

1.97218692 0.00064963 32.88 0.25582431 1.97095953 0.00187702 193.16 0.72601777 1.97094117 0.00189539 407.98 0.70306330 1.97093122 0.00190533 611.64 0.70671097 1.97092980 0.00190676 813.19 0.71357494

Page 84: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

72

Tabela 5.26(c) -Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEE118– CBS.

Numero de População = 5,10,15 P.P. Ativa (Antes) = 1.97283655

POP/ Iter

P.P. Ativa (Depois)

Redução de P. P. Ativa (pu)

Tempo (s) Total Shunt instalado

MPC 7 1.971 0.0018 285.3 0.6196

5 /100 1.97137777 0.00145879 263.33 0.39299718

10/100 1.97154250 0.00129406 744.67 0.57006539

PSO

15/100 1.97097509 0.00186147 1129.61 0.72289243

5/100 1.97127956 0.00155700 238.69 0.45431773

10/100 1.97129540 0.00154116 497.28 0.56498524

HPSOM

15/100 1.97092980 0.00190676 813.19 0.71357494

(a)- PSO

(b)- HPSOM

(c)- PSO (escala maior - 10ª- Iteração)

(d)- HPSOM (escala maior - 10ª- Iteração)

Figure 5.11 - A evolução dos algoritmos PSO/HPSOM - IEEE118 - BCS

Page 85: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

73

5.1.9.2 Simulação nas TBS – IEEE118 No caso de redução de perdas em todas as barras, como mostrado nas Tabelas 5.27 e 5.28 (a,b), aconteceu a mesma situação ocorrida nos outros sistemas, o PSO e HPSOM não alcançaram os mesmos resultados obtidos pelo MPC com população de 5, 10 e 15. Mas pode ser observado que no caso de HPSOM com população de 15 e iteração = 100 alcançou o melhor resultado e a tendência de encontrar um valor próximo ao resultado encontrado pela MPC fica claro pelo gráfico da Figura 5.12(b), onde a linha que representa a população de 15 teve uma queda acentuada, saindo de um resultado de 0.00347251 com 5 iterações chegando ao valor de 0.01529937 com 100 iterações. A Tabela 5.28 (c) apresenta a versão compacta das Tabelas 5.28 (a,b).

(a)- PSO

(b)-HPSOM

(c)- PSO (escala maior - 10ª- Iteração)

(d)-HPSOM (escala maior - 10ª- Iteração)

Figure 5.12 - A evolução dos algoritmos PSO/HPSOM - IEEE118 - TBS

Page 86: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

74

Tabela 5.27 - Resultados obtidos pelo MPC – Sistema IEEE118 Todas as Barras IEEE 118

Iteração = 8 Tempo = 369.63 P.P. Ativa (antes) = 1.9728 P.P. Ativa (Depois) = 1.918 Redução = 0.0548 Total de shunt instalado (pu) = 13.717

Tabela 5.28(a,b) - Resultados obtidos pelo PSO sistema IEEE 118 –TBS. PSO – P. P. Ativa (antes) (pu) = 1.97283655 HPSOM

População = 5 População = 5

Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

5 1.97077115 0.00206541 27.50 0.58823765 25 1.97017654 0.00266002 132.78 0.77458683 50 1.97017570 0.00266085 254.75 0.77485580 75 1.97017570 0.00266085 373.28 0.77485582 100 1.97017570 0.00266085 492.50 0.77485582

1.97013996 0.00269659 12.89 0.64269999 1.96940310 0.00343346 68.66 1.30112569 1.96895011 0.00388644 135.14 1.40214140 1.96795427 0.00488228 195.30 1.42348859 1.96793447 0.00490208 254.31 1.42353081

População = 10 População = 10

Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

P.P. Ativa P.P.Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

5 1.96959789 0.00323866 51.14 1.02248514 25 1.96954059 0.00329597 261.56 1.04347588 50 1.96953769 0.00329887 506.41 1.04454202 75 1.96953769 0.00329887 749.88 1.04454202 100 1.96953769 0.00329887 987.09 1.04454202

1.96983046 0.00300610 26.91 0.66002782 1.96775389 0.00508266 148.98 1.02803394 1.96151622 0.01132034 319.20 1.33773882 1.95936154 0.01347501 488.05 1.59612639 1.95927199 0.01356457 655.20 1.61983458

População = 15 População = 15

Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

P.P. Ativa P.P. Ativa Tempo Tot. Shunt Depois (pu) Redução (pu) Simulação Instalado

5 1.97026274 0.00257382 75.06 0.81632292 25 1.96856163 0.00427493 391.95 1.49754764 50 1.96855999 0.00427657 756.08 1.49829563 75 1.96855999 0.00427657 1119.19 1.49829565 100 1.96855695 0.00427960 1480.64 1.49811538

1.96936405 0.00347251 36.97 0.85869151 1.96541999 0.00741656 216.59 1.76448480 1.96469820 0.00813835 442.76 1.94299825 1.95863638 0.01420018 666.92 2.13857379 1.95753719 0.01529937 923.72 2.10967272

Page 87: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

75

Tabela 5.28(c) - Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 118 – TBS.

Numero de População = 5,10,15 P.P. Ativa (Antes) = 1.97283655

POP/ Iter

P.P. Ativa (Depois)

Redução de P. P. Ativa (pu)

Tempo (s) Total Shunt instalado

MPC 8 1.918 0.0548 369.63 13.717

5 /100 1.97017570 0.00266085 492.50 0.77485582

10/100 1.96953769 0.00329887 987.09 1.04454202

PSO

15/100 1.96855695 0.00427960 1480.64 1.49811538

5/100 1.96793447 0.00490208 254.31 1.42353081

10/100 1.95927199 0.01356457 655.20 1.61983458

HPSOM

15/100 1.95753719 0.01529937 923.72 2.10967272

5.1.10 Considerações sobre a aplicação

As simulações feitas e apresentadas usando os sistemas (IEEE 14,30, 57 e 118) mostram um comportamento praticamente idêntico e independente do sistema. Pode-se notar um desempenho melhor do algoritmo HPSOM em relação ao PSO. Por outro lado, o algoritmo PSO também, teve um desempenho melhor em relação ao MPC, na redução de perdas nas barras críticas. Os desempenhos dos algoritmos HPSOM e PSO começam a cair na medida em que aumenta o número das barras (na instalação de todas as barras em todos os sistemas). Assim, é necessário um aumento no número de iterações ou um aumento no número de populações para atingir melhores resultados, como foi mostrado no caso de sistema IEEE 30, quando o número de iterações foi aumentado para 500 (Tabela 5.20), atingindo assim bons resultados. Porém, ainda assim o HPSOM obteve melhores resultados, se comparado com o PSO.

Os resultados desta aplicação são para mostrar a viabilidade dos métodos PSO e HPSOM na resolução de problemas de otimização complexos e não linear.

Page 88: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

76

Capítulo 6

Conclusões

O objetivo inicial deste trabalho consistiu no estudo, em primeira etapa, do algoritmo de Otimização por Enxame de Partícula (PSO) e seu comportamento. Numa segunda etapa foram implementadas e analisadas aplicações de otimização usando o PSO e comparando os resultados alcançados com os resultados já obtidos por outros métodos. Na primeira etapa, foi feito um levantamento bibliográfico sobre o PSO, e apresentou seu comportamento. Foi feita também, uma comparação com outros algoritmos de otimização evolucionária. Pode-se concluir que o PSO é um algoritmo muito simples de ser implementado, porém, é um algoritmo altamente sofisticado, envolvendo a inteligência coletiva e a interação entre os seus membros. Através dos termos da sua equação de atualização de velocidade, pode constatar esta interação e cognição.

Em seguida, foi demonstrada uma aplicação para otimização das funções de pertinência fuzzy, onde obteve bons resultados e apresentou-se como sendo um algoritmo com vastas possibilidades de se aplicar em diferentes problemas de otimização. No estudo do comportamento do PSO no modelo global (gbest), foram constatados alguns aspectos importantes relacionados com a atualização da sua velocidade, isto pode conduzir o algoritmo à convergência prematura. Este fenômeno é conhecido como estagnação. Para solucionar este problema foi proposto um novo modelo híbrido chamado de Otimização por Enxame de Partícula Híbrido com Mutação (HPSOM), que combina a idéia do enxame de partícula com os conceitos de Algoritmo Genéticos. Este modelo foi testado e comparado com o PSO original, usando funções unimodal e funções multimodal. Os resultados obtidos demonstraram que o HPSOM tem potencial para alcançar convergência mais rapidamente e achar a melhor solução. Na segunda etapa, foi apresentada a aplicação do PSO e HPSOM para solucionar problemas ligados ao Sistema Elétrico de Potência. A aplicação apresentada foi a redução das Perdas Elétricas. Nesta aplicação, foram realizados vários testes, com simulações nos sistemas IEEE 14, 30, 57 e 118 barras, usando as Barras Críticas e em todas as Barras de carga dos sistemas. Os resultados foram comparados com os resultados obtidos pelo método preditor-corretor (MPC) de pontos interiores. As simulações apresentaram as seguintes conclusões:

• No caso de redução de perdas nas barras criticas, os resultados alcançados pelo HPSOM foram muito bons e melhores do que os resultados alcançados pelo PSO e MPC. Os resultados alcançados pelo PSO por sua vez foram melhores do que os resultados alcançados pelo MPC.

• No caso de redução de perdas em todas as barras de carga, os resultados alcançados pelo HPSOM e PSO foram similares e com tendência de melhora, comparados com os resultados alcançados pelo MPC. Esta queda dos rendimentos do PSO e HPSOM

Page 89: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

77

é atribuída o aumento de número de Barras. E neste caso o HPSMO também obteve melhores resultados se comparado com o PSO.

• O tempo necessário para obter os bons resultados no HPSOM e PSO em alguns casos é superior ao tempo necessário pelo MPC. Este fato é gerado pela necessidade de executar o Fluxo de Carga para cada iteração, por exemplo, numa simulação com população = 5 e iterações = 5, gera 25 vez a execução do Fluxo de Carga.

As simulações apresentaram adequação dos PSO e HPSOM para solucionar este

tipo de problema na comparação com os resultados obtidos pelo MPC. E confirmaram o potencial do HPSOM.

6.1 Contribuições Alcançadas

Este trabalho mostrou a eficácia do algoritmo PSO na resolução de problemas de otimização para sistemas complexos.

A contribuição principal desta tese foi o desenvolvimento de um novo algoritmo de otimização, o HPSOM com resultados de convergência melhores do PSO e a solução de problema de estagnação do PSO. Foi demonstrada também a eficácia do HPSOM para selecionar problemas de otimização de sistemas complexos. Os resultados obtidos pelas simulações qualificam este algoritmo proposto como uma técnica em estudos do planejamento de operação.

6.2 Propostas de Trabalho Futuro

Seguindo esta linha de pesquisa, podem ser apresentadas entre outras, as seguintes propostas de trabalho futuro:

1. O desenvolvimento de outras aplicações usando PSO e HPOM, como Corte de carga e a implementar redespacho de potência ativa na análise de redução de Perdas Elétricas.

Com este estudo será possível obter um panorama mais claro da independência dos algoritmos PSO e HPSOM em relação à técnica empregada.

2. O desenvolvimento de outras aplicações usando PSO e HPOM, tais como Religamento e Distribuição de carga.

Com estas aplicações será possível ampliar o campo de estudo e aplicação dos algoritmos PSO e HPSOM em problemas ligados a Engenharia Elétrica.

3. A realização de estudos complementares sobre o HPSOM em problemas de otimização discretos.

Page 90: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

78

O HPSOM, como o algoritmo PSO original, foi proposto originalmente para problemas contínuos. Recentemente, algumas tentativas foram feitas de estender o PSO aos problemas de otimização discretos. Kennedy e Eberhart [ 30 ] propuseram a primeira versão discreta com resultados promissoras (consulta a referência Quantum DiPSO [31] e Clerc [32]). Entretanto, porque o HPSOM é baseado no PSO original então há a necessidades de realizar novas estudos para estendê-lo aos problemas de otimização discretos.

Page 91: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

79

Referências Bibliográficas

[1] J.W. Marangon Lima, Allocation of Transmission Fixed Charges: An Overview, IEEE Trans on PWRS, Vol. 11, No. 3, pp 1409-1418, 1996.

[2] J.W. Marangon Lima and E.J. de Oliveira, The Long Term Impact of Transmission Pricing, IEEE Trans on PWRS, Vol. 13, No. 4, pp 1514-1520, 1998.

[3] A.C. Zambroni de Souza, Tangent Vector Applied to Voltage Collapse and Loss Sensitivity Studies, Electric Power Systems Research, Vol. 47, No. 1, pp. 65-70, 1998.

[4] L.C. Araujo Ferreira, A.C. Zambroni de Souza, S. Granville, and J.W. Marangon Lima, Interior Point Method Applied to Voltage Collapse Problems and Losses Reduction, IEE Proc., Generation, Transmission and Distribution, Vol. 149, No. 2, pp. 165-170, 2002.

[5] A.C. Zambroni de Souza, L.M. Honório, G.L. Torres, and G. Lambert-Torres, Increasing the Loadability of Power Systems Through Optimal-Local-Control Actions.(accepted to be published by IEEE)

[6] S. Granville, Optimal Reactive Dispatch Through Interior Point Methods, IEEE Trans. On Power Systems, Vol.9 No.1, 1994.

[7] R.D.C. Monteiro and I. Adler, Interior Path Following Primal-Dual Algorithm. Part II: Convex Quadratic Programming, Mathematical Programming, 44, 1989.

[8] I.J. Lustig, R.E. Marsten, and D.F. Shanno, Interior Point Methods for Linear Programming: Computational State of the Art, Feature Article in ORSA Journal on Computing, Vol. 6, No. 1, 1994.

[9] M.A. Abido, Optimal Power Flow Using Particle Swarm Optimization, Electrical Power & Energy Systems, No. 24, pp. 563-571, 2002.

[10] J. Kennedy and R. C. Eberhart. Particle Swarm Optimization. In Proceedings of IEEE International Conference on Neural Networks, Perth, Australia,Vol. 4, pp. 1942-1948, 1995.

[11] R. C. Eberhart and J. Kennedy. A new optimizer using particle swarm theory. In Proceedings of the Sixth International Symposium on Micro Machine and Human Science, Nagoya, Japan, pp. 39-43, 1995.

[12] D. M. Greig. Optimisation, chapter 3-4. Longman Inc., New York, USA, 1980.

[13] D. E. Coldberg, Genetic algorithms in search, optimization and machine learning, Addison Wesley, 1989.

Page 92: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

80

[14] J. E. Dennis, Jr and R. B. Schnabel. Numerical Methods for Unconstrained Optimization and Nonlinear Equations, chapter 6, pp. 111-152. Prentice-Hall, 1983.

[15] M. F. Möller. A scaled conjugate gradient algorithm for fast supervised learning.In Neural Networks, Vol. 6, pp. 525-533, 1993.

[16] E. Polak. Optimization: Algorithms and Consistent Approximations. Springer-Verlag, New York, USA, 1997.

[17] T. Bäck, D. B. Fogel, and T. Michalewicz, editors. Basic Algorithms and Operators, volume 1 of Evolutionary Computation. Institute of Physics Publishing, Bristol and Philidelphia, 1999.

[18] T. Bäck, D. B. Fogel, and T. Michalewicz, editors. Advanced Algorithms and Operators, volume 2 of Evolutionary Computation. Institute of Physics Publishing, Bristol and Philidelphia, 1999.

[19] J. H. Holland, Adaptation in natural and artificial systems (The University of Michigam Press, Ann Arbor, 1975), reprinted by MIT Press, 1992.

[20] A. P. Engelbrecht and A. Ismail. Training product unit neural networks. Stability and Control: Theory and Applications, Vol. 2, No. 1, pp. 59-74, 1999.

[21] F. van den Bergh. Particle Swarm Weight Initialization in Multi-layer Perceptron Artificial Neural Networks. In Development and Practice of Artificial Intelligence Techniques, pp. 41-45, Durban, South Africa, 1999.

[22] F. van den Bergh and A. P. Engelbrecht. Cooperative Learning in Neural Networks using Particle Swarm Optimizers. South African Computer Journal, No. 26, pp. 84-90, 2000.

[23] R. C. Eberhart and X. Hu. Human Tremor Analysis Using Particle Swarm Optimization. In Proceedings of the Congress on Evolutionary Computation, pp. 1927-1930, Washington D.C, USA, 1999.

[24] Y. Shi and Russ C. Eberhart. A Modi_ed Particle Swarm Optimizer. In IEEE International Conference of Evolutionary Computation, Anchorage, Alaska, May 1998.

[25] Y. Shi and R. C. Eberhart. Empirical Study of Particle Swarm Optimization.In Proceedings of the Congress on Evolutionary Computation, pp. 1945-1949,Washington D.C, USA, 1999.

[26] R. C. Eberhart, P. Simpson, and R. Dobbins. Computational Intelligence PC Tools, chapter 6, pp. 212-226. Academic Press Professional, 1996.

[27] D. Corne, M. Dorigo, and F. Glover, editors. New Ideas in Optimizaton, chapter 25,pp. 379-387. McGraw Hill, 1999.

Page 93: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

81

[28] J. Kennedy. The particle swarm: Social adaption of knowledge. In Proceedings of the International Conference on Evolutionary Computation, Indianapolis, IN, USA, pp. 303-308, 1997.

[28] P. J. Angeline. Using Selection to Improve Particle Swarm Optimization. In Proceedings of IJCNN'99, Washington, USA, pp. 84-89, 1999.

[30] R. C. Eberhart and J. Kennedy. Swarm Intelligence. Morgan Kaufmann, 2001.

[31] M. M. Millonas. Swarms, phase transitions, and collective intelligence. In Artificial Life III, pp.417-445. Addison-Wesley, Reading, MA, 1994.

[32] W. T. Reeves. Particle Systems - A Technique for Modeling a Class of Fuzzy Objects. In SIGGRAPH 83, pp. 359-376, 1983.

[33] J. Kennedy and R. C. Eberhart. A Discrete Binary Version of the Particle Swarm Algorithm. In Proceedings of the Conference on Systems, Man, and Cybernetics (SMC97), pp. 4104- 4109, 1997.

[34] J. Kennedy and W. M. Spears. Matching Algorithms to Problems: An Experimental Test of the Particle Swarm and Some Genetic Algorithms on the Multimodal Problem Generator. In Proceedings of the International Conference on Evolutionary Computation (CEC 98), Anchorage, Alaska, pp. 78-83, 1998.

[35] A. A. A. Esmin, A. R. Aoki & G. Lambert-Torres. Particle swarm optimization for fuzzy membership functions optimization. In Proceedings of the IEEE International Conference on Systems, Man and Cybernetics 2002 (SMC 2002), pp. 108-113, 2002.

[36] L. M. Honório. Consideração de Técnicas de Otimização Aplicadas ao Problemas de Colapso de Tensão, Tese de Doutorado, Escola Federal de Engenharia de Itajubá-EFEI, Minas Gerais, Brasil, 2002.

[37] A. Carlisle and G. Dozier. Adapting Particle Swarm Optimization to Dynamic Environments. In Proceedings of the International Conference on Artificial Intelligence, pp. 429-434, Las Vegas, NV, USA, 2000.

[38] M. Clerc. The Swarm and the Queen: Towards a Deterministic and Adaptive Particle Swarm Optimization. In Proceedings of the Congress on Evolutionary Computation, Washington DC, USA, pp. 1951-1957, 1999.

[39] M. Clerc and J. Kennedy. The Particle Swarm: Explosion, Stability and Convergence in a Multi-Dimensional Complex Space. IEEE Transactions on Evolutionary Computation, 2001.

[40] P. Angeline, Evolutionary Optimization Versus Particle Swarm Optimization Philosophy and Performance Differences. Proceedings of 7th Annual Conference on Evolutionary Programming, pp. 601-610, 1998.

Page 94: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

82

[41] R. C. Eberhart and Y. Shi. Tracking and Optimizing Dynamic Systems with Particle Swarms. In Proceedings of the IEEE Congress on Evolutionary Computation, Seoul, Korea, pp. 94-100, 2001.

[42] R. C. Eberhart and Y. Shi, ”Comparison between Genetic Algorithms and Particle Swarm Optimization”, Evolutionary Programming VII (1998), Lecture Notes in Computer Science 1447, pp. 611–616, 1998.

[43] Russ C. Eberhart and Y. Shi. Comparing Inertia Weights and Constriction Factors in Particle Swarm Optimization. In Proceedings of the Congress on Evolutionary Computing, San Diego, USA, pp. 84-89, 2000.

[44] Y. Fukuyama et al. Practical Distribution State Estimation using Hybrid Particle Swarm Optimization. In Proceedings of the IEEE Power Engineering Society Winter Meeting, Columbus, 2001.

[45] Y. Fukuyama and H. Yoshida. A Particle Swarm Optimization for Reactive Power and Voltage Control in Electric Power Systems. In Proceedings of the IEEE Congress on Evolutionary Computation, Seoul, Korea, pp. 87-93, 2001.

[46] D. E. Goldberg. Genetic Algorithms in Search, Optimization and Machine Learning. Addison-Wesley, Reading, MA, USA, 1989.

[47] Z. He, C. Wei, L. Yang, X. Gao, S. Yao, R. C. Eberhart, and Y. Shi. Extracting Rules from Fuzzy Neural Network by Particle Swarm Optimization. In Proceedings of the IEEE International Conference of Evolutionary Computation, Anchorage, Alaska, USA, pp. 74-77, 1998.

[48] P. Jinchun, C. Yaobin, and R. Eberhart. Battery pack state of charge estimator design using computational intelligence approach. In The Fifteenth Annual Battery Conference on Applications and Advances, pp. 173-177, 2000.

[49] L. K. Jones. Constructive approximations for neural networks by sigmoidal functions. Proceedings of the IEEE, Vol. 78, No. 10, pp. 1586-1589, 1990.

[50] J. Kennedy. The particle swarm: Social adaption of knowledge. In Proceedings of the International Conference on Evolutionary Computation, Indianapolis, IN, USA, pp. 303-308, 1997.

[51] J. Kennedy. Small Worlds and Mega-Minds: Effects of Neighbourhood Topology on Particle Swarm Performance. In Proceedings of the Congress on Evolutionary ComputationWashington, DC, USA, pp. 1931-1938, 1999.

[52] J. Kennedy. Stereotyping: Improving Particle Swarm Performance With Cluster Analysis. In Proceedings of the Congress on Evolutionary Computing, San Diego, USA, pp. 1507-1512, 2000.

[53] M. L∅vbjerg, T. K. Rasmussen, and T. Krink. Hybrid Particle Swarm Optimiser with Breeding and Subpopulations. In Proceedings of the Genetic and Evolutionary Computation Conference (GECCO), San Francisco, USA, 2001.

Page 95: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

83

[54] F. Van den Bergh and A.P. Engelbrecht. A new locally convergent particle swarm optimizer. In Proceedings of IEEE International Conference on Systems, Man, and Cybernetics 2002 (SMC 2002), pp. 96-101, 2002.

[55] E. Ozcan and C. K. Mohan. Particle Swarm Optimization : Surfing the Waves. In Proceedings of the International Congress on Evolutionary Computation, pp 1939-1944, Washington, USA, 1999.

[56] K. E. Parsopoulos, V. P. Plagianakos, G. D. Magoulas, and M. N. Vrahatis. Improving Particle Swarm Optimizer. In P. Pardalos, editor, Advances in Convex Analysis and Global Optimization. Kluwer Academic, 2001.

[57] K. E. Parsopoulos, V. P. Plagianakos, G. D. Magoulas, and M. N. Vrahatis. Stretching Technique for Obtaining Global Minimizers Through Particle Swarm Optimization. In Proceedings of the Particle Swarm Optimization Workshop, Indianapolis, USA, pp. 22-29, 2001.

[58] K. E. Parsopoulos and M. N. Vrahatis. Particle Swarm Optimizer in Noisy and Continuously Changing Environments. In M. H. Hamza, editor, Artificial Intelligence and Soft Computing (IASTED/ACTA), Anaheim, CA, USA, pp. 289-294, 2001.

[59] K. E. Parsopoulos and M.N. Vrahatis. Modification of the Particle Swarm Optimizer for Locating all the Global Minima. In V. Kurkova, N. C. Steele, R. Neruda, and M. Karny, editors, Artificial Neural Networks and Genetic Algorithms, pp. 324-327. Springer, 2001.

[60] M. A. Potter. The Design and Analysis of a Computational Model of Cooperative Coevolution. PhD thesis, George Mason University, Fairfax, Virginia, USA, 1997.

[61] J. Salerno, J. Using the particle swarm optimization technique to train a recurrent neural model. IEEE International Conference on Tools with Artificial Intelligence, pp. 45-49, 1997.

[62] Y. Shi and R. C. Eberhart. Parameter Selection in Particle Swarm Optimization. In Evolutionary Programming VII: Proceedings of EP 98, pp. 591-600, 1998.

[63] Y. Shi and R. C. Eberhart. Empirical Study of Particle Swarm Optimization. In Proceedings of the Congress on Evolutionary Computation, pp. 1945-949, Washington D.C, USA, July 1999.

[64] Y. Shi and R. C. Eberhart. Fuzzy adaptive particle swarm optimization.In Proceedings of the IEEE Congress on Evolutionary Computation (CEC 2001), Seoul, Korea. 2001

[65] Y. Shi and R. C. Eberhart. Particle swarm optimization with fuzzy adaptive inerita weight. In Proceedings of the Workshop on Particle Swarm Optimization 2001, Indianapolis, IN. 2001.

[66] Y. Shi and Russ C. Eberhart. A Modified Particle Swarm Optimizer. In IEEE International Conference of Evolutionary Computation, Anchorage, Alaska, May 1998.

Page 96: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

84

[67] P. N. Suganthan. Particle swarm optimiser with neighbourhood operator. In Proceedings of the IEEE Congress on Evolutionary Computation (CEC 1999), Piscataway, NJ. pp. 1958-1962, 1999.

[68] F. van den Bergh and A. P. Engelbrecht. Efects of Swarm Size on Cooperative Particle Swarm Optimisers. In Proceedings of the Genetic and Evolutionary Computation Conference (CEC 2001), San Francisco, USA, pp. 892-899, 2001.

[69] F. van den Bergh and A. P. Engelbrecht. Training Product Unit Networks using Cooperative Particle Swarm Optimisers. In Proceedings of the International Joint Conference on Neural Networks (IJCNN), Washington DC, USA, pp. 126-132, 2001.

[70] F. van den Bergh. An Analysis of Particle Swarm Optimizers. PhD thesis, Department of Computer Science, University of Pretoria, Pretoria, South Africa, 2002.

[71] P. Kundur. Power system stability and control. Palo Alto: McGraw-Hill, 1994.

[72] N. H. M. N. Brito. Ações de Controle Aplicadas à Análise de Estabilidade de Tensão, Dissertação de Mestrado, Escola Federal de Engenharia de Itajubá –EFEI, Minas Gerais, Brasil, 1996.

[73] C. A. Cañizares & F. L. Alvarado. Point of collapse and continuation methods for large AC/DC systems, IEEE Transactions on Power Systems, vol.8, n.1, pp. 1-8, 1993.

[74] A. C. Z. Souza,C. A. Cañizares, V. H. Quintana. New Techniques to Speed Up Voltage Collapse Computations Using Tangent Vectors, IEEE transactions on Power Systems , vol.12, No.3, pp. 1380-1387, 1997.

[75] A. C. Zambroni de Souza, M. Glavic, F. Alvarado, “Continuation Power Flow with Overload and Redispatch”, Proc. Of the XXIII NAPS, Canada, Vol. 1, pp. 26-31, 2000.

[76] B. Isaías Lima Lopes and A. C. Zambroni de Souza, On Multiple Tap-Blocking to Avoid Voltage Collapse, Electric Power Systems Research, Vol. 67, No. 3, pp. 225-231, 2003.

[77] A.C. Zambroni de Souza, C.A. Cañizares, and V.H. Quintana, New techniques to speed up voltage collapse computations using tangent vectors, IEEE Trans. On Power Systems, vol. 12, pp. 1380–1387,1997.

[78] C. K. Mohan and B. Al-Kazemi, “Discrete particle swarm optimization”, Proc. Workshop on Particle Swarm Optimization, Indianapolis, IN: Purdue School of Engineering and Technology, IUPUI, 2001.

[79] A. C. Melo, J. C. O. Mello and S. Granville. The Effects of Voltage Collapse Problems in the Reliability Evaluation Of Composite System, IEEE/PES Winter Meeting, paper No. 96 WM 316-0 PWRS, Baltimore, 1996.

Page 97: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

85

[80] G. L. Torres. Nonlinear Optimal Power Flow by Interior and Non–Interior Point Methods, PhD Thesis, Waterloo, Ontario, Canada, 1998.

[81] G. L. Torres and V. H. Quintana. An interior point method for nonlinear optimal power flow using voltage rectangular coordinates, IEEE Trans. on Power Systems, Vol. 13, pp. 1211–1218, 1998.

[82] D. Park & A. Kandel. Genetic-Based New Fuzzy Reasoning Models with Aplication to Fuzzy Control, IEEE Trans. On Systems, vol. 24, no. 1, pp. 39-47, 1994.

[83] M. A. Carvalho, G. Lambert-Torres, L. E. Borges da Silva & J. O. P. Pinto, Fitting Fuzzy Membership Functions using Genetic Algorithms. In Proceedings of IEEE International Conference on Systems, Man, and Cybernetics 2000 (SMC 2000). 2002.

[84] P. Kundur. General Introduction and Basic Concepts of Voltage Stability Analysis, San Diego, In: IEEE PES Summer Meeting, IEEE Special Tutorial Course: Voltage Stability,1998.

[85] I. A. Hiskens. Exploring the Poer Flow Solution Space Boundary, IEEE Transactions on Power Systems, vol. 6, No.3, 2001.

[86] C. A. Cañizares. Voltage Collapse and Transient Energy Function Analyses of AC/DC Systems, PhD thesis, University of Wisconsin-Madison, 1991.

[87] L. A. Zadeh . Fuzzy Sets, Information and Control, Vol.8, pp.338-353, 1965.

[88] S. G. de Brito, Pacote Computacional para o Ensino da Lógica Difusa, Dissertação de Mestrado, Escola Federal de Engenharia de Itajubá,Minas Gerais, Brasil, 1998.

[89] A. Kandel & G. Langholz. Fuzzy Control Systems, CRC Press, 1993.

Page 98: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

86

Apêndice A Dados do Sistema de 4 Barras Os dados do sistema de 4 Barras usando o formato IEEE são dados abaixo. BUS DATA FOLLOWS 4 ITEMS

1 Bus 1 HV 1 1 3 1.060 0.0 0.0 0.0 232.4 -16.9 0.0 1.060 0.0 0.0 0.0 0.0 0 2 Bus 2 HV 1 1 2 1.045 -4.98 21.7 12.7 166.0 42.4 0.0 1.045 50.0 -40.0 0.0 0.0 0 3 Bus 3 HV 1 1 0 1.010 -12.72 74.2 19.0 0.0 23.4 0.0 1.010 40.0 0.0 0.0 0.0 0 4 Bus 4 HV 1 1 0 1.019 -10.33 67.8 -3.9 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0 -999 BRANCH DATA FOLLOWS 4 ITEMS 1 2 1 1 1 0 0.04938 0.15917 0.0528 0 0 0 0 0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 1 3 1 1 1 0 0.15403 0.42304 0.0492 0 0 0 0 0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 2 4 1 1 1 0 0.14699 0.49797 0.0438 0 0 0 0 0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 3 4 1 1 1 0 0.25811 0.77632 0.0374 0 0 0 0 0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 -999 END OF DATA

Page 99: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

87

Apêndice B Publicações Associadas ao Trabalho e Realizadas no Período ESMIN, A. A. A., LAMBERT-TORRES, G., de SOUZA, A. C. Z. A Hybrid Particle

Swarm Optimization Applied to Loss Power Minimization. IEEE Transactions on Power Systems, Vol.2, No.2 , pp. 859- 866, Maio 2005.

AOKI, A. R., ESMIN, A. A. A., LAMBERT-TORRES, G. An Architecture of a Multi-Agent System for Power System Operation. Transactions On Computers. London, Vol.2, No.3, pp.408 - 412, 2004.

ESMIN, A. A. A., AOKI, A. R., LAMBERT-TORRES, G. Particle Swarm Optimization versus Genetic Algorithms for Fitting Fuzzy Membership Functions. Transactions On Systems. Londres, Vol.2, No.1, pp.68 - 73, 2003.

AOKI, A. R., ESMIN, A. A. A., LAMBERT-TORRES, G. An Architecture of a Multi-Agent System for Power System Operation. In: 3rd International Conference on Automation and Information, ICAI'03, Tenerife, 2003.

AOKI, A. R., ESMIN, A. A. A., LAMBERT-TORRES, G. Multi-Agent System for Distribution System Operation. In: Advances in Logic, Artificial Intelligence and Robotics. Ed.Amsterdam : IOS Press, pp. 38-45, 2002.

ESMIN, A. A. A., AOKI, A. R., LAMBERT-TORRES, G. Particle swarm optimization for fuzzy membership functions optimization. Proceedings of the IEEE International Conference on Systems, Man and Cybernetics 2002 (SMC 2002), pp. 108-113, 2002.

ESMIN, A. A. A., AOKI, A. R., LOPES JR., C. R., LAMBERT-TORRES, G. Multi-Agent Simulation and Educational Tool for Power System Operation. In: 2002 IEEE International Conference on Engineering Education, INTERTECH'2002, Santos-SP,2002.

LOPES JR., C. R., AOKI, A. R., ESMIN, A. A. A., LAMBERT-TORRES, G. Multi-Agent Model for Power Substation Restoration. In: International Conference on Power and Energy Systems (PES 2001), Tampa, 2001.

Page 100: Estudo de Aplicação do Algoritmo de Otimização por Enxame de …saturno.unifei.edu.br/bim/0030246.pdf · 2017-05-12 · Estudo de Aplicação do Algoritmo de Otimização por

88

Apêndice C Artigo da Tese Publicado no IEEE – Transactions on Power Systems