Uma Comparação de Classificadores para Contorno de Imagens de Folhas

Embed Size (px)

DESCRIPTION

Trabalho foi desenvolvido para a disciplina de Reconhecimento de Padrões na Universidade Federal de Uberlândia. Foram usados os softwares WEKA e ECJ. Mais detalhes disponíveis em: http://wpattern.com/blog/post/2013/07/08/ECJ-e-WEKA-(Reconhecimento-de-Padroes).aspx

Citation preview

  • Uma Comparao de Classificadores para Contornode Imagens de Folhas

    Augusto A. B. Branquinho, Carlos E. S. Sabino, Eduardo C. Campos, Leandro N. CoutoDepartamento de Cincia da Computao, Universidade Federal de Uberlndia, Uberlndia, MG

    ResumoEste artigo apresenta uma comparao entre dife-rentes algoritmos de classificao utilizando o Waikato Environmentfor Knowledge (WEKA), um software de cdigo aberto com umacoleo de algoritmos de aprendizagem de mquina para tarefasde minerao de dados. O objetivo deste artigo de investigara taxa de acertos de diferentes algoritmos de classificao.No processo de classificao foram utilizados os algoritmos k-Nearest Neighbors (k-NN), Naive Bayes (NB), Support VectorMachine (SVM), rvore de Deciso J4.8 (J4.8), Random Forest(RF), Multilayer perceptron (MLP) e Linear Discriminant Analysis(LDA). Na tentativa de melhorar os resultados foram realizadosexperimentos com algoritmos genticos (AG) e de seleo deatributos na tentativa de descobrir quais atributos so maisimportantes para o de reconhecimento de padres. Um conjuntode amostras de folhas foi usada para os experimentos. Esteconjunto de dados contm informaes extradas dos contornosde 600 imagens de folhas, agrupadas em 30 classes, contendo 20amostras cada. Cada amostra foi caracterizada por 76 atributos.Desses, os 38 primeiros so baseados em um tipo de medida deimagem, enquanto os 38 seguintes so outro tipo de medioobtida.

    I. INTRODUO

    O objetivo do nosso trabalho investigar a taxa de acertode diferentes algoritmos de classificao. Para isso, os experi-mentos foram divididos em trs partes: a primeira parte utilizouo software WEKA para a anlise de informaes extradasdos contornos de imagens de folhas. A segunda parte utilizoualgoritmos genticos para seleo dos melhores atributos eum ambiente distribudo para execuo dos experimentos. Ja terceira parte utilizou o software MATLAB para realizaode experimentos com o mtodo de classificao LDA, cujaimplementao no est disponvel no WEKA.

    Com o intuito de reduzir a dimensionalidade dos dadose melhorar a eficcia dos classificadores, foram realizadosexperimentos que fazem a seleo ou composio de atributosmais adequados a partir dos originalmente disponveis.

    Aprendizagem de mquina um ramo da IntelignciaArtificial que lida com a construo e estudo de sistemas quepodem aprender a partir dos dados. A extrao de informaoimportante a partir de uma grande pilha de dados e suascorrelaes uma grande vantagem dessa rea de estudo [1].

    A minerao de dados uma etapa do processo deKnowledge Discovery in Databases (KDD) que consiste naaplicao de anlise de dados e algoritmos de descobertaque, sob as limitaes de eficincia computacional aceitveis,produzem uma enumerao particular de padres (ou modelos)sobre os dados [12].

    O primeiro experimento realizou uma Transformao doEspao de Atributos utilizando Principal Component Analysis

    (PCA) para gerar um novo conjunto de atributos no corre-lacionados a partir da combinao de projees dos atributosoriginais.

    O segundo experimento envolveu a utilizao de algoritmosgenticos para selecionar quais atributos classificam melhor oconjunto de amostras para cada algoritmo de classificao.

    A Seo 2 descreve a caracterizao do problema. Na Se-o 3 feita a fundamentao terica dos conceitos utilizadosno trabalho. A Seo 4 apresenta as ferramentas utilizadas. Aseo 5 engloba os experimentos realizados e seus resultados.Na Seo 6 so apresentadas as concluses do trabalho ealguns possveis trabalhos futuros.

    II. CARACTERIZAO DO PROBLEMA

    O conjunto de dados contm informaes extradas doscontornos de 600 imagens de folhas, agrupadas em 30 classescontendo 20 amostras cada. Cada amostra identificada porum total de 76 atributos. Desses, os 38 primeiros so baseadosem um tipo de medida de imagem, enquanto que os 38seguintes so outro tipo de medio obtida.

    A Figura 1 ilustra parte da base de folhas contendo 10 tiposde folhas distintos. Cada tipo de folha representa uma classe.No estudo, foram consideradas 30 classes de folhas.

    Figura 1. Representao de parte da base de folhas

    III. FUNDAMENTAO TERICA

    A. k-Nearest Neighbors

    O algoritmo k-Nearest Neighbors (k-NN) consideradoum algoritmo de aprendizagem estatstica. Alm de ser extre-mamente simples de implementar, ele aberto a uma grandevariedade de variaes. Geralmente definido em termos dadistncia Euclidiana [1].

    O k-NN um classificador preguioso porque no induzum modelo de categorizao de dados de treinamento. O

  • processo de categorizao conseguido atravs da comparaoda nova instncia com todas as instncias do conjunto dedados. Assim, a categoria para a nova instncia selecionadaa partir das categorias dos K exemplos mais similares. Em umproblema de categorizao as entradas so as caractersticase a sada uma categoria. O k-NN tambm conhecido noWEKA como IBK [2].

    B. Naive Bayes

    Os classificadores Naive Bayes assumem que todos osatributos so independentes e que cada um contribui igual-mente para a categorizao. A categoria atribuda a umprojeto, combinando a contribuio de cada caracterstica.Esta combinao atingida estimando as probabilidades aposteriori de cada categoria utilizando o Teorema de Bayes.As probabilidades a priori so estimadas com os dados detreinamento [2].

    Este tipo de classificador capaz de lidar com entradascategricas e problemas de multi-classe. Portanto, em umproblema de categorizao, as entradas para o classificadorso os atributos e a sada a distribuio de probabilidade doprojeto nas categorias [2].

    C. Support Vector Machine

    Support Vector Machine divide o espao do problema emdois conjuntos possveis por encontrar um hiperplano quemaximiza a distncia com o ponto mais prximo de cadasubconjunto. SVM so classificadores binrios, mas podem serutilizados para classificao multi-classe [2].

    A funo que divide o hiperplano conhecida como funoKernel. Se os dados so linearmente separveis, uma funolinear Kernel usada com o SVM. Nos outros casos, funesno lineares tais como polinmios, funes de base radial(RBF) e sigmides devem ser utilizadas [2].

    D. rvore de Deciso J4.8

    rvores de deciso so algoritmos que utilizam a estratgiadivide and conquer para dividir o espao do problema emsubconjuntos. Uma rvore de deciso modelada de formaque a raiz e os ns so as perguntas, e os arcos entre os nsso possveis respostas para as perguntas. As folhas da rvoreso categorias [2].

    As rvores de deciso so capazes de lidar com entradas ca-tegricas e os problemas multi-classe. Assim, em um problemade categorizao, as entradas para a rvore so os atributos deuma aplicao e a sada uma categoria [2].

    J4.8 um algoritmo existente para construo de umarvore de deciso que permite a manipulao tanto de atributosdiscretos quanto contnuos. Alm disso, permite a manipulaode dados de treinamento com valores de atributos ausentes [7].

    E. Random Forests

    Random Forests so uma combinao de preditores dervores de tal modo que cada rvore depende dos valores deum vetor aleatrio amostrado de forma independente e com amesma distribuio para todas as rvores da floresta [8].

    Random Forests so treinadas de forma supervisionada. Otreinamento envolve a construo de rvores, bem como aatribuio a cada n-folha da informao sobre as amostrasde treinamento atingindo esse n-folha (e.g. a distribuioda classe no caso de tarefas de classificao). Em tempo deexecuo, uma amostra de teste transmitida a todas as rvoresda floresta, e a sada calculada pela mdia das distribuiesregistradas nos ns-folha alcanados [9].

    F. Multilayer Perceptron

    Uma rede Multilayer Perceptron (MLP) consiste de umconjunto de unidades sensoriais, que constituem a camadade entrada, uma ou mais camada(s) oculta(s) e uma camadade sada. O sinal de entrada propaga-se atravs da redepara a frente em uma base de camada-a-camada. Uma MLPrepresenta uma generalizao da rede Single-layer Perceptron[10].

    Multilayer Perceptrons tem sido aplicadas com sucessopara resolver alguns problemas difceis e diversos, treinandoelas de forma supervisionada com um algoritmo muito popularconhecido como algoritmo de retropropagao do erro (back-propagation) [10].

    G. Algoritmos Genticos

    O algoritmo gentico padro segue o mtodo de reproduosexuada. Neste algoritmo, a populao composta por umconjunto de indivduos, de forma que cada indivduo representao cromossomo de uma forma de vida [13]. Os indivduoscorrespondem a solues de um dado problema.

    Associado a cada cromossomo atribuda uma funochamada de fitness que determina o quo bom o indiv-duo. Outra funo usada para selecionar os indivduos dapopulao que iram se reproduzir. Aps a seleo de doisindivduos ocorre o cruzamento (crossover) dos indivduosselecionados e eles se dividem novamente. Em seguida, existeuma probabilidade que ocorra a mutao dos novos indivduos.O processo repetido durante um certo nmero de vezes [13].Cada repetio corresponde a uma gerao.

    Fitness uma medida de "bondade"de um cromossomo,isto , o quo bem um cromossomo se encaixa no espao debusca, ou resolve o problema em questo [13].

    Seleo o processo de escolha do par de indivduos parareproduzir [13].

    Crossover um processo de troca de genes entre os doisindivduos que esto se reproduzindo [13].

    Mutao o processo de alterao aleatria dos cromos-somos [13].

    H. Principal Component Analysis

    A Anlise dos Componentes Principais (PCA) umadas tcnicas mais bem sucedidas que tm sido utilizada emreconhecimento de imagem e compresso. PCA um mtodoestatstico cujo propsito reduzir a grande dimensionalidadedo espao de dados (variveis observadas) para a menordimensionalidade instrnseca do espao de caractersticas (va-riveis independentes). Este o caso quando existe uma fortecorrelao entre as variveis observadas [11].

  • Os trabalhos que PCA pode fazer so previso, remoo deredundncia, extrao de caractersticas, compresso de dados,entre outros. [11]

    I. Linear Discriminant Analysis

    Linear Discriminant Analysis (LDA) [3] [4] um m-todo popular para reduo de dimensionalidade linear, quemaximiza a disperso entre as classes e minimiza a dispersodentro da classe. O LDA tende a dar resultados indesejadosse as amostras de alguma classe formam vrios agrupamentosdistintos, isto , multimodal [4].

    Geralmente, o LDA pode se referir a um mtodo declassificao em que primeiramente as amostras de dadosso projetadas em uma espao unidimensional e depois clas-sificadas considerando um thresholding. A incorporao deum espao unidimensional utilizada acima dado como omaximizador do chamado critrio de Fisher. Este critrio frequentemente utilizado para reduo de dimensionalidade deum subespao com dimenso maior que um [4].

    J. Standard Score

    Standard Score ou Z-Score, em estatstica, o nmero dedesvios padro de um dado acima ou abaixo da mdia. Um Z-Score positivo representa um dado acima da mdia, enquantoque um negativo representa um dado abaixo da mdia. umaquantidade desprovida de dimenses obtida subtraindo a mdiada populao de um dado bruto e dividindo o resultado pelodesvio padro [14].

    z =(x )

    (1)

    Essa ferramenta utilizada para diminuir a diferena que esca-las podem fazer na classificao de determinados algoritmos.

    IV. FERRAMENTAS UTILIZADAS

    A. WEKA

    O WEKA um software de minerao de dados quefoi desenvolvido utilizando a linguagem JAVA pela Univer-sidade de Waikato na Nova Zelndia. Possui uma coleode algoritmos de aprendizagem de mquina para tarefas deminerao de dados. Ele implementa tambm algoritmos parapr-processamento de dados, classificao, regresso, cluste-ring e regras de associao, alm de incluir ferramentas devisualizao [1].

    O software encontra-se licenciado ao abrigo da GeneralPublic License (GPL) sendo portanto possvel estudar e alteraro respectivo cdigo fonte [1].

    O arquivo de dados normalmente utilizado pelo WEKA o formato de arquivo ARFF (Attribute-Relation File Format),que consiste de tags especiais para indicar diferentes elementosno arquivo de dados (e.g. nomes de atributos, tipos de atributos,valores de atributos e os dados) [1].

    B. MATLAB

    O Matrix Laboratory (MATLAB) ao mesmo tempo, umambiente e linguagem de programao para clculos numricoscom vetores e matrizes. Ele um produto da empresa The MathWorks Inc. [5].

    Figura 2. Taxa de acerto considerando todos os 76 atributos

    Figura 3. Comparao utilizando ou no o PCA nos 76 atributos

    O MATLAB permite executar tarefas computacionalmenteintensivas mais rpido do que com linguagens de programaotradicionais. Ele tem uma ampla variedade de funes teispara o praticante de algoritmos genticos [6].

    C. ECJ

    Evolutionary Computation Java (ECJ) consiste em umabiblioteca Java para a execuo de algoritmos evolutivos.Ele possui um conjunto de algoritmos j prontos e de fcilextenso. Alm disso ele permite o processo de criao eavaliao dos indivduos de forma distribuda [16].

    Neste trabalho o ECJ foi usado para encontrar melhoresatributos usando um AG distribudo.

    V. EXPERIMENTOS

    Os experimentos foram divididos em trs partes. Na pri-meira parte foram realizados experimentos atravs da interfacegrfica do WEKA considerando k-fold igual a 10. A segundaparte utiliza algoritmos genticos para a seleo dos melhoresatributos e um ambiente distribudo para a execuo dos expe-rimentos. Por ltimo, foi usado o MATLAB para a execuode um novo conjunto de testes utilizando o algoritmo LDA.

    A. Parte 1

    Inicialmente, foram utilizados todos os atributos comoentrada para os algoritmos de classificao. Alm disso, foramfeitas duas modificaes nos atributos na tentativa de melhorara taxa de classificao correta: normalizao dos dados como algoritmo Z-Score e combinao de atributos utilizando o

  • Figura 4. Comparao utilizando ou no o Z-Score nos 76 atributos

    PCA. Estas modificaes foram feitas considerando todos os76 atributos.

    A utilizao do PCA resultou na gerao de seis componen-tes principais. Todos esses componentes foram considerados noclculo da taxa de acerto dos algoritmos de classificao, umavez que ao utilizar menos componentes principais prejudicouo desempenho dos classificadores.

    Como podemos observar na Figura 2, entre os seis algo-ritmos utilizados, o que melhor se destacou foi o MLP como Z-Score aplicado, com uma taxa de acerto de 85,16% dasamostras. Ainda na Figura 2 podemos notar que na utilizaodo PCA apenas o algoritmo Naive Bayes se beneficiou, en-quanto que todos os outros apresentaram melhores resultadossem nenhuma modificao nos atributos. A taxa de acerto doalgoritmo Naive Bayes utilizando PCA nos 76 atributos foi de74,83%.

    A Figura 3 ilustra um grfico comparando a taxa deacerto em % dos algoritmos de classificao com a utilizaodo PCA e sem a utilizao do PCA. A Fig. 3 ilustra umgrfico comparando a taxa de acerto em % dos algoritmosde classificao com a utilizao do Z-Score nos 76 atributose sem a utilizao da normalizao.

    Numa segunda abordagem, a base foi dividida em duaspartes: 38 primeiros e 38 ltimos atributos. Assim comona abordagem inicial, foram utilizados os seis algoritmosdefinidos anteriormente. Foram feitos dois testes: o primeiroteste aplicou o PCA apenas nos 38 primeiros atributos e osegundo teste aplicou o PCA apenas nos ltimos 38 atributos.

    O resultado do primeiro teste foi a gerao de seis compo-nentes principais. A melhor taxa de acerto para os algoritmosfoi utilizando todos os seis componentes principais, comexceo do SVM que aumentou sua taxa de acerto de 45,83%para 47,66%.

    J no segundo teste, foram gerados apenas trs compo-nentes principais. Da mesma forma, a melhor taxa de acertopara os algoritmos foi utilizando todos os trs componentes

    Figura 5. Utilizando PCA nos primeiros 38 atributos e nos ltimos 38atributos

    Figura 7. Exemplo de um indivduo usado no AG.

    principais. A Fig. 4 representa a comparao entre estes doistestes realizados. O PCA1 refere-se aplicao do PCA nosprimeiros 38 atributos, enquanto que o PCA2 refere-se aplicao do PCA nos ltimos 38 atributos. Logo, podemosconcluir que o PCA1 obteve melhores resultados do que oPCA2.

    B. Parte 2

    Na segunda parte dos experimentos foi usado um AG paraa seleo dos melhores atributos. Para esta tarefa foi usada aECJ [16]. Esta biblioteca permitiu a execuo do algoritmogentico de forma distribuda e paralela. 1

    O indivduo foi representado por um cromossomo de 76genes. Cada gene guarda um valor booleano que determina apresena ou ausncia do atributo usado no clculo do fitness. Oprimeiro gene est associado ao primeiro atributo, o segundogene ao segundo atributo e assim por diante at o ltimogene/atributo. A Figura 7 mostra um exemplo resumido deum indivduo.

    Foram criadas 30 populaes com 50 indivduos cada.Estas populaes foram separadas em dois grupos de 15populaes. No primeiro grupo foi usada a base de dados semnormalizao e no outro os dados foram normalizados com oZ-Score. Para cada populao est associado um algoritmo dereconhecimento de padres e um conjunto de parmetros. ATabela I mostra os algoritmos e parmetros relacionados comcada grupo para suas 15 populaes.

    Para realizar o clculo do fitness de um indivduo executado o algoritmo de reconhecimento de padres de acordocom a populao. A ordem que esto dispostas as amostras

    1O projeto e os logs da parte 2 dos experimentos esto disponveisem: https://code.google.com/p/pgc204/ e http://wpattern.com/blog/post/2013/07/08/ECJ-e-WEKA-(Reconhecimento-de-Padroes).aspx

  • Figura 6. Grficos com os percentuais de acerto durante as geraes do AG para os experimentos do grupo 1 e grupo 2, respectivamente.

  • Tabela I. PARMETROS USADOS POR CADA POPULAO DO AG.

    Populao Algoritmo Cross-validation (folds)0 k-NN (1)

    21 k-NN (5)2 k-NN (9)3 Random Forest4 Naive Bayes5 k-NN (1)

    56 k-NN (5)7 k-NN (9)8 Random Forest9 Naive Bayes10 k-NN (1)

    1011 k-NN (5)12 k-NN (9)13 Random Forest14 Naive Bayes

    durante a execuo dos algoritmos influncia no percentual deacertos. Sendo assim, antes de qualquer execuo a base dedados reorganizada aleatoriamente e o fitness dado pelamdia percentual de acertos aps 5 execues.

    A populao inicial gerada de forma totalmente aleatria.Para cada populao executado o AG com 50 geraes. Aofinal de cada gerao so criados 50 novos indivduos a partirda gerao anterior. A seleo dos indivduos feita peloprocesso de torneio simples. J o crossover ocorre atravs dosorteio de duas posies (1 at 76) e a respectiva troca degenes entre estas posies. Cada novo indivduo possui umachance de 3% de sofrer mutao, sendo que a mutao apenasaltera o valor de um gene que foi escolhido aleatoriamente.Ao final de cada gerao os piores indivduos so eliminados.

    Os melhores fitnesss obtidos aps cada gerao para cadapopulao do primeiro e segundo grupos so mostrados naFigura 6.

    A melhor indivduo obtido para o primeiro grupo possuias seguintes caractersticas:

    Parmetros da populao: k-NN (1) com fold de 10. Menor fitness: 86.33 Fitness mdio: 86.73 Maior fitness: 87.16 Atributos selecionados: A1, A2, A4, A5, A6, A7, A9,

    A16, A21, A22, A23, A24, A25, A26, A27, A29, A30,A31, A34, A39, A40, A45, A46, A48, A49, A50, A51,A52, A54, A56, A57, A59, A60, A62, A63, A64, A65,A66, A68, A69, A76.

    A melhor indivduo obtido para o segundo grupo possui asseguintes caractersticas:

    Parmetros da populao: k-NN (1) com fold de 10. Menor fitness: 86.5 Fitness mdio: 87.3 Maior fitness: 88.0 Atributos selecionados: A1, A2, A4, A5, A7, A8, A9,

    A10, A11, A16, A17, A18, A20, A21, A22, A23, A25,A26, A27, A28, A29, A31, A32, A33, A34, A37, A39,A40, A46, A47, A49, A50, A51, A53, A54, A55, A57,A58, A60, A61, A63, A65, A66, A67, A69, A71, A73.

    Figura 8. Comparao dos grupos considerando o fitness do melhor indivduode cada populao aps o processo de evoluo.

    Conforme mostrada na Figura 8, em geral a normalizaodos dados permitiu a obteno de melhores resultados. Almdisso, o algoritmo k-NN com k = 1 demonstrou melhoresfitness que as outras configuraes.

    Apenas neste experimento foram realizados 75000 execu-es de classificao. Como os algoritmos SVM e MLP de-mandam maior tempo de execuo e a quantidade de execuesem geral grande eles no foram testados. Contudo, este umdos trabalhos futuros.

    C. Parte 3

    Os experimentos com o LDA foram feitos com a imple-mentao do classificador presente no MATLAB considerandok-fold igual a 10. Aps a classificao das amostras, foi geradaa matriz de confuso, a partir da qual foram realizadas asanlises do mtodo.

    Foram realizados quatro testes independentes utilizando oLDA e o PCA:

    1) Classificao utilizando o LDA nos 76 atributos sema utilizao do PCA;

    2) Utilizao do PCA nos 76 atributos e posterior clas-sificao utilizando o LDA;

    3) Utilizao do PCA apenas nos 38 primeiros atributose posterior classificao utilizando o LDA;

    4) Utilizao do PCA apenas nos ltimos 38 atributos eposterior classificao utilizando o LDA.

    Os melhores resultados foram obtidos no teste 1, cujataxa de acerto foi de 88,66%. No teste 2 foram gerados 6componentes principais e a taxa de acerto foi de 76,00%. Jno teste 3 foi obtida uma taxa de acerto de 71,00%, enquantoque no teste 4, a taxa de acerto foi de 59,67%.

    VI. CONCLUSO

    Na primeira parte do experimento, o algoritmo de classifi-cao que obteve maior taxa de acerto foi o MLP com Z-score,que alcanou o valor de 85,16%. Alm disso, podemos concluirque a utilizao do PCA nos 76 atributos originais diminuiua taxa de acerto dos algoritmos de classificao considerados,com exceo do classificador Naive Bayes, que aumentou suataxa de acerto atingindo o valor de 74,83%.

  • A segunda parte do experimento que envolveu AG emdois grupos de populaes mostrou que o algoritmo k-NNconfigurado com k = 1 e 10 folds obteve melhores fitness emambos os grupos do que as outras configuraes. Inclusiveo melhor indivduo do segundo grupo obteve maior fitnessmdio (87,3%) do que o melhor indivduo do primeiro grupo(86,73%). O primeiro grupo foi composto por 15 populaesde 50 indivduos cada porm sem a normalizao da basede dados, enquanto que o segundo grupo foi composto por15 populaes de 50 indivduos cada cuja base de dados foinormalizada com Z-Score. A utilizao do AG foi bastante tilna seleo dos melhores atributos.

    A terceira parte do experimento que trabalhou com LDAobteve uma taxa de acerto de 88,66% considerando os 76atributos originais, ou seja, sem a aplicao do PCA nosatributos.

    Para este tipo de problema, embora o PCA contribuiupara a reduo da dimensionalidade do espao de atributos,sua utilizao acarretou uma grande perda de informaonos algoritmos considerados na primeira e terceira partes doexperimento. Como exemplo, o SVM foi o mais prejudicadopela utilizao do PCA, obtendo uma taxa de acerto de apenas60,16%.

    Com taxas de classificao abaixo de 90%, fica evidenteque a classificao desse conjunto de dados em particular noconfigura um problema trivial. A anlise do conjunto de dadosatravs do uso de mltiplos mtodos de classificao ofereceobservaes importantes em relao natureza do conjunto dedados.

    Trabalhos Futuros

    O AG demonstrou seu poder de encontrar melhores atribu-tos. Contudo, aps uma dada quantidade de geraes o fitnessficou estagnado. Este cenrio ocorre quando o processo deevoluo encontrou um mximo local. Para tentar exploraroutros mximos locais existe a possibilidade de utilizar umaabordagem de evoluo baseado em ilhas [15] ou aumentara taxa de mutao. Alm disso, existe a possibilidade deiniciar populaes com diferentes percentuais de presena deatributos, j que isso pode permitir encontrar outros mximoslocais. Ainda considerando o AG, existe a necessidade dautilizao de outros algoritmos de classificao. Dentre estesalgoritmos temos o SVM, LDA e MLP.

    REFERNCIAS

    [1] M. Fauzi, T. Moh, Comparison of different classification techniques usingWEKA for Breast Cancer, IFMBE Proceedings, vol. 15, pp. 520-523,2007.

    [2] M. Linares-vsquez, C. Mcmillan, D. Poshyvanyk et al, On UsingMachine Learning to Automatically Classify Software Applications intoDomain Categories, pp. 7-8, 2009.

    [3] R. A. Fisher, The use of multiple measurements in taxonomic problems.Annals of Eugenics, 7, pp. 179-188, 1936.

    [4] K. Fukunaga, Introduction to statistical pattern recognition, Boston:Academic Press, Inc. Second edition, 1990.

    [5] J. Ortega, M. Del, R. Boone et al, Research issues on K-means Algorithm:An Experimental Trial Using Matlab, pp. 89-90

    [6] J. Furtado, Z. Cai, L. Xiaobo, Digital Image Processing: Supervisedclassification using genetic algorithm in MATLAB Toolbox, vol. 2, pp.54-55, 2010.

    [7] L. Sehgal, N. Mohan, P. Sandhu, Quality Prediction of Function BasedSoftware Using Decision Tree Approach, International Conference onComputer Engineering and Multimedia Technologies, Bangkok, Thai-land, pp. 44-44, 2012.

    [8] L. Breiman, Random forests, Statistics Department University of Cali-fornia, Berkley, pp.1-2, 2001.

    [9] V. Lempitsky, M. Verhoek, A. Noble et al, Random Forest Classificationfor Automatic Delineation of Myocardium in Real-Time 3D Echocardio-graphy, pp. 449-449, 2009.

    [10] S. Haykin, Neural Networks: a comprehensive foundation, SecondEdition, pp. 178-179, 1998.

    [11] K. Kim, Face Recognition using Principle Component Analysis, De-partment of Computer Science, University of Maryland, USA, pp. 1-1.

    [12] U. Fayyad, G. Piatetsky-shapiro, P. Smyth, From Data Mining toKnowledge Discovery in Databases, pp. 41-41, 1996.

    [13] E. Prebys, The Genetic Algorithm in Computer Science, MIT Under-graduate Journal of Mathematics, pp. 166-166.

    [14] Kreyszig, E (fourth edition 1979). Applied Mathmatics, Wiley Press.[15] Martin, W. N. and Lienig, J. and Cohoon, J. P. Island (migration) mo-

    dels: evolutionary algorithms based on punctuated equilibria. Handbookof Evolutionary Computation. 1997.

    [16] Luke, S. The ECJ Owners Manual A User. Manual for the ECJEvolutionary Computation Library. Department of Computer Science,George Mason University. May, 2013.

    IntroduoCaracterizao do ProblemaFundamentao Tericak-Nearest NeighborsNaive BayesSupport Vector Machinervore de Deciso J4.8Random ForestsMultilayer PerceptronAlgoritmos GenticosPrincipal Component AnalysisLinear Discriminant AnalysisStandard Score

    Ferramentas UtilizadasWEKAMATLABECJ

    ExperimentosParte 1Parte 2Parte 3

    ConclusoReferncias