Otimização De Redes Neurais Usando GSO Cooperativos Com Decaimento De Pesos

Título: Otimização De Redes Neurais Usando GSO Cooperativos Com Decaimento De Pesos

Autores: Silva, D. N. G.; Ludermir, T. B.

Resumo: Treinamento de Redes Neurais Artificiais (RNAs) é uma tarefa complexa de grande importância em problemas de aprendizado supervisionado. Algoritmos Evolutivos (AEs) são amplamente utilizados como técnicas de otimização global e estas abordagens têm sido usadas para as RNAs executarem várias tarefas. Recentemente, um algoritmo de otimização, chamado de Group Search Optimizer (GSO), foi proposto e inspirado pelo comportamento de busca dos animais. Neste artigo apresentamos duas novas abordagens híbridas: GSO-Sk-WD e GSO-Hk-WD. Os GSO cooperativos são baseados no paradigma de dividir e conquistar, empregando o comportamento cooperativo entre os grupos GSOs para melhorar o desempenho do GSO padrão. Também aplicamos a estratégia de decaimento de pesos (WD – Weight Decay) para aumentar o poder de generalização das redes. Os resultados mostram que os GSO cooperativos são capazes de conseguir melhor desempenho do que o GSO tradicional para problemas de classificação dos conjuntos de dados de Câncer, Diabetes, Ecoli e Vidros.

Palavras-chave: Redes Neurais Artificiais; Sistemas Híbridos; Group Search Optimizer; Treinamento de Redes Neurais; Limites do Espaço de Busca

Páginas: 8

Código DOI: 10.21528/CBIC2011-36.5

Artigo em pdf: st_36.5.pdf

Arquivo BibTex: st_36.5.bib