Seleção De Modelos Neurais Utilizando Evolução Diferencial Através Do Controle De Erro E Norma Do Vetor De Pesos

Título: Seleção De Modelos Neurais Utilizando Evolução Diferencial Através Do Controle De Erro E Norma Do Vetor De Pesos

Autores: Rocha, Honovan P.; Castro, Cristiano L.; Braga, Antônio P.

Resumo: O algoritmo Evolução Diferencial (Differential Evolution – DE) faz parte de uma área emergente e promissora e tem se mostrado uma técnica bem sucedida em muitas aplicações, sendo uma abordagem recomendável à resolução de problemas de otimização não linear com variáveis contínuas. O treinamento de redes neurais artificiais é, em sua essência, um problema de otimização não linear onde os pesos da rede são variáveis continuas, o que torna o DE uma boa alternativa para o treinamento. Neste trabalho é apresentada uma abordagem utilizando o algoritmo Evolução Diferencial para treinamento de redes neurais artificiais do tipo Perceptron de múltiplas camadas (MLP). Nesta abordagem utiliza-se o DE para treinar a rede MLP visando a minimização do erro médio quadrático através da busca estocástica pelos parâmetros ideais da rede. Estes parâmetros consistem dos vetores de pesos da rede e tem magnitude limitada através de valores fixos de norma estabelecidos, sendo esta restrição acoplada à codificação utilizada no algoritmo. Os resultados da abordagem proposta aplicada alguns problemas de regressão mostram resultados promissores, sendo estes contrastados a resultados obtidos por versões clássicas do backpropagation visando apenas minimização do erro.

Palavras-chave: Algoritmo Evolução Diferencial; restrição da norma; magnitude dos pesos

Páginas: 7

Código DOI: 10.21528/CBIC2011-32.1

Artigo em pdf: st_32.1.pdf

Arquivo BibTex: st_32.1.bib