Entraînement d’un réseau De neurones MLP
No Thumbnail Available
Date
2011
Journal Title
Journal ISSN
Volume Title
Publisher
Université Larbi Ben M'hidi
Abstract
Après avoir présenté les limitations de la méthode d’apprentissage BP, basée sur
l’algorithme de la descente du gradient, nous avons envisagé l’application d’une nouvelle
méthode d’apprentissage, en utilisant un autre algorithme d’optimisation.
Ainsi nous avons introduit une méthode d’optimisation de type Quasi Newton, dite BFGS
pour l’entraînement d’un réseau de neurones MLP. L’algorithme d’apprentissage BFGSBP a été
testé sur un exemple classique de la littérature en l’occurrence le système de Box et Jenkins.
Les résultats de simulation témoignent que la méthode BFGS est une bonne méthode
d’optimisation, l’algorithme basé sur cette méthode a assuré un entraînement du réseau dont les
caractéristiques d’approximation et de convergence sont très élevées. Les essais ont montrés
aussi que l’algorithme BP nécessite une très longue période d’entraînement (un nombre élevé de
paquets d’entraînements), l’erreur d’entraînement été considérable