Belbezzouh, AbdelwahidAdel, Omar Abdal Ghani Hassan2019-01-162019-01-162011http://hdl.handle.net/123456789/8044Après avoir présenté les limitations de la méthode d’apprentissage BP, basée sur l’algorithme de la descente du gradient, nous avons envisagé l’application d’une nouvelle méthode d’apprentissage, en utilisant un autre algorithme d’optimisation. Ainsi nous avons introduit une méthode d’optimisation de type Quasi Newton, dite BFGS pour l’entraînement d’un réseau de neurones MLP. L’algorithme d’apprentissage BFGSBP a été testé sur un exemple classique de la littérature en l’occurrence le système de Box et Jenkins. Les résultats de simulation témoignent que la méthode BFGS est une bonne méthode d’optimisation, l’algorithme basé sur cette méthode a assuré un entraînement du réseau dont les caractéristiques d’approximation et de convergence sont très élevées. Les essais ont montrés aussi que l’algorithme BP nécessite une très longue période d’entraînement (un nombre élevé de paquets d’entraînements), l’erreur d’entraînement été considérablefrEntraînement d’un réseau De neurones MLPOther