Hachemi, ImadChibani, Yacine2019-01-142019-01-142011http://hdl.handle.net/123456789/8034Ce travail présente quelques méthodes d’optimisation locales et globales, ainsi que leur exploitation indépendamment ou conjointement (deux à deux), pour la minimisation d’entrainement des réseaux de neurones MLP et RBF. Il est déduit que l’optimisation des réseaux de neurones qui est fortement liée à la convergence de ceux-ci, ne dépend pas seulement de l’algorithme d’entrainement mais, dépend également de : . Choix de la structure du réseau . Du nombre de paramètres d’entrainement et de fonctions de base On peut procéder à des techniques complémentaires qui contribuent directement à la minimisation de traitement pendant l’entrainement particulièrement, la variation de taux d’apprentissage et l’adaptation de la structure du réseaufrOptimisation des variations de variables d’entraînement d’un réseau de NeuroneOther