Optimisation des variations de variables d’entraînement d’un réseau de Neurone
dc.contributor.author | Hachemi, Imad | |
dc.contributor.author | Chibani, Yacine | |
dc.date.accessioned | 2019-01-14T10:04:58Z | |
dc.date.available | 2019-01-14T10:04:58Z | |
dc.date.issued | 2011 | |
dc.description.abstract | Ce travail présente quelques méthodes d’optimisation locales et globales, ainsi que leur exploitation indépendamment ou conjointement (deux à deux), pour la minimisation d’entrainement des réseaux de neurones MLP et RBF. Il est déduit que l’optimisation des réseaux de neurones qui est fortement liée à la convergence de ceux-ci, ne dépend pas seulement de l’algorithme d’entrainement mais, dépend également de : . Choix de la structure du réseau . Du nombre de paramètres d’entrainement et de fonctions de base On peut procéder à des techniques complémentaires qui contribuent directement à la minimisation de traitement pendant l’entrainement particulièrement, la variation de taux d’apprentissage et l’adaptation de la structure du réseau | ar |
dc.description.sponsorship | Djebabla | ar |
dc.identifier.uri | http://hdl.handle.net/123456789/8034 | |
dc.language.iso | fr | ar |
dc.publisher | Université Larbi Ben M'hidi | ar |
dc.title | Optimisation des variations de variables d’entraînement d’un réseau de Neurone | ar |
dc.type | Other | ar |