ETAT DE L’ART SUR LE RESEAU DE NEURONE
Les réseaux de neurones artificiels, nés il y a environ une cinquantaine d’années, sont toujours en cours de développement. Cet axe de recherche a tiré l’attention de beaucoup de chercheurs de différentes disciplines. Ces réseaux de neurones artificiels (RNA) sont issus de la combinaison entre la neurobiologie comme idée de base, la physique comme champs d’application et les mathématiques avec l’informatique en tant que moyens de réalisation.
On espère ainsi, en mimant les structures du système nerveux et les mécanismes de modification de ses constituants (neurones, synapses, etc.), développer de nouveaux outils de traitement de l’information. La technique qui en découle est appelée réseaux de neurones. Les réseaux de neurones font ainsi partie du domaine des sciences cognitives qui cherche à développer des modèles de systèmes capables de manifester des capacités d’apprentissage et d’adaptation à leur environnement.
On recense aujourd’hui des applications des réseaux de neurones dans des domaines très variés : la reconnaissance de caractères manuscrits, la classification de profilés d’aluminium, l’analyse de l’état de réseaux électriques, la robotique, la reconnaissance de paroles, etc. Toutes ces tâches ont un point en commun : elles sont complexes à modéliser, elles ne requièrent pas une solution unique et exacte, mais plutôt une estimation de la réponse la plus plausible, et enfin elles opèrent sur des données incertaines, toujours entachées de bruit.
Historique
En 1943 J. McCulloch & W. Pitts proposent un modèle simple de neurone capable de reproduire la machine de Turing, démontrent qu’un assemblage synchrone de tels neurones est une machine universelle de calcul (c’est-à-dire que toute fonction logique peut être représentée par des unités à seuil). En 1948 D. Hebb, propose une règle d’apprentissage pour des réseaux de neurones. The Organization of Behaviour, Wiley, New York 1949. En 1958 F. Rosenblatt propose le modèle du perceptron et démontre son théorème de convergence. En 1969 M. Minsky & S. Papert démontrent les limitations du modèle du perceptron. Perceptrons, the MIT Press, Cambridge 1969. En 1972 T. Kohonen présente ses travaux sur les mémoires associatives et propose des applications à la reconnaissance de formes. En 1982 J.J. Hopfield présente une théorie de fonctionnement et des possibilités des réseaux de neurones. En 1986 D.E. Rumelhart et al ecrit l’apprentissage par rétro-propagation pour les réseaux multicouches.
Du neurone biologique au modèle mathématique
Les dendrites sont considérées comme les portes d’entrées des neurones. Elles sont les réceptrices principales du neurone permettant de capter les signaux lui parvenant. Ensuite, un traitement de toutes ces informations a lieu au niveau du corps cellulaire. Les principales lignes de transmission du système nerveux sont les axones. Ils servent de moyen de transport pour les signaux émis par le neurone, vers d’autres neurones. L’information va transiter de neurone en neurone le long de l’axone jusqu’aux muscles via un potentiel d’action (un signal électrique). La synapse désigne les zones de contact entre neurones, zones spécialisées dans la transmission de l’information. Elles peuvent être inhibitrice ou exhibitrice de signal pondérant l’information arrivant au corps cellulaire par dendrites.
Architecture des réseaux de neurones
Un neurone réalise une fonction non linéaire. L’intérêt des neurones réside dans les propriétés qui résultent de leurs associations en réseaux. C’est-à-dire de la composition des fonctions non linéaires réalisées par chacun des neurones constitutifs. La plupart des modèles de réseaux de neurones artificiels (RNA) ne retirent du fonctionnement réel que les principes suivants :
– Ceux caractérisés par des interconnections denses entre des unités de traitement simples agissant en parallèle.
– Ceux qu’à chaque connexion est associé un poids qui détermine l’influence réciproque des deux unités connectées.
– Ceux pour lesquels les poids de connexions sont modifiables et c’est cette plasticité qui donne lieu aux facultés d’adaptation et d’apprentissage. Les neurones sont donc fortement connectés entre eux. Mais ces connexions ne sont pas aléatoires. Elles correspondent à des réseaux dont les architectures sont assez connues.
L’apprentissage d’un réseau de neurone
L’apprentissage est une étape très importante du développement d’un réseau de neurones durant laquelle le comportement du réseau est modifié itérativement jusqu’à l’obtention du comportement désiré, et ce par l’ajustement des poids (connexion ou synaps) des neurones à une source d’information bien définit (Hebb 1949; Grossberg 1982; Rumelhart et al. 1986). L’apprentissage consiste également à extraire des conformités parmi les données utilisées pour l’ entrainement du réseau mais l’objectif essentiel de l’apprentissage est la résolution du problème par la prévision, la classification … etc (Weiss et Kulikowski 1991). Pour un RNA, l’apprentissage peut être regardé également comme étant le processus de la mise à jour des poids (connexion) au sein du réseau dans le but d’ajuster la réponse du réseau à l’expérience et aux exemples. Il existe plusieurs types de règles d’apprentissage qui peuvent être rassemblées en deux catégories qui sont l’apprentissage supervisé et l’apprentissage non supervisé.
Apprentissage supervisé
Dans ce type d’apprentissage, on cherche à imposer au réseau un fonctionnement donné en forçant les sorties des réseaux à prendre des valeurs bien données (choisie par l’opérateur) et ce en modifiant les poids synaptiques. Le réseau se comporte alors comme un filtre dont les paramètres de transfert sont ajustés à partir des couples entrée-sortie présentés (Hassoum 1995). L’adaptation des paramètres du réseau s’effectue à partir d’un algorithme d’optimisation, l’initiation des poids synaptiques étant le plus souvent aléatoire.
Apprentissage non supervisé
Contrairement à l’apprentissage supervisé, seules les valeurs d’entrée sont disponibles dans ce type d’apprentissage non supervisé qui est appelé aussi« apprentissage par compétition ». Dans ce cas, les exemples présentés à l’entrée provoquent une auto-adaptation du réseau afin d’engendrer des valeurs de sortie qui soient proches en réponse à des valeurs d’entrée similaires.
|
Table des matières
INTRODUCTION
CHAPITRE 1 ETAT DE L’ART SUR LE RESEAU DE NEURONE
1.1 Introduction
1.2 Historique
1.3 Du neurone biologique au modèle mathématique
1.3.2 Modèle de neurone
1.3.3 Fonction de transfert
1.3.4 Architecture des réseaux de neurones
1.4 L’apprentissage d’un réseau de neurone
1.4.1 Apprentissage supervisé
1.4.2 Apprentissage non supervisé
1.4.3 Les différentes tâches d’apprentissage
1.5 Conclusion
CHAPITRE 2 LE BIOMETRIE ET LA TECHNIQUE DE RECONNAISSANCE FACIALE
2.1 Introduction
2.2 Traitements des images
2.2.1 Définition d’une image
2.2.2 L’image numérique
2.3 La biométrie
2.3.1 Définition de la biométrie
2.3.2 Panorama des différentes biométries
2.3.3 Principe de fonctionnement de la biométrie
2.4 Technique de la reconnaissance faciale
2.4.1 Définition de la reconnaissance faciale
2.4.2 Système de reconnaissance faciale
2.4.3 Processus de la reconnaissance automatique de visage
2.5 Applications de la biométrie
2.5.1 contrôle d’accès
2.5.2 Authentification des transactions
2.5.3 Répression
2.5.4 Personnalisation
2.6 Conclusion
CHAPITRE 3 METHODOLOGIE D’ADAPTATION DU RESEAU DE NEURONE A LA RECONNAISSANCE FACIALE
3.1 Introduction
3.2 Approche de reconnaissance par analyse des composantes principales ou Eigen Face
3.2.1 Reconnaissance par ACP ou Eigen face
3.2.2 L’apprentissage par ACP
3.2.3 Phase de test (Reconnaissance)
3.3 Approche de reconnaissance faciale basée sur les réseaux de neurones
3.3.1 Base utilisée
3.3.2 Apprentissage du perceptron multicouche
3.3.3 Les paramètres d’apprentissage
3.4 Approche de reconnaissance par l’approche hybride neuro-ACP
3.4.1 Structure de réseau neuro-ACP
3.5 conclusion
CHAPITRE 4 SIMULATION SOUS MATLAB
4.1 Introduction
4.2 Choix de l’outil de simulation
4.2.1 Avantages/désavantages SNNS
4.2.2 Avantage/désavantage de MATLAB
4.2.3 Outil de simulation pour le projet de fin d’étude
4.3 Mise en œuvre de la simulation
4.3.1 Présentation
4.3.2 Architecture du réseau de neurone utilisé
4.3.3 Résultat des tests de reconnaissance faciale utilisant un algorithme neuro-ACP
4.4 Test de performance du système : Résultat et discussion
4.5 Conclusion
CONCLUSION GENERALE
BIBLIOGRAPHIE