Etat de l’art des techniques de reconnaissance automatique de visages 

Télécharger le fichier pdf d’un mémoire de fin d’études

Mode de fonctionnement d’un système de reconnaissance de visages

La reconnaissance de visages consiste à associer un visage à une identité. Cette étape est effectuée chez les êtres humains d’une façon naturelle et évolutive. Mais, dans un système artificiel de reconnaissance faciale, cette étape permet de construire une base de données de personnes connues, stockant des images classifiées des identités.
Pour ce faire, un système automatique comporte deux modes de fonctionnement : un mode enrôlement et un mode identification/authentification [5].
– Le mode enrôlement sert à extraire, pour chaque personne, les éléments caracté-ristiques et les mettre sous la forme d’un vecteur caractéristique appelé par la suite, signature. Cette dernière, associée à une étiquette d’identité, sera stockée dans une base de données destinée [20].
– En mode authentification, le système examine l’identité d’une personne en com-parant sa signature obtenue avec celles stockées dans la base de données. Dans un tel système, la personne prétend une identité, habituellement à travers un code PIN (Personal Identification Number), un nom d’utilisateur, une carte à puce, etc . . . ; le système réalise alors une comparaison afin de déterminer si la déclaration est vraie ou non [20].
– Le mode d’identification permet de reconnaître une personne à partir de son image faciale, le système compare son signature avec toutes les signatures existant dans la base de données pour une éventuelle correspondance. Par conséquent, le système effectue une comparaison de la signature de la personne, avec plusieurs si-gnatures pour établir son identité. Ici l’individu n’a pas à revendiquer une identité [20].
Dans chacun des trois processus précédents le système exécute des opérations essen-tielles, à savoir [3] :
– l’acquisition de l’image,
– le prétraitement,
– l’extraction des descripteurs,
– la classification,
– l’apprentissage,
– la décision.

L’acquisition de l’image

Cette première étape se fait en capturant l’image de l’individu du monde extérieur, grâce aux appareils prévus à cet effet, comme une caméra ou un appareil photo. En-suite, vient la numérisation de l’image extraite. En somme, cette opération consiste à transformer des objets 3D pour obtenir une représentation en 2D.

Le prétraitement

La phase de prétraitement vient après la phase de l’acquisition. Elle permet de pré-parer l’image du visage de telle sorte qu’elle soit exploitable. Son objectif est d’éliminer les bruits dans l’image d’entrée, causés par la qualité des dispositifs utilisés lors de son acquisition, pour ne conserver que les renseignements nécessaires et ainsi préparer l’image à l’étape suivante. Cette étape consiste généralement à déterminer la présence éventuelle d’un visage dans l’image et de le localiser. Après la détection du visage, vient ensuite la normalisation géométrique pour bien aligner le visage et la normalisation photométrique, afin de pallier les variations d’illumination. [1]

L’extraction des descripteurs

Évidemment, cette étape consiste à extraire les paramètres caractéristiques, c’est-à-dire extraire les informations cruciales de l’image du visage. Ces informations peuvent donc représenter une personne bien déterminée. Elles doivent être pertinentes, et aussi unique pour chaque individu. Elles ne devraient pas changer face aux modifications qui interviennent sur la capture. Nous pouvons dire que c’est le cœur même du système de reconnaissance faciale. [3]

La classification

Elle consiste à concevoir un des modèles à partir des paramètres caractéristiques d’un visage ou d’un ensemble de visages extraites dans la phase précédente en se basant sur les caractéristiques qu’ils ont en commun. Un modèle est un ensemble d’information unique caractérisant un ou plusieurs individus possédant des caractères communs, ces individus seront alors groupés dans une même classe.

L’apprentissage

Comme son nom l’indique, l’étape consiste à faire apprendre les individus au système. Ce qui veut dire, d’enregistrer les paramètres caractéristiques de chaque individu dans une base de données pour que la reconnaissance soit possible. Autrement dit, c’est la création de la mémoire du système. [3]

La décision

Dans cette étape, le système examine l’identité affirmée par un utilisateur ou déter-mine l’identité d’une personne basée sur le degré de similarité entre les caractéristiques extraites et celles des modèles stockés.

Problématique

Bien que les êtres humains puissent détecter et identifier des visages sans aucune dif-ficulté, construire un système automatique capable d’effectuer de telles tâches représente un grand défi. Nous détaillons ici les principales difficultés rencontrées par un système de reconnaissance faciale automatique dans des conditions réelles qui sont généralement [5] :
– le changement d’illumination,
– la variation des poses,
– l’expression faciale,
– l’occultation partielle.

Changements d’illumination

L’intensité et la direction d’éclairage lors de la prise de vue influent énormément sur l’apparence du visage dans l’image. En effet, le changement d’apparence d’un visage dû à l’illumination, se révèle parfois plus critique que la différence physique entre les indivi-dus, et peut entraîner une mauvaise classification des images d’entrée, particulièrement lorsque les vues sont collectées à des heures différentes, en intérieur ou en extérieur [4]. Etant donnée la forme spécifique d’un visage humain, ces variations d’éclairage peuvent y faire apparaître des ombres accentuant ou masquant certaines caractéristiques faciales. L’identification de visage dans un environnement non contrôlé reste donc un domaine de recherche très ouvert.

Variation des poses

Le taux de reconnaissance de visage baisse considérablement quand des variations de pose sont présentes dans les images [3]. En effet, les changements d’orientation et les changements de l’angle d’inclination du visage engendrent de nombreuses modifications d’apparence dans les images collectées et les rotations en profondeur engendrent l’occul-tation de certaines parties du visage comme pour les vues de trois-quarts.

Expressions faciales

Un autre facteur qui affecte l’apparence du visage est l’expression faciale. Les visages sont des éléments non rigides, donc déformables. Les expressions faciales véhiculent des émotions, combinées avec les déformations induites par la parole, peuvent produire des changements d’apparence importants. La déformation du visage qui est due aux expres-sions faciales est localisée, principalement, sur la partie inférieure du visage. L’information faciale se situant dans la partie supérieure du visage reste quasi-invariable car, en général, l’élément facial qui varie, le plus, est la bouche [5]. Toutefois, étant donné que l’expres-sion faciale modifie l’aspect du visage, elle entraîne forcément une diminution du taux de reconnaissance. L’identification de visage avec expression faciale est un problème difficile qui est toujours d’actualité et qui reste non résolu.

Occultations partielles

Un visage peut être partiellement masqué par des objets ou par le port d’accessoires tels que lunettes, un chapeau, une écharpe. Les occultations peuvent être intentionnelles ou non mais il est clair que la reconnaissance sera d’autant plus difficile que peu d’éléments discriminants seront simultanément visibles. Alors, les performances des algorithmes de reconnaissance restent faibles dans ces conditions [7].

Autres difficultés

D’autres types de difficultés peuvent apparaître pour un système automatique de re-connaissance faciale. Ainsi, des variations peuvent être dues à la présence de maquillage, d’opérations chirurgicales, de différentes coupes de cheveux, ou encore la présence (ab-sence) de moustaches, de barbes, . . .Un autre point très important est l’âge des captures, c’est à dire le moment à laquelle les captures ont été réalisées. En effet, l’apparence d’un visage peut changer au cours du temps (notamment lors de l’adolescence), et un écart de temps important entre deux captures peut engendrer des difficultés de reconnaissance.

Utilisation des systèmes de reconnaissance automatique de visages

Aujourd’hui, la reconnaissance faciale est utilisée dans plusieurs domaines. Mais son principal domaine d’application est la sécurité des lieux publiques comme les aéroports, les stades, les banques, . . ., afin d’identifier rapidement les criminels en fuite ou les terroristes qui sont déjà répertoriés dans les bases de données des agences de sécurité publiques. Un bon exemple de cet usage était lors des Jeux Olympiques d’hiver de 2014 qui s’est tenue en Sotchi (Russie), la Russie avait exploité une technologie de reconnaissance faciale de la société américaine Artec Group pour renforcer les contrôles d’accès à des zones sécuri-sées. Artec Group avait expliqué que des tests avaient été menés dans plusieurs aéroports américains [13].
Pour assurer la sécurité de ses concitoyens pendant la tenue de l’Euro 2016 en France, le maire de Nice a décidé d’installer des portails de reconnaissance faciale dans sa ville [16].
Plusieurs entreprises demandent à leurs salariés de passer un badge le matin à leurs arrivés pour débloquer la porte et permettre un suivi de leurs présences. Mais, les oublis sont fréquents et le système n’est pas très fiable car un badge peut facilement passer de main en main. Pour contrer cela, GextraTime a proposé l’aide de la technologie de re-connaissance faciale, les employés n’ont plus qu’à tenir devant la caméra pour attester de leurs présences et ouvrir les portes [14].
Il existe aussi des applications domotiques qui intègrent la reconnaissance faciale comme l’application de Welcome de NETATMO [15]. Il suffit de placer une caméra dans la maison, face à la porte d’entrée, la brancher et ensuite de télécharger l’application Wel-come et, enfin, de l’installer sur un smartphone ou un ordinateur. Grâce à sa technique de reconnaissance de visage, l’application Welcome envoie des notifications lorsqu’une per-sonne, connue ou inconnue, passe devant la caméra, c’est-à-dire, entre dans la maison.
L’assistance aux utilisateurs est l’un des seconds principaux domaines d’application de la reconnaissance de visage. Plusieurs géants du net comme Google et Facebook ont intégré la reconnaissance faciale dans leur système [16]. Elle facilite la recherche d’identité d’une personne à l’aide des photos ou des vidéos.

L’Analyse en Composantes Principales (ACP)

En 1987 et 1990, Sirovich et Kirby [18] publient leurs travaux sur la reconstruction de visage à partir de vecteurs de projection par ACP (Analyse en Composantes Principales) ou KL (Karhunen-Loëve). Ils ont montré que la validité de la réduction de dimensionnalité de l’espace des visages et aussi qu’une reconstruction de visage à partir de la nouvelle base est même meilleure sur le plan visuel, car elle corrige une grande partie des bruits ou des zones occultées lors de la capture. Cette approche a été reprise par Turk en 1991 et appliquée à la reconnaissance des visages [18]. Cette méthode reste d’actualité et même considérée comme une méthode de base.
Une Analyse en Composantes Principales (ACP) permet de définir, à partir d’un jeu de données, un sous espace permettant de conserver l’information discriminante, et supprimer ceux qui ne le sont pas. Cette méthode consiste à trouver une nouvelle base d’espace de données dont tous les vecteurs sont orthogonaux entre eux. Le premier de ces vecteurs correspond à la direction de variance maximale des données. Les autres composantes sont déterminées par la contrainte d’orthogonalité entre les vecteurs, tout en respectant une direction de variance maximum.
L’ACP est une technique rapide, simple et populaire dans l’identification de modèle, c’est l’une des meilleures techniques. Les projections de l’ACP sont optimales pour la re-construction d’une base de dimension réduite. Cependant, l’ACP n’est pas optimisée pour la séparabilité (discrimination) de classe. Une alternative, qui est l’analyse discriminante linéaire ADL, tient compte de ceci. [2]

L’Analyse Discriminante Linéaire (ADL)

L’Analyse Discriminante Linéaire a été introduite par Robert Fisher en 1936 [1]. Tan-dis que l’ACP construit un sous-espace pour représenter de manière optimale seulement l’objet visage, l’ADL construit un sous-espace discriminant pour distinguer de façon op-timale les visages de différentes personnes. Elle permet donc d’effectuer une véritable séparation de classes. Pour cela, elle optimise les variations inter-personnes par rapport aux variations intra-personnes. Donc, pour pouvoir l’utiliser, il faut au préalable organiser la base d’apprentissage d’images en plusieurs classes : une classe par personne et plusieurs images par classe.

L’Analyse en Composantes Indépendantes (ACI)

L’ACI est un algorithme global, basé sur le concept intuitif de contraste. En effet, pour extraire une information pertinente d’un ensemble riche de données complexes et non structurées, il faut optimiser le contraste, c’est-à-dire disposer de différents points de vue, à partir de directions les plus éloignées les unes des autres. [20]
L’algorithme ACI appliqué à la reconnaissance de visage a été proposé initialement par Bartlett [1].
Ainsi, en reconnaissance faciale, l’ACI minimise les dépendances statistiques d’ordre élevé des données d’entrée et non pas seulement du second ordre, comme c’est le cas dans l’ACP (matrice de covariance), en tentant de trouver les bases sur lesquelles les données projetées sont statistiquement indépendantes entre-elles. [1].

Méthodes locales

Les approches locales de la reconnaissance de visages sont basées sur des modèles et utilisent des connaissances que nous possédons, à priori, de la morphologie des visages. Elles consistent à détecter les points caractéristiques du visage, tels que les yeux, la bouche, le nez et les oreilles ; et ensuite de mesurer chaque position de ces points dans l’espace du visage ; puis à les comparer avec les paramètres extraits d’autres visages.
Le gros avantage des méthodes locales de reconnaissance de visages est qu’elles sont robustes aux problèmes posés par les variations de pose, d’illumination ou encore d’expres-sions que peuvent subir un visage, car elles peuvent modéliser facilement ces variations. Cependant, ces méthodes sont plus difficiles à mettre en place car elles nécessitent souvent le placement manuel de nombreux points d’intérêts pour une bonne précision, et sont donc lourdes à mettre en œuvre.
Dans cette catégorie, nous trouvons plusieurs méthodes comme :
– les Modèles Actifs d’Apparence,
– Machine à Vecteurs de Support,
– le Local Binary Pattern.

Les Modèles Actifs d’Apparence

Les Modèles Actifs d’Apparence (ou AAM pour Active Appearance Models) consistent à la création d’un modèle statistique d’un visage. Le modèle est ensuite déformé pour coller au plus près des traits du visage. La reconnaissance est effectuée sur le résidu calculé correspondant à l’erreur de prédiction du modèle [5].
Les modèles actifs d’apparence (AAM) permettent de prendre en compte l’information de texture, en plus de celle de forme. Ils cherchent à minimiser la différence entre l’image originale et une image synthétique, construite à partir de la forme moyenne, de la texture moyenne et d’un vecteur de paramètres. Ils se basent sur l’ACP pour représenter conjoin-tement les variations de forme et de texture présentes dans un ensemble d’apprentissage [3]. Le Modèle Actif d’Apparence présente un outil d’extraction des caractéristiques (si-gnatures) représentant, à la fois, la forme et la texture des visages [7].

Machine à Vecteurs de Support

C’est une technique qui a été proposée par V. Vapnik en 1995 [6], elle est utilisée dans plusieurs domaines statistiques. L’idée essentielle de cette approche consiste à projeter les données de l’espace d’entrée (appartenant à des classes différentes) non linéairement séparables, dans un espace de plus grande dimension, appelé espace de caractéristiques, de façon à ce que les données deviennent linéairement séparables. Dans cet espace, la technique de construction de l’hyperplan optimal est utilisée pour calculer la fonction de classement séparant les classes tels que:
– Les vecteurs appartenant aux différentes classes se trouvent de différents côtés de l’hyperplan.
– La plus petite distance entre les vecteurs et l’hyperplan (la marge) soit maximale.

Local Binary Pattern

Les LBP (pour Local Binary Patterns) ont également été utilisés pour la reconnais-sance faciale. Le visage est subdivisé en sous-régions carrées, de taille égale, sur lesquelles sont calculées les caractéristiques LBP. Les vecteurs obtenus sont ensuite concaténés pour obtenir le vecteur de caractéristique finale.

Méthodes hybrides

Les approches hybrides sont des approches qui combinent les caractéristiques globales et locales afin d’améliorer les performances de la reconnaissance de visages.
En effet, les caractéristiques locales et les caractéristiques globales ont des propriétés tout à fait différentes. Nous espérons, en faisant une étude minutieuse de ces deux ap-proches, découvrir et exploiter leurs complémentarités afin d’améliorer la classification. Les méthodes hybrides permettent d’augmenter la stabilité de la performance de recon-naissance lors de changements de pose, d’éclairage et d’expressions faciales.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction Générale
1 Système de reconnaissance automatique des visages 
1.1 Introduction
1.2 Mode de fonctionnement d’un système de reconnaissance de visages
1.2.1 L’acquisition de l’image
1.2.2 Le prétraitement
1.2.3 L’extraction des descripteurs
1.2.4 La classification
1.2.5 L’apprentissage
1.2.6 La décision
1.3 Problématique
1.3.1 Changements d’illumination
1.3.2 Variation des poses
1.3.3 Expressions faciales
1.3.4 Occultations partielles
1.3.5 Autres difficultés
1.4 Utilisation des systèmes de reconnaissance automatique de visages
2 Etat de l’art des techniques de reconnaissance automatique de visages 
2.1 Méthodes globales
2.1.1 L’Analyse en Composantes Principales (ACP)
2.1.2 L’Analyse Discriminante Linéaire (ADL)
2.1.3 L’Analyse en Composantes Indépendantes (ACI)
2.2 Méthodes locales
2.2.1 Les Modèles Actifs d’Apparence
2.2.2 Machine à Vecteurs de Support
2.2.3 Local Binary Pattern
2.3 Méthodes hybrides
2.4 Synthèse
3 Descriptions des approches proposées 
3.1 Reconnaissance par Eigenfaces
3.2 Reconnaissance par Fisherfaces
3.3 Reconnaissance par LBPH
3.3.1 L’opérateur LBP
3.3.2 LBP pour la reconnaissance de visages
3.3.3 Les principales étapes de l’algorithme de LBPH
3.4 Conclusion
4 Expérimentation et résultat 
4.1 Introduction
4.2 Environnement de travail
4.2.1 Bases de données
4.2.2 Matériel utilisé
4.2.3 Outils de développement
4.3 Implémentation des algorithmes
4.3.1 Détection et Prétraitement
4.3.2 Phase d’apprentissage
4.3.3 Prédiction d’identité
4.4 Tests et Résultat
4.5 Synthèse
Conclusion Générale 
Annexes 
Bibliographie

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *