Dans son environnement quotidien, un individu a besoin de s’identifier dans une multitude de contextes : pour entrer dans son immeuble ou accéder à son lieu de travail, pour retirer de l’argent à un distributeur ou payer en magasin, pour demander un service social… Autant de codes et de mots de passe à mémoriser et à protéger. Afin de développer les moyens de reconnaissance, la recherche connaît depuis quelques années un renouveau et manifeste un intérêt majeur aux données « biométriques », c’est-à-dire aux caractéristiques propres à chaque personne : sa voix, ses empreintes digitales, les traits de son visage, la forme de sa main, sa signature et même son ADN.
Parmi les technologies biométriques, la reconnaissance du visage, reconnaissance faciale, est l’un des plus en vogues, elle trouve son utilisation dans différents domaines, la sécurisation, l’apprentissage automatique et tant d’autres. Les premières études théoriques sur la reconnaissance faciale remontent au moins au début des années 1970. L’une des méthodes utilisés dans la reconnaissance faciale est la méthode globale, elle consiste à utiliser toute la surface du visage comme source d’information, l’un des approches de cette méthode est l’analyse en composantes principales (Principal Componants Analyse) par exemple le principe des Eigenfaces, mais le problème fréquent de cette méthode est le bruit et la variance qui peut être contenu dans les images faciales utilisées.
GENERALITES SUR LE TRAITEMENT D’IMAGES NUMERIQUE
Que ce soit dans les systèmes de vision par ordinateur, dans les systèmes de suivi, dans les systèmes de biométrie et même dans les applications des réseaux sociaux de nos jours, l’image est le porteur d’information .
Dans les chaines qui modélisent ces systèmes, après acquisition il y a toujours un bloc en entier qui se charge du traitement de l’information, dans notre cas l’image, ces traitements sont dans la plupart des cas des algorithmes qui sont à la base un ensemble de traitements élémentaires en traitement d’image.
Image numérique
Une image numérique est composée d’unités élémentaires nommées pixels qui représentent chacun une portion de l’image. Une image est définie par :
● Le nombre de pixels qui la compose en largeur et en hauteur,
● L’étendue des teintes de gris ou couleurs que peut prendre chaque pixel.
Images binaires
Exemple d’images les plus simples, un pixel peut prendre uniquement les valeurs noir ou blanc. C’est typiquement le type d’image que l’on utilise pour scanner du texte quand celui-ci est composé d’une seule couleur.
Images en teintes de gris
En général des images en niveaux de gris renferment 256 teintes de gris. Image à 256 couleurs, simplement chacune de ces 256 couleurs est définie dans la gamme des gris. Par convention, la valeur zéro représente le noir et la valeur 255 le blanc.
Images couleurs
S’il existe plusieurs modes de représentation de la couleur, le plus utilisé pour la présentation des images numériques est l’espace couleur Rouge, Vert, Bleu (R, V, B). Cet espace couleur est basé sur la synthèse additive des couleurs, c’est-à-dire que le mélange des trois composantes (R, V, B) donne une couleur.
Caractéristiques d’une image numérique
L’image est un ensemble structuré d’informations caractérisé par les paramètres suivants :
Pixel
C’est la contraction de l’expression anglaise « Picture elements » : éléments d’image, le pixel est le plus petit point de l’image, c’est une entité calculable qui peut recevoir une structure et une quantification. Si le bit est la plus petite unité d’information que peut traiter un ordinateur, le pixel est le plus petit élément que peuvent manipuler les matériels et logiciels d’affichage ou d’impression.
La quantité d’information que véhicule chaque pixel donne des nuances entre images monochromes et images couleurs. Dans le cas d’une image monochrome, chaque pixel est codé sur un octet, et la taille mémoire nécessaire pour afficher une telle image est directement liée à la taille de l’image. Dans une image couleur (R.V.B.), un pixel peut être représenté sur trois octets : un octet pour chacune des couleurs primaires : rouge (R), vert (V) et bleu (B).
Dimension
C’est la taille de l’image, ou encore le nombre total de pixels dans l’image. Cette dernière se présente sous forme de matrice dont les éléments sont des valeurs numériques représentatives des intensités lumineuses (pixels). Donc la dimension D d’une image est le nombre de ligne M multiplié par le nombre de colonne N de cette matrice.
D=M*N (1.01)
Résolution
C’est la clarté ou la finesse de détails atteinte par un moniteur ou une imprimante dans la production d’images. Sur les moniteurs d’ordinateurs, la résolution est exprimée en nombre de pixels par unité de mesure (pouce ou centimètre). On utilise aussi le mot résolution pour désigner le nombre total de pixels affichables horizontalement ou verticalement sur un moniteur ; plus grand est ce nombre, meilleure est la résolution.
Bruit
Un bruit (ou parasite) dans une image est considéré comme un phénomène de brusque variation de l’intensité d’un pixel par rapport à ses voisins, il provient de l’éclairage des dispositifs optiques et électroniques du capteur.
Histogramme
L’histogramme des niveaux de gris ou des couleurs d’une image est une fonction qui donne la fréquence d’apparition de chaque niveau de gris (ou couleur) dans l’image. Pour diminuer l’erreur de quantification, pour comparer deux images obtenues sous des éclairages différents, ou encore pour mesurer certaines propriétés sur une image, on modifie souvent l’histogramme correspondant. Il permet de donner un grand nombre d’information sur la distribution des niveaux de gris (ou couleur) et de voir entre quelles bornes est repartie la majorité des niveaux de gris (ou couleur) dans les cas d’une image trop claire ou d’une image trop foncée.
Il peut être utilisé pour améliorer la qualité d’une image (Rehaussement d’image) en introduisant quelques modifications, pour pouvoir extraire les informations utiles de celle-ci.
Contours et textures
Les contours représentent la frontière entre les objets de l’image, ou la limite entre deux pixels dont les niveaux de gris représentent une différence significative. Les textures décrivent la structure de ceux-ci. L’extraction de contour consiste à identifier dans l’image les points qui séparent deux textures différentes.
Luminance
C’est le degré de luminosité des points de l’image. Le mot luminance est substitué au mot brillance, qui correspond à l’éclat d’un objet. Une bonne luminance se caractérise par :
● Des images lumineuses (brillantes) ;
● L’absence de parasites.
Contraste
C’est l’opposition marquée entre deux régions d’une image, plus précisément entre les régions sombres et les régions claires de cette image. Le contraste est défini en fonction des luminances de deux zones d’images.
|
Table des matières
INTRODUCTION GENERALE
CHAPITRE 1 GENERALITES SUR LE TRAITEMENT D’IMAGES NUMERIQUE
1.1 Introduction
1.2 Image numérique
1.2.1 Images binaires
1.2.2 Images en teintes de gris
1.2.3 Images couleurs
1.3 Caractéristiques d’une image numérique
1.3.1 Pixel
1.3.2 Dimension
1.3.3 Résolution
1.3.4 Bruit
1.3.5 Histogramme
1.3.6 Contours et textures
1.3.7 Luminance
1.3.8 Contraste
1.4 Le traitement d’images
1.4.1 Les méthodes basées sur le domaine spatial
1.4.2 Les méthodes basées sur le domaine fréquentiel
1.5 Détection des contours dans les images
1.5.1 Modèle continu de contour
1.5.2 Détecteurs du gradient par filtrage
1.5.3 Détecteur du gradient par masques
1.5.4 Détecteurs par masquage adapté
1.5.5 Les critères de Canny
1.6 Segmentation
1.6.1 Méthodes sur histogramme
1.6.2 Les méthodes par transformation de région
1.7 Description de contours et de formes
1.8 Conclusion
CHAPITRE 2 RESEAUX DE NEURONES
2.1 Introduction
2.2 Neurone biologique
2.3 Neurone artificiel
2.4 Modélisation d’un neurone formel
2.4.1 Entrées – Dendrites
2.4.2 Poids – Synapses
2.4.3 Fonction d’activation – Somma
2.4.4 Sortie – Axones
2.5 Classification topologique de réseaux de Neurones
2.5.1 Les réseaux feed-forward (Non bouclés)
2.5.2 Les réseaux feed-back (Récurrents)
2.6 Apprentissage supervisé & apprentissage non supervisé
2.6.1 Apprentissage supervisé
2.6.2 Apprentissage non supervisé
2.7 Quelques types usuels de réseaux de neurones
2.7.1 La loi de Hebb, un exemple d’apprentissage non supervisé
2.7.2 La règle d’apprentissage du Perceptron
2.7.3 Apprentissage par pénalité / récompense
2.7.4 Mémoires associatives linéaires
2.8 Conclusion
CHAPITRE 3 ETUDE POUR LA MODELISATION D’UN SYSTEME DE RECONNAISSANCE FACIALE
3.1 Introduction
3.2 Le réseau de neurones à impulsions couplées/PCNN
3.2.1 Modèle d’Eckhorn
3.2.2 Structure d’un réseau PCNN
3.2.3 Caractéristiques d’un PCNN
3.3 Extraction des contours d’un visage en vue de reconnaissance faciale
3.3.1 Paramètres du PCNN
3.3.2 Segmentation
3.3.3 Détection de contour
3.4 Eigenfaces
3.4.1 Décomposition en valeur singulière
3.4.2 Approche SVD sur la reconnaissance faciale
3.4.3 Calcul des Eigenfaces
3.4.4 Utilisation des eigenfaces pour classer une nouvelle image
3.5 Système combinant PCNN et Eigenfaces
3.6 Conclusion
CHAPITRE 4 REALISATION D’UN SYSTEME DE RECONNAISSANCE FACIALE COMBINANT PCNN ET EIGENFACES
4.1 Introduction
4.2 Généralités sur les systèmes biométriques
4.2.1 La reconnaissance biométrique
4.2.2 Les caractéristiques biométriques
4.2.3 Conception d’un système biométrique
4.2.4 Mesure de la performance d’un système biométrique
4.3 Présentation de la réalisation
4.3.1 Les différentes étapes pour la réalisation
4.3.2 Processus d’enrôlement
4.3.3 Processus d’identification
4.3.4 Evaluation du système
4.4 Conclusion
CONCLUSION GENERALE
ANNEXE