GENERALITE SUR LE TRAITEMENT D’IMAGES
Historique
Le traitement d’images a commencé à être étudié dans les années 1920 pour la transmission d’images par le câble sous-marin allant de New York à Londres. Harry G. Bartholomew et Maynard D. McFarlaneà effectuèrent la première numérisation d’image avec compression de données pour envoyer des fax de Londres à New York. Le temps de transfert passa ainsi plus d’une semaine à moins de trois heures. Il n’y a pas vraiment eu d’évolutions par la suite jusqu’à la période d’après-guerre.
Le traitement du signal prit une l’importance vers la fin de la Seconde Guerre mondiale avec l’arrivée du radar. La prospection pétrolière participa aussi beaucoup au développement des techniques de traitement du signal.
Le véritable essor du traitement d’image n’a eu lieu que dans les années 1960 quand les ordinateurs commencèrent à être suffisamment puissants pour travailler sur des images. Peu après, la redécouverte de la transformée de Fourier rapide révolutionne le domaine, en rendant possible les manipulations du contenu fréquentiel des signaux sur ordinateur. Cependant, l’essentiel des recherches porte encore, à cette époque, sur l’amélioration des images et leur compression.
En 1980, David Marrformalise le premier la détection de contour de manière précise (D. Marr et E. Hildreth : Theory of EdgeDetection, Proc. R. Soc. London, B 207, 187-217, 1980). Au cours des années 1980, un véritable engouement se fait jour pour le traitement de l’image et surtout pour la compréhension de l’image par des systèmes experts. Les ambitions étaient beaucoup trop grandes, l’échec fut d’autant plus cuisant.
Les années 1990 ont vu l’amélioration constante des opérateurs. La recherche médicale est devenue un très gros demandeur en traitement d’image pour améliorer les diagnostics faits à partir de nombreuses techniques d’imagerie médicale. Les publicitaires, puis le grand public se familiarisent avec la retouche d’image grâce au logiciel Photoshop, le traitement d’image dans un objectif esthétique se démocratise avec l’apparition d’autres logiciels dédiés (The Gimp, Paint, Shop Pro). Enfin, la décennie s’achève sur l’engouement pour les ondelettes et les images multimodales.
Définition
Le traitement d’images (souvent abrégé en TI par les spécialistes) désigne en informatique l’ensemble des traitements automatisés qui permettent, à partir d’images numérisées, de produire d’autres images numériques ou d’en extraire l’information. Il s’agit donc d’un sous-ensemble du traitement du signal dédié aux images et aux données dérivées comme la vidéo (par opposition aux parties du traitement du signal consacrées à d’autres types de données : son et autres signaux monodimensionnels notamment), tout en opérant dans le domaine numérique (par opposition aux techniques analogiques de traitement du signal, comme la photographie ou la télévision traditionnelle). Dans le contexte de la vision par ordinateur, le traitement d’image se place après les étapes d’acquisition et de numérisation, assurant les transformations d’images et la partie de calcul permettant d’aller vers une interprétation des images traitées. Cette phase d’interprétation est d’ailleurs de plus en plus intégrée dans le traitement d’image, en faisant appel notamment à l’intelligence artificielle pour manipuler des connaissances, principalement sur les informations dont on dispose à propos de ce que représentent les images traitées (connaissance du domaine).
Formation de l’image
L’image
D’après la définition de LAROUSSE, l’image est « la représentation d’une personne ou d’une chose par la peinture, la sculpture, le dessin, la photo, le film ». L’image associée à la vision donne une représentation du monde extérieur, elle n’est pas forcément un phénomène de vision précis (images mentales, rêves…), mais aussi une représentation d’objets immatériels ou concepts (signal électrique, oscillogramme).
Image = information issue d’un capteur de vision (œil, camera).
Energie lumineuse
En optique, une image est une quantité d’information véhiculée par des ondes électromagnétiques.
➤ Longueur d’onde et énergie :
Les ondes lumineuses sont des émissions d’énergie sous forme de photons due aux transitions atomiques de corps chauffés.
➤ Classification fréquentielle des ondes lumineuses :
– Lumière visible : détectée par l’œil
– Lumière chromatique : composée de plusieurs longueurs d’onde
– Lumière monochromatique : une seule longueur d’onde (LASER)
– Lumière achromatique : seule l’énergie est prise en compte.
Acquisition de l’image
L’étude de cette étape passe immanquablement par le système d’acquisition qui fait référence : l’œil. On utilise plus couramment des caméras vidéo, ou récemment pourquoi pas des appareils photos numériques. En médecine, on utilise des imageurs IRM(Imagerie par Résonance Magnétique), scanner X, échographie Doppler, échographie, scintigraphie… Tous ces systèmespeuvent être comparés à des capteurs. Il ne faut pas oublier qu’il y a une étape de conversion analogique/numérique. C’est souvent cette étape qui limite la résolution de l’image. L’une des caractéristiques intéressantes de ces capteurs est la taille du plus petit élément (pixel), mais aussi l’intercorrélation de deux éléments voisins : plus cette intercorrélation est faible, meilleure est l’image. L’information contenue dans une image est énorme et difficile àreprésenter, plus de 20 millions de points pour une diapositive couleur en 135 mm. Pour que cette masse de données soit interprétable en mode numérique, il faut qu’elle soit structurée de manière très précise, et qu’elle rende compte un modèle de description de l’image (modèle chromatique et format de fichier) .
Définition d’une image numérique
La numérisation est un procédé de codage de l’information qui se fait par des chiffres en mode binaire.Les ordinateurs utilisent des millions de commutateurs électroniques qui peuvent prendre alternativement deux états, sous tension ou hors tension, représentés respectivement par les valeurs 1 et 0. Ces deux valeurs sont celles du système de numérisation binaire. Un nombre binaire codé sur 2 bits (2 puissance 2) peut prendre quatre valeurs : 00, 01, 10, 11.La numérisation est basée sur l’analyse intégrale d’un support d’information, (image, dessin ou texte) qui est fictivement découpé en éléments de surface. Cette analyse que nous allons décrire précisément consiste à mesurer point par point la quantité de lumière transmise ou réfléchie du document.
Les capteurs
On peut distinguer les capteurs chimiques tels que les systèmes biologiques, les films photographiques ; les capteurs thermiques (thermopile) et les photoélectriques (photodiodes, CCD). Il existe bien d’autres capteurs, notamment dans le domaine de l’imagerie médicale (IRM, Tomographie,….) ou de l’imagerie sismique. Le signal obtenu est caractérisé par sa dimension et sa nature. Un signal de dimension 1 correspond à une image linéique. C’est le type de signal que l’on a l’habitude de voir sur un oscilloscope par exemple. C’est aussi le type d’image à une seule ligne (ou une seule colonne) que l’on peut obtenir à l’aide d’une barrette CCD. Un signal à 2 dimensions est une image plane. Une image à 3 dimensions est une image volumique. Une image de dimension 3 peut être une vidéo. Dans cecas, on parle d’image 2D+T. La nature du signal peut être analogique ou numérique. Comme nous nous intéressons au traitement vidéo, nous allons porter notre intérêt aux caméras. Deux types de caméras se distinguent sur le marché : les caméras à tubes et les caméras CCD .
Caméras à Tube
Nous ne ferons qu’une brève description de celles-ci. Elles sont composées d’une cible photoconductrice qu’explore un faisceau électronique. L’exploration se fait ligne par ligne. A chaque ligne correspond en sortie un signal analogique proportionnel à l’intensité lumineuse. L’un des standards les plus courants est le standard CCIR : le balayage s’effectue à une fréquence image 1/25 de seconde, chaque image étant constituée de 625 lignes .
Caméras CCD
Elles sont constituées d’un assemblage de photodiodes, chacune d’entre elles délivrant une intensité proportionnelle à l’intensité lumineuse d’un point de l’image. Contrairement aux caméras à tubes qui fournissent un signal continu qu’il échantillonner spatialement pour isoler chaque pixel, les caméras CCD fournissent directement l’intensité pour chaque point de l’image. On distingue deux familles de caméras CCD à savoir : les caméras matricielles et les caméras unilignes.
● Les caméras matricielles : les photodiodes sont assemblées en une matrice de n lignes et p colonnes. Cette matrice peut être carrée ou bien rectangulaire
● Les cameras unilignes : les photodiodes sont assemblées suivant une seule ligne. L’obtention d’une image bidimensionnelle nécessite le déplacement de la caméra afin d’acquérir plusieurs lignes .
|
Table des matières
INTRODUCTION GENERALE
CHAPITRE 1 GENERALITE SUR LE TRAITEMENT D’IMAGES
1.1 Historique
1.2 Définition
1.3 Formation de l’image
1.3.1 L’image
1.3.2 Energie lumineuse
1.4 Acquisition de l’image
1.4.1 Définition d’une image numérique
1.4.2 Les capteurs
1.4.2.1 Caméras à Tube
1.4.2.2 Caméras CCD
1.4.3 Représentation informatique d’une image
1.4.4 Echantillonnage du signal
1.5 Opérateurs de traitement d’image
1.5.1 Les opérateurs point à point
1.5.2 Les opérateurs locaux
1.5.3 Opérateurs morphologiques
1.6 Domaines d’applications
1.7 Conclusion
CHAPITRE 2 LA BIOMETRIE
2.1 Pourquoi la biométrie ?
2.1.1 Définition
2.1.2 Objectifs d’utilisation d’un système biométrique
2.2 Différents types de techniques
2.2.1 Morphologie ou physiologie
2.2.1.1 Visage
2.2.1.2 Examen de l’œil
a. La rétine
b. L’iris
2.2.1.3 La main
2.2.1.4 Reconnaissance vocale
a. Définitions
b. principe de fonctionnement
2.2.1.5 Empreintes digitales
a. Introduction
b. définition
c. principe de fonctionnement
d. la technique optique
e. la technique de silicium
f. la technique ultrason
2.2.2 Comportement
2.2.2.1 Signature dynamique
2.2.2.2 Dynamique de la frappe au clavier
2.3 Evaluation des performances des systèmes biométriques
2.4 Fiabilité des systèmes biométriques
2.4.1 Test de vérification
2.4.2 Test d’identification
2.5 Applications des systèmes biométriques
2.6 Pourquoi on a choisi la reconnaissance faciale ?
2.7 Conclusion
CHAPITRE 3 LA RECONNAISSANCE FACIALE
3.1 Historique
3.2 Technique de détection et de reconnaissance de visage
3.2.1 Détection de visage
3.2.1.1 Approches basées sur les connaissances acquises
3.2.1.2 Approches basées sur le « Template matching »
3.2.1.3 Approches basées sur l’apparence
3.2.1.4 Approches basées sur des caractéristiques invariantes
3.2.2 Technique de reconnaissance de visage
3.2.2.1 Méthode globale de reconnaissance de visage
a. Corrélation
b. Eigenface
c. DCT
3.2.2.2 Méthodes locales de reconnaissance de visage
a. Eigenobjects
b. HMM
3.3 Les algorithmes très utilisées
3.3.1 La méthode Eigenface
3.3.2 La méthode Eigenobjects
3.3.3 La méthode DCT
3.3.4 La méthode HMM
3.4 Principales difficultés de la reconnaissance faciale
3.4.1 Changement d’illumination
3.4.2 Variation de pose
3.4.3 Expression faciale
3.4.4 Présence ou absence de composantes structurelles
3.4.5 Occultations partielles
3.5 Système de transmission et stockage de données biométriques
3.5.1 Système de transmission
3.5.2 Système de stockage
CHAPITRE 4 LA METHODE PCA
CONCLUSION GENERALE