Formation, acquisition et modelisation de l’image

Selon un adage populaire : « une image vaut mille mots ». Cela souligne l’importance des images dès lors qu’il s’agit de faire passer un message ou autre information. Dès les années 1920, le traitement d’image a commencé à être étudié pour la transmission d’image par le câble sous-marin allant de New York à Londres. Harry G. Bartholomew et Maynard D. McFarland effectuèrent la première digitalisation d’image avec compression pour envoyer des fax de Londres à New York. Le temps de transfert passa ainsi de plus d’une semaine à moins trois heures. Par la suite, il n’y a pas vraiment eu d’évolution pour l’image jusqu’à la période d’après-guerre. A la fin de la guerre, le traitement du signal prit son essor avec l’arrivé du radar. La prospection pétrolière participa également pour beaucoup au développement des techniques de traitement de signal.

L’essor du traitement d’image en particulier n’a lieu que dans les années 1960 quand les ordinateurs commencèrent à pouvoir travailler sur des images. Le monde du traitement du signal en général a connu une révolution le jour où la transformation de Fourier rapide a été redécouverte. L’ensemble des manipulations fréquentielles devenait envisageable sur ordinateur. L’essentiel des recherches portent sur l’amélioration des images et leurs compressions. Au cours des années 1980, il y a eu un véritable engouement pour le traitement de l’image et surtout pour la compréhension de l’image par des systèmes experts. Les ambitions étaient beaucoup trop grandes. L’échec fut à hauteur. Les années 1990 ont vu l’amélioration constante des opérateurs. La recherche médicale est devenue un très gros demandeur en traitement d’images pour améliorer les diagnostics faits à partir des nombreuses techniques d’imageries médicales. En même temps, le grand public se familiarise avec le traitement d’image grâce aux logiciels comme Photoshop.

FORMATION, ACQUISITION ET MODELISATION DE L’IMAGE NUMERIQUE 

Généralités

La description d’une image est une démarche faussement facile. S’il est vrai qu’une image consiste en un jeu de valeurs représentables, sur un écran par exemple, comprendre la nature d’une image s’avère délicat, d’autant que l’on confond souvent l’image, la visualisation et les traitements effectués sur l’image. Pour aborder la question de formation et de modélisation de l’image, nous distinguons les éléments suivants :
– la perception d’une image: elle s’articule autour des caractéristiques du système visuel humain. Ainsi, il apparaît que l’œil est sensible à certaines fréquences du spectre électromagnétique; ces fréquences représentent la lumière en général. Dans certains cas, le rayonnement électromagnétique à observer se situe en dehors de la plage des fréquences visibles.
– la représentation d’une image: il s’agit de représenter une entité physique sous une forme électrique ou une forme informatique. La représentation joue un rôle essentiel dans une chaîne de traitement car elle conditionne la capacité de stockage nécessaire ainsi que la mise en œuvre.

Définitions 

Voici quelques termes les plus fréquemment utilisés lorsque l’on parle des images numériques :
Définition I.1 :
Le bit est la plus petite unité d’information utilisée dans un ordinateur. Il peut prendre deux états, ce qui peut être présenté par les chiffres binaires 1/0 ou par arrêt/marche. Toutes les informations d’un ordinateur sont présentées au moyen de bits.
Définition I.2 :
L’image peut être définie comme étant la représentation d’un objet ou d’une scène, mais en parlant de numérisation, une image est définie comme étant une matrice M*N pixels.
Définition I.3 :
Le pixel (de l’Anglais :picture element) est un point élémentaire qui constitue une image. Le pixel n’est pas une unité de mesure arbitraire comme le centimètre, c’est le fondement même des images numériques dont c’est la plus petite unité logique. Chaque pixel peut revêtir un certain nombre de variétés de tons allant des différents niveaux de gris aux couleurs. Le nombre de bits nécessaire est plus ou moins important en fonction du nombre de couleurs ou de niveaux de gris que l’on veut représenter par pixel.
Définition I.4 :
Le niveau de gris est un nombre équivalent compris entre 0 et 255 donnant l’information sur la luminance d’un point élémentaire (pixel).
Définition I.5 :
L’intensité ou luminance est le caractère qui indique l’intensité de lumière perçue indépendamment de la couleur. Elle s’étend du noir au blanc avec toutes les nuances de gris .Elle indique l’expression qualitative de la brillance énergétique.

Domaines d’applications du traitement d’image

Il existe plusieurs grandes classes d’applications faisant appel au traitement d’images :
– L’imagerie concernant l’amélioration des images satellites, l’analyse des ressources terrestres, la cartographie automatique, les analyses météorologiques…
– Les technologies biomédicales concernant le scanner, l’échographie, la résonance magnétique nucléaire, la reconnaissance automatique des cellules et des chromosomes…
– La robotique concernant l’assemblage automatique des pièces et des composants, le contrôle de qualité,…
– Les applications multimédia comme la télévision ou l’Internet.

Perceptions visuelles 

Avant d’entrer plus en détail dans les études sur l’image, commençons par quelques notions sur le Système Visuel Humain. Assez paradoxalement, il s’agit d’une des tâches les plus complexes car le fonctionnement du système visuel humain fait intervenir la subjectivité de l’observateur et car, en pratique, il apparaît difficile d’inclure la plupart des résultats des études psychovisuelles dans un traitement d’image courant.

Le système visuel humain (SVH)

Grâce à la cornée (l’enveloppe translucide de l’œil) et l’iris (qui en se refermant permet de doser la quantité de la lumière), une image se forme sur la rétine. Celle-ci est sensible aux rayonnements électromagnétiques de longueur d’onde comprise entre 380 et 700 nm. Elle est composée de petits bâtonnets et de trois cônes : les bâtonnets permettent de percevoir la luminosité et le mouvement, tandis que les cônes permettent de différencier les couleurs.

Perception des couleurs

C’est par la lumière que la couleur existe. Elle ne réside pas dans l’objet mais dans la lumière qui les éclaire et dans leur propriété à absorber certaines radiations tout en réfléchissant d’autres. La couleur n’est donc qu’une impression, un effet physiologique produit par notre cerveau et dont les causes sont captées par nos sens.

La lumière
La lumière couvre une partie du spectre d’énergie électromagnétique. Un rayonnement électromagnétique est en général constitué d’un certain nombre de longueurs d’onde (ou fréquences) que les dispositifs dispersifs permettent de séparer en un spectre. La longueur d’onde du spectre visible s’étend approximativement de 380 à 720 nm. En un mot, la lumière est une distribution d’énergie émise à certaines fréquences ayant une certaine intensité.

Notion de couleurs
La couleur de la lumière est caractérisée par sa fréquence, elle-même conditionnée par la longueur d’onde et la célérité de l’onde. La longueur d’onde d’un phénomène oscillatoire est exprimée par la relation (1.1).
λ = CT (1.1)
– λ désigne la longueur d’onde
– C désigne la célérité de l’onde (pour la lumière 3×10⁸ m.s⁻¹)
– T désigne la période de l’onde .

Les études des trois espèces de cônes et les phénomènes complexes qui permettent de percevoir les sensations colorées aboutissent à dire que l’œil n’est sensible qu’à trois plages de radiation ayant pour maximum :
– 450 nm pour le bleu
– 525 nm pour le vert
– 625 nm pour le rouge .

La nature trichrome de l’image permet de recréer n’importe quelles couleurs avec le mélange du rouge, vert et bleu. Le système RGB (de l’Anglais Red, Green et Blue) ou RVB (Rouge, Vert et Bleu en Français) est alors le plus utilisé comme système de base sur l’écran informatique et dans le traitement d’image. Ces trois couleurs sont alors dénommées « couleurs primaires ».

Synthèse de couleurs
Dans la chaîne de création d’image, deux méthodes sont utilisés pour couvrir la quasi totalité du spectre visible : la synthèse additive et la synthèse soustractive.

Synthèse additive
La synthèse additive est le fruit de l’ajout de composantes de la lumière et prend le RGB comme système de référence. La combinaison des trois composantes Rouge, Vert, Bleu donne du blanc. L’absence de composante donne du noir. Les couleurs secondaires sont le cyan, le magenta et le jaune car :
– le vert combiné au bleu donne du cyan
– le bleu combiné au rouge donne du magenta
– le vert combiné au rouge donne du jaune.

Synthèse soustractive
La synthèse soustractive permet de restituer une couleur par soustraction, à partir d’une source de lumière blanche, avec des filtres correspondant aux couleurs complémentaires : jaune, magenta et cyan. L’ajout de ces trois couleurs donne du noir et leur absence produit du blanc. Les composantes de la lumière sont ajoutées après réflexion sur un objet, ou plus exactement sont absorbées par la matière. Bleu, Rouge, Vert sont devenus les couleurs secondaires car :
– le magenta combiné avec le cyan donne du bleu
– le magenta combiné avec le jaune du rouge
– le cyan combiné avec le jaune du vert.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

INTRODUCTION
CHAPITRE I: FORMATION, ACQUISITION ET MODELISATION DE L’IMAGE
I.1 Généralités
I.1.1 Introduction
I.1.2 Définitions
I.1.3 Domaines d’applications du traitement d’image
I.2 Perceptions visuelles
I.2.1 Le système visuel humain (SVH)
I.2.2 Perception des couleurs
I.2.2.1 La lumière
I.2.2.2 Notion de couleurs
I.2.2.3 Synthèse de couleurs
I.2.2.3.1 Synthèse additive
I.2.2.3.2 Synthèse soustractive
I.3 Acquisition et numérisation de l’image
I.3.1 Principe
I.3.2 Numérisation de l’image
I.3.2.1 Les étapes de numérisation de l’image
I.3.2.1.1 Echantillonnage
I.3.2.1.2 Quantification
I.3.2.1.3 Codage
I.3.2.2 Caractéristiques des images numériques
I.3.2.2.1 La résolution de l’image
I.3.2.2.2 La dynamique de l’image
I.4 Représentations mathématiques
I.4.1 Représentation par la transformée de Fourier
I.4.2 Représentation par transformée en cosinus
I.4.3 Représentation de Hadamard
I.5 Formats des images
CHAPITRE II: TRAITEMENT D’IMAGES NUMERIQUES
II.1 Nécessité de traiter les images numériques
II.2 Opérateurs d’images
II.2.1 Introduction
II.2.2 Opérateur morphologique : la morphologie mathématique
II.2.2.1 Généralités
II.2.2.2 Dilatation et Erosion
II.2.2.2.1. Dilatation
II.2.2.2.2. Erosion
II.2.2.3 Ouverture et fermeture
II.2.2.3.1. Ouverture
II.2.2.3.2. Fermeture
II.2.3. Opérateurs statiques
II.2.3.1. Histogramme de valeurs
II.2.3.2. Egalisation d’histogramme
II.3 Filtrage
II.3.1 Introduction
II.3.2 Notion de filtre idéal
II.3.3 Filtrage linéaire
II.3.3.1 Filtrage par produit de convolution
Si où est le signal appliqué à l’entrée de S. (2.3)
II.3.3.2 Utilisation de la transformée de Fourier
Remarques : Selon les fréquences de coupure, trois types de filtres peuvent être distingués
II.3.4 Exemple d’un filtre non linéaire : le filtre Médian
II.3.4.1 Principe
II.3.4.2 Propriétés
CHAPITRE III: LA DETECTION DE CONTOURS
III.1 Généralités
III.2 Les différentes méthodes de détection de contours
III.2.1 Analyse générale
III.2.1.1 Séparabilité des filtres
III.2.1.1.1 Définitions
III.2.1.1.2 Avantages
III.2.1.2 Les filtres de lissage
III.2.2 Méthodes basées sur le gradient
III.2.2.1 Schéma bloc de la méthode gradient
Remarque :Le choix de l’opérateur T (.) peut avoir une influence importante sur le résultat de la détection de contours : il peut correspondre à une opération simple de seuillages ou à des méthodes rigoureuses telles que extraction des extréma locaux ou seuillage par hystérésis
III.2.2.2 Définitions
III.2.2.3 Interprétation géométrique du gradient
III.2.2.4 Approximation du gradient
III.2.2.5 Méthode par différences finies
III.2.2.5.1 Opérateur de Roberts
III.2.2.5.2 Opérateur de Prewitt
III.2.2.5.3 Opérateur de Sobel
III.2.2.6 Méthode par optimisation : méthode de Canny-Derich
III.2.2.6.1 Modèle de Canny
III.2.2.6.2 Modèle de Deriche
III.2.2.7 Du gradient au contour (choix de l’opérateur T (.))
III.2.2.7.1 Détermination de seuils sur l’amplitude
III.2.2.7.2 Extraction des extréma locaux du gradient
III.2.2.7.3 Seuillage par hystérésis des extréma
III.2.3 Méthodes basées sur le laplacien
III.2.3.1 Schéma bloc
III.2.3.2 Définitions
III.2.3.3 Approximation du laplacien
III.2.3.4 Exemple d’opérateur utilisant le laplacien : l’opérateur optimal de Marr-Hildreth
III.2.3.4.1 Filtre gaussien
III.2.3.4.2 Implantation du filtre gaussien
III.2.3.5 Du laplacien au contour :recherche du zero crossing
CONCLUSION

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *