Aspect theorique de la formation d’image et son traitement

ASPECT THEORIQUE DE LA FORMATION D’IMAGE ET SON TRAITEMENT 

Généralités

Les images digitales forment une source de données importante pour un large éventail de domaines technologiques. Qu’il s’agisse d’imagerie médicale, de télésurveillance, d’observation par satellite, de radioastronomie, ou de divertissement multimédia, les images digitales occupent une position centrale au sein d’une foule d’applications de pointe, ce qui confère un intérêt particulier aux techniques d’amélioration de leur qualité et leur expressivité [1] [2]. Pour aborder la question de formation et de modélisation de l’image, nous distinguons les éléments suivants :
-la perception d’une image: elle s’articule autour des caractéristiques du système visuel humain. Ainsi, il apparaît que l’œil est sensible à certaines fréquences du spectre électromagnétique; ces fréquences représentent la lumière en général. Dans certains cas, le rayonnement électromagnétique à observer se situe en dehors de la plage des fréquences visibles.
-la représentation d’une image: il s’agit de représenter une entité physique sous une forme électrique ou une forme informatique. La représentation joue un rôle essentiel dans une chaîne de traitement car elle conditionne la capacité de stockage nécessaire ainsi que la mise en œuvre.

Définition

Le bit est l’unité de mesure en informatique qui désigne la quantité élémentaire d’information. Le mot « bit » est la contraction de l’anglais binary digit, qui signifie « chiffre binaire ».Un bit prend 2 valeurs : 0 correspond à l’état bas et 1 correspond à l’état haut.

Définition

L’image est une représentation d’une personne ou d’un objet par la peinture, la sculpture, le dessin, la photographie, le film, etc.… . C’est aussi la reproduction visuelle d’un objet réel sur une scène. Elle peut être décrite sous la forme d’une fonction ?(?, ?) de brillance analogique continue, définie dans un domaine borné, tel que x et y sont les coordonnées spatiales d’un point de l’image et I est une fonction d’intensité lumineuse et de couleur. Sous cet aspect, l’image est inexploitable par la machine, ce qui nécessite sa numérisation. Cette image numérique est constituée d’une matrice M*N de pixels contenant chacun différentes informations (intensité lumineuse, couleur…).

Définition

Le pixel est l’élément élémentaire qui constitue une image. Une image est digitalisée lorsqu’elle est échantillonnée et quantifiée selon une forme qui peut être lue par un ordinateur. Elle est simplement transformée en une longue suite de signaux «on/off ». Le plus petit élément d’une photo conventionnelle est un grain. L’élément digital équivalent est le pixel («pix » vient de Picture et « el » d’élément). [3] Le pixel est l’unité de base de l’image, c’est le pas de discrétisation. La valeur de chaque pixel est le rayonnement quantifié sur cette surface élémentaire par un capteur.

Définition

Le niveau de gris est la valeur de l’intensité lumineuse en un point. La couleur du pixel peut prendre des valeurs allant du noir au blanc en passant par un nombre fini de niveaux intermédiaires. Donc pour représenter les images à niveaux de gris, on peut attribuer à chaque pixel de l’image une valeur correspondant à la quantité de lumière renvoyée. Cette valeur peut être comprise par exemple entre 0 et 255. Chaque pixel n’est donc plus représenté par un bit, mais par un octet. Pour cela, il faut que le matériel utilisé pour afficher l’image soit capable de produire les différents niveaux de gris correspondant.

Domaines d’application du traitement d’image

Le traitement d’images possède l’aspect multidisciplinaire. On trouve ses applications dans des domaines très variés tels que :
➤ les télécommunications (T.V., vidéo, publicité,…),
➤ la médecine (radiographie, ultrasons,…), biologie,
➤ astronomie, géologie, l’industrie (robotique, sécurité),
➤ la météorologie, l’architecture, l’imprimerie,
➤ l’armement (application militaire).
➤ Les images satellitaires du globe terrestre : concernant l’étude de la répartition de la végétation sur une photo aérienne
➤ Conduite automatique : évitement d’obstacle, reconstruction 3D
➤ Contrôle industriel : environnement maîtrisé, détection de défaut
➤ Multimédia : codage et compression, restauration d’images, indexation .

Notions de perception visuelle

La vision est un système extrêmement complexe et performant. L’étude de la perception visuelle est intéressante pour le traitement d’images pour deux principales raisons. La première est qu’elle peut nous mettre sur la voie de nouveaux algorithmes reflétant les mécanismes naturels. La seconde est qu’elle nous permet de connaitre les limites de notre perception. Ainsi, il est inutile de représenter plus de couleurs que nous savons en percevoir lors d’une application de visualisation.

Le système visuel humain (SVH)

Pour l’être humain, l’œil est le récepteur de la vision. Il reçoit les rayons lumineux, en forme une image et transmet celle-ci au cerveau par le nerf optique. L’image est formée sur la rétine à partir du cristallin qui joue le rôle d’une lentille focale variable et elle est sensible aux rayonnements électromagnétiques de longueur d’onde comprise entre 380 et 700 nm. L’iris contrôle l’énergie qui arrive sur la rétine. Celle-ci est constituée de nombreux types de cellules nerveuses : les cellules photo-réceptrices (cônes et bâtonnets), les cellules bipolaires, ganglionnaires…

Perception des couleurs

La couleur est à la fois un phénomène psychophysique faisant intervenir la physique de la matière, notamment les interactions des ondes électromagnétiques avec les matériaux physiques. C’est également un phénomène psychophysiologique par l’interprétation des phénomènes psychophysiques par le système visuel constitué de l’œil et du cerveau.

On connait le spectre de la lumière blanche mis en évidence par Isaac Newton en 1666 lors de la diffraction de celle-ci par un prisme. Ce sont également les couleurs présentes dans l’arc en ciel, phénomène résultant de la diffraction de la lumière du soleil dans les gouttelettes d’eau.

Lumière

Une lumière contient une part de lumière achromatique et une part de lumière chromatique. Une lumière est dite achromatique lorsqu’elle contient toutes les longueurs d’onde de façon approximativement égales. La teinte est le nom de la couleur, c’est-à-dire de la longueur d’onde dominante. C’est une grandeur qui est repérable : on peut déterminer aisément la longueur d’onde dominante et donner un nom en fonction du spectre vu. La saturation représente le degré de dilution de la couleur dans la lumière blanche.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

INTRODUCTION
CHAPITRE 1 ASPECT THEORIQUE DE LA FORMATION D’IMAGE ET SON TRAITEMENT
1.1 Généralités
1.1.1 Introduction
1.1.2 Domaines d’application du traitement d’image
1.2 Notions de perception visuelle
1.2.1 Le système visuel humain (SVH)
1.2.2 Perception des couleurs
1.2.2.2 Lumière
1.2.2.3 Notion de couleurs
1.2.2.4 Représentation de la couleur
Les atlas
Représentation sur 3 composantes de couleurs
1.3 Acquisition et numérisation de l’image
1.3.1 Définition d’une image numérique
1.3.2 Système de traitement d’image
1.3.2.1 Acquisition des données images
1.3.2.2 Numérisation de l’image
1.3.2.3 Traitements
1.3.2.4 Visualisation
Caractéristique des images numériques
Qualité d’une image numérique
1.4 Représentation mathématique
1.4.1 Représentation par la transformée de Fourier
1.4.2 Représentation par la transformée en cosinus
1.4.3 Représentation de Hadamard
1.5 Exemples de formats d’images
1.6 Conclusion
CHAPITRE 2 TRAITEMENT D’IMAGE NUMERIQUE
2.1 Principe de la restauration
2.2 Bruit
2.2.1 Causes du bruit
2.2.2 Distorsions géométriques
2.3 Suppression de la dégradation
2.3.1 Amélioration d’image
2.3.2 Suppression du bruit
2.3.2.1 Principe du filtrage
2.3.2.2 Notion du filtre idéal
2.3.2.3 Filtre linéaire
Filtrage par produit de convolution
Filtrage par transformée de Fourier
Exemple de filtres linéaire
2.3.2.4 Filtrage non linéaire
Principe
Propriétés
2.4 Conclusion
CHAPITRE 3 ETUDE THEORIQUE DE TROIS METHODES DE RESTAURATION D’IMAGE
3.1 Les différentes méthodes de restauration d’images
3.1.1 Modèles linéaires de dégradation
3.1.2 Déconvolution directe ou filtrage inverse
3.1.3 Restauration par filtre de Wiener
3.1.4 Restauration par l’algorithme de Richardson-Lucy
3.2 Critère d’évaluation de la qualité de la restauration
3.3 Conclusion
CHAPITRE 4 SIMULATION DE LA RESTAURATION D’IMAGES SOUS MATLAB 7.9
4.1 Présentation de Matlab
4.2 Fonctions de Matlab 7.9 pour le traitement d’image
4.2.1 Fonctions pour l’affichage d’image
4.2.2 Fonctions pour les fichiers d’image d’entrée/sortie
4.2.3 Fonctions déclarant les valeurs et statistiques du pixel
4.2.4 Fonctions pour le filtrage linéaire
4.2.5 Fonctions sur les types et conversions d’image
4.2.6 Fonctions sur les préférences de la boîte à outils
4.3 Simulation
4.3.1 Présentation du logiciel
4.3.1.1 Lancement du logiciel
Dégradation
Restauration
4.3.2 Conclusion et comparaison
CONCLUSION
ANNEXE

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *