Traitement d’Images

Traitement d’Images

DÉFINITION DU MODÈLE DE COULEUR

Comme toutes les représentations mathématiques des phénomènes physiques, les couleurs peuvent être exprimées selon différentes manières, chacune ayant ses avantages et ses inconvénients. Un modèle de couleur (modèle chromatique) est un modèle mathématique abstrait décrivant la façon dont les couleurs peuvent être représentées en tant que tuples de nombres, généralement de trois ou quatre valeur ou composantes de couleur. Le but d’un modèle de couleur est de faciliter la spécification des couleurs d’une manière. [27] Les modèles sont des abstractions qui ne peuvent pas décrire une couleur spécifique sans que la référence ne soit définie au préalable. La première distinction majeure entre les modèles de couleur est la dépendance du diapositif utilisé. Les coordonnées d’une couleur dans un modèle indépendant sont toujours les mêmes sur tous les dispositifs d’affichage. Un exemple de cette catégorie est le modèle XYZ de la CIE (Commission Internationale de l’Eclairage). D’un autre coté, un modèle qui dépend du dispositif de sortie aura différents coordonnées pour la même couleur pour des dispositifs différents. RVB (Rouge, Vert, Bleu) et CMJ (Cyan, Magenta, Jaune) sont des exemples de cette catégorie. La deuxième distinction est l’uniformité perceptuelle des couleurs. Ceci veut dire qu’une même variation de la valeur des composantes est toujours perçue comme la même variation de couleur. En d’autres termes, la mesure de la variation perçue par un humain est égale à la mesure de la distance mathématique. Dans ce qui suit nous allons présenter quelques modèles de couleur.

Systèmes de recherche d’image par contenu (CBIR)

L’expression « recherche d’images par le contenu » (« Content-Based Image Retrieval, CBIR, en Anglais) remonte aux travaux de Kato en 1992. Son système, ART MUSEUM, permet de retrouver des images d’art par couleurs et contours. Le terme s’est étendu par la suite à tout procédé permettant de rechercher des images selon des descripteurs, pouvant être de type « signal », comme la couleur et la forme, mais également symboliques. Comme le remarquent les auteurs d’un rapport important sur les systèmes de recherche par le contenu [44] , retrouver des images indexées manuellement par des mots clefs n’est pas de la recherche par le contenu au sens où le terme est généralement compris, même si ces mots clefs décrivent le contenu effectif de l’image. Les applications des systèmes de recherche d’images existants (et donc les collections d’images) sont variées. Elles incluent des applications judiciaires : les services de police possèdent de grandes collections d’indices visuels (visages, empreintes) exploitables par des systèmes de recherche d’images. Les applications militaires, bien que peu connues du grand public, sont sans doute les plus développées [44] : reconnaissance d’engins ennemis via images radars, systèmes de guidage, identification de cibles via images satellites en sont des exemples connus. Le journalisme et la publicité sont également d’excellentes applications. Les agences de journalisme ou de publicité maintiennent en effet de grosses bases d’images afin d’illustrer leurs articles ou supports publicitaires. Cette communauté rassemble le plus grand nombre d’utilisateurs de recherche par le contenu (davantage pour les vidéos) mais l’aide apportée par ces systèmes n’est absolument pas à la hauteur des espoirs initiaux ([44]).D’autres applications incluent: le diagnostic médical, les systèmes d’information géographique, la gestion d’oeuvres d’art, les moteurs de recherche d’images sur Internet et la gestion de photos personnelles. Concevoir un système permettant d’assister des utilisateurs dans leurs tâches de recherche d’images pose des problèmes variés. Dans [44] les difficultés suivantes sont identifiées :

L’indexation

L’indexation est l’ensemble des processus aboutissant à la construction d’un index de l’image. Contrairement à d’autres types de données, comme le texte, il n’est pas utile d’utiliser les images directement dans un CBIR vue la taille des images actuelles. Il faut caractériser les images par des informations à la fois discriminantes et invariables à certains paramètres (comme la taille de l’image, l’angle de la prise de vue, etc.). L’indexation peut être fixe: les descripteurs calculés sont toujours les mêmes. L’indexation peut aussi être évolutive [33] : les descripteurs s’adaptent à l’utilisateur ou au contexte dans le temps, ce qui permet de renforcer l’adéquation système/utilisateur. L’indexation peut être générique (indexation de photographies diverses dans [11]), pouvant caractériser des collections hétérogènes, ou spécifique (indexation de peintures chinoises dans [29]), adaptée à un type d’image particulier. Une collection hétérogène est par exemple constituée de photographies personnelles, mettant en scène diverses entités physiques dans des conditions de prise de vue variables. Indexer une telle collection impose l’usage de descripteurs suffisamment génériques (la couleur par exemple), c’est-à-dire qui caractérisent une propriété discriminante applicable à la plupart des entités physiques.

A l’inverse, indexer une collection d’images très spécifiques (des empreintes digitales par exemple) requiert l’utilisation de descripteurs également très spécifiques qui, par ailleurs, ne conviendraient probablement pas à une collection hétérogène. La phase d’indexation peut inclure une étape de segmentation, afin de caractériser des régions homogènes de l’image [40] ou bien indexer l’image dans sa globalité [42]. La segmentation de l’image précède généralement l’indexation individuelle des régions de l’image et cela permet, outre le fait d’accéder à des parties de l’image, de calculer des descripteurs de « forme ». Enfin, l’indexation varie d’un système à l’autre par son niveau d’abstraction : extraire des histogrammes de couleurs est une opération directe, alors que reconnaître des personnes ou des objets est beaucoup plus complexe et requiert un apprentissage préalable.

Descripteurs d’Images & Mesures de Similarité

Aujourd’hui avec le développement des systèmes multimédias et le recul de l’écrit, nous utilisons de plus en plus le contenu visuel comme support de communication dans différents domaines. En effet l’image et la vidéo numérique sont partie intégrante de tels systèmes par la densité et la richesse de leur contenu. La même image peut présenter plusieurs significations à différents niveaux : analyse, description, reconnaissance et interprétation. La recherche d’information couvre le traitement de documents numériques impliquant la structure, l’analyse, le stockage et l’organisation des données. Dans le passé, le terme recherche d’information était lié au concept de l’information textuelle. Actuellement « RI »est associé à tout type d’information, textuelle, visuelle ou autre. Cependant dû aux limitations des méthodes textuelles, le développement des méthodes basées sur le contenu visuel est devenu primordial.

Ceci explique l’activité de recherche intense consacrée au système CBIR ces dernières années. Le « RIC » est souvent confronté au problème de pertinence de la recherche, et au temps de recherche. L’objectif de n’importe quel système CBIR est de satisfaire la requête d’un utilisateur par la pertinence des résultats. Comme l’accès à un document via sa pure sémantique est impossible, les systèmes CBIR traditionnels s’appuient sur un paradigme de représentation de bas niveau du contenu de l’image, par la couleur, la texture, la forme, etc.…, et d’autres par une combinaison de celles-ci. La recherche d’images se fait ainsi par comparaison des descripteurs. L’analyse et la représentation du contenu des données sources mises sous forme de vecteur caractéristique. L’information obtenue dans cette étape est une sorte de résumé des images de la base (segmentation en régions, couleur, texture, relations spatiales,…). La transformation est généralement gourmande en temps de calcul. Dans la suite de ce chapitre, nous présentons les différents attributs utilisés dans les systèmes de recherche d’image par contenu et ensuite les mesures de similarité entre les images après la définition de leurs descripteurs.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport gratuit propose le téléchargement des modèles gratuits de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction générale
Contexte générale
1.1. Première génération
1.2. Deuxième génération
1.3. Troisième génération
Objectifs de l’étude
Organisation du mémoire
CHAPITRE 1 : Généralités sur le Traitement d’Images
1.Introduction
2.Définition d’image
2.1. Types d’images
2.2. Formats d’image
3.Caractéristiques d’images
3.1. Pixel
3.2. La texture
3.3. Dimension
3.4. Résolution
3.5. Bruit
3.6. Histogramme
3.7. Contours et textures
3.8. Luminance
3.9. Contraste
4.Système de traitement d’image
5.Filtrage
5.1. Filtres linéaires
5.2. Filtres non linéaires
Segmentation
Quelques applications concrètes de traitement d’images
Conclusion
CHAPITRE 2 : Systèmes de recherche d’image par contenu (CBIR)
1.Introduction
2.Composants d’un CBIR.
2.1 La base d’image.
Recherche d’Image par le Contenue
2.2 L’indexation
2.3 La gestion des index.
2.4 Les requêtes.
2.5 Analyse de la requête.
2.6 Mise en correspondance requête / base.
2.7 La présentation des résultats.
3.Représentation des images dans un CBIR.
4.Mesures pour évaluer un système
4.1. Rappel et précision (en anglais : Recall and Precision)
4.2. La courbe de rappel et précision
Conclusion
CHAPITRE 3 : Descripteurs d’Images &Mesures de Similarité
1.Introduction
2.Descripteurs d’image
2.1. Descripteurs de couleur
2.2. Descripteurs des textures
2.3. Descripteurs de Formes
Mesures de similarité
Images brutes (pixels
3.Attributs visuels
3.1. Les méthodes de calcule
Conclusion
CHAPITRE 4 : Le travail effectué
1.Introduction
2.Les caractéristiques visuelles choisies
2.1. Les modèles de couleur utilisés
2.2. Préparation des indexes
2.2.1 Les histogrammes de couleur
2.2.2 Le nombre d’objets d’image
2.2.3 Les moments statistiques
2.3. Mesures de distance utilisées
2.4. Les mesures de performance étudiées
3.Architecture de l’application
3.1L’interface utilisateur
3.2Le moteur de recherche
Recherche d’Image par le Contenue
3.3La base d’attributs
4.Evaluation de l’application
4.1La base d’mage utilisée
4.2Processus suivi
Problèmes rencontré
perspective
conclusion
Conclusion générale
bibliographie
sitopgraphie
résumé

Rapport PFE, mémoire et thèse PDFTélécharger le rapport

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *