Contribution a l’amelioration de la segmentation d’images par croissance regions

Le traitement d’images est né dans les années 1920 pour la transmission d’images par le câble sous-marin de New York à Londres. Harry G. Bartholomew et Maynard D. McFarlane ont effectué la première numérisation d’image avec compression de données pour envoyer des fax de Londres à New York. Le temps de transfert passait ainsi de plus d’une semaine à moins de trois heures. Il n’y avait pas vraiment d’évolution par la suite jusqu’à la période d’après-guerre. Le véritable essor du traitement d’images n’a eu lieu que dans les années 1960 quand les ordinateurs commençaient à être suffisamment puissants pour travailler sur des images. L’enseignant, Marvin Minsky avait donné à son élève Gerald Sussman, un travail d’été qui consistait à faire « voir » un ordinateur. Sussman fut écœuré et Minsky qui a reçu le plus gros budget de l’époque n’a pas réussi à synthétiser son observateur descripteur. A partir de cette époque là, les scientifiques commencent à apprécier leur ordinateur, à tel point qu’ils y voyaient en toute confiance la possibilité de simuler l’intelligence. La vision par ordinateur est depuis devenue un domaine de recherche indépendant, et des plus prolifiques. David Maar a distingué trois niveaux de traitement de l’information visuelle: le premier traitement étant l’extraction de caractéristiques; le deuxième c’est la mise en relation de ces caractéristiques entre elles en incluant le point de vue de l’observateur; et enfin la description de la scène en terme d’objets et de relations entre objets, indépendamment du point de vue. La segmentation représente l’ambition de la première étape qui n’est autre que détecter les objets présents dans une image. La diversité des images et la difficulté du problème ont conduit à l’introduction d’une multitude d’algorithmes que nous n’aurons pas ici l’ambition de résumer. Les résultats obtenus, évalués souvent de façon très empirique, ainsi que l’évolution des capacités de traitement des ordinateurs, ont souvent amené des scientifiques de profils variés à traiter le problème de manières très différentes.

NOTIONS FONDAMENTALES SUR LE TRAITEMENT D’IMAGES 

L’être humain, de par sa nature, éprouvait le besoin d’échanger de l’information depuis la nuit des temps. Il inventa des méthodes aussi diverses les unes des autres pour pouvoir communiquer. La perception visuelle était son outil le plus exploité, et le moyen de communication le plus utilisé était le dessin [15]. Donc, l’image était, depuis l’aube de l’humanité, un élément des plus significatifs dans le domaine de l’échange de l’information, et elle l’est toujours d’ailleurs. Sa puissance réside dans le fait qu’une image, à elle seule, puisse remplacer des quantités considérables de mots, et ce, en allant des images monochromes (noir et blanc) qui sont les plus simples mais aussi les moins porteuses d’informations, aux images en couleurs vraies, exploitées actuellement par de puissants calculateurs et servant dans des domaines de pointe ; à savoir : la sécurité, la médecine, l’astronomie, le multimédia et bien d’autres. Ainsi, depuis les débuts du traitement d’images jusqu’à nos jours, de nombreux chercheurs se sont penchés sur la question de l’imagerie, afin de permettre une meilleure exploitation de cette forme de message, sans pour autant subir les contraintes liées à l’énormité de l’espace de stockage requis.

Définition de l’image 

L’image est une représentation d’une personne ou d’un objet par la peinture, la sculpture, le dessin, la photographie, etc. [07] C’est aussi un ensemble structuré d’informations qui, après affichage sur l’écran, ont une signification pour l’œil humain. Elle peut être décrite sous la forme d’une fonction I(x,y) de brillance analogique continue, définie dans un domaine borné, tel que x et y sont les coordonnées spatiales d’un point de l’image et I est une fonction d’intensité lumineuse et de couleur. Sous cet aspect, l’image est inexploitable par la machine, ce qui nécessite sa numérisation [02].

Image numérique 

Contrairement aux images obtenues à l’aide d’un appareil photo analogique, ou dessinées sur du papier, les images manipulées par un ordinateur sont numériques (représentées par une série de bits). L’image numérique est l’image dont la surface est divisée en éléments de tailles fixes appelés cellules ou pixels, ayant chacun comme caractéristique un niveau de gris ou de couleurs prélevé à l’emplacement correspondant dans l’image réelle. La numérisation d’une image est la conversion de celle-ci de son état analogique (distribution continue d’intensités lumineuses) en une image numérique représentée par une matrice bidimensionnelle de valeurs numériques I(x,y) où x, y : coordonnées cartésiennes d’un point de l’image et I(x, y) : niveau de gris en ce point. Pour des raisons de commodité de représentation pour l’affichage et l’adressage, les données images sont généralement rangées sous formes de tableau I de n lignes et p colonnes. Chaque élément I(x ,y) représente un pixel de l’image et à sa valeur est associé un niveau de gris codé sur m bits (2m niveaux de gris ; 0 = noir ; 2m -1 = blanc). La valeur en chaque point exprime la mesure d’intensité lumineuse perçue par le capteur [02].

Caractéristique d’une image

L’image est un ensemble structuré d’informations caractérisé par les paramètres suivants:

Pixel
Une image est constituée d’un ensemble de points appelés pixels. Le mot pixel provient d’une contraction et de la juxtaposition de l’expression britannique « PICture ELement ». Le pixel représente ainsi le plus petit élément constitutif d’une image numérique auquel on peut associer individuellement une couleur (ou un niveau de gris) et une intensité [02]. L’ensemble de ces pixels est contenu dans un tableau à deux dimensions constituant l’image finalement obtenue. Chaque pixel est défini dans une image par des coordonnées et étant donné que l’écran effectue un balayage de gauche à droite et de haut en bas, on désigne généralement par les coordonnées (0,0) le pixel situé en haut à gauche de l’image.

Définition et résolution
On appelle définition le nombre de points (pixel) constituant l’image, c’est-à-dire sa «dimension informatique» (le nombre de colonnes de l’image que multiplie son nombre de lignes). Une image possédant 640 pixels en largeur et 480 en hauteur aura une définition de 640 pixels par 480, notée 640×480. La résolution, détermine par contre le nombre de points par unité de surface, exprimé en points par pouce (PPP, en anglais DPI pour Dots Per Inch); un pouce représentant 2,54 cm. La résolution permet ainsi d’établir le rapport entre le nombre de pixels d’une image et la taille réelle de sa représentation sur un support physique. Une résolution de 300 dpi signifie donc 300 colonnes et 300 rangées de pixels sur un pouce carré ce qui donne donc 90000 pixels sur un pouce carré.

Bruit
Le bruit est tout phénomène imprévisible qui vient perturber le signal. Dans une image c’est un phénomène de brusques variations d’intensité d’un pixel par rapport à ses voisins.

Le bruit peut être causé par :
• Les événements inattendus lors de l’acquisition comme le bougé ou une modification ponctuelle des conditions d’éclairage;
• La mauvaise qualité des capteurs ou une mauvaise utilisation de ces derniers ;
• Lors de l’échantillonnage. Le passage de la forme analogique à la forme numérique de l’image ;
• Ou bien la nature de la scène elle même (poussières, rayures, perturbation atmosphérique,…).

Niveau de gris
Le niveau de gris est la valeur de l’intensité lumineuse en un point. La couleur du pixel peut prendre des valeurs allant du noir au blanc en passant par un nombre fini de niveaux intermédiaires. Donc pour représenter les images à niveaux de gris, on peut attribuer à chaque pixel de l’image une valeur correspondant à la quantité de lumière renvoyée. Cette valeur peut être comprise par exemple entre 0 et 255. Chaque pixel n’est donc plus représenté par un bit, mais par un octet. Pour cela, il faut que le matériel utilisé pour afficher l’image soit capable de produire les différents niveaux de gris correspondant. Le nombre de niveaux de gris dépend du nombre de bits utilisés pour décrire la  » couleur  » de chaque pixel de l’image. Plus ce nombre est important, plus les niveaux possibles sont nombreux.

Couleur
Même s’il est parfois utile de pouvoir représenter des images en noir et blanc, les applications multimédias utilisent le plus souvent des images en couleurs. La représentation des couleurs s’effectue de la même manière que les images monochromes avec cependant quelques particularités. En effet, il faut tout d’abord choisir un modèle de représentation. On peut représenter les couleurs à l’aide de leurs composantes primaires. Les systèmes émettant de la lumière (écrans d’ordinateurs,…) sont basés sur le principe de la synthèse additive : les couleurs sont composées d’un mélange de rouge, vert et bleu (modèle R.V.B.).

Représentation en couleurs réelle
Elle consiste à utiliser 24 bits pour chaque point de l’image. 8 bits sont employés pour décrire la composante rouge (R), 8 pour le vert (V) et 8 pour le bleu (B). Il est ainsi possible de représenter environ 256³ =16,7 millions de couleurs différentes simultanément. Cela est cependant théorique, car aucun écran n’est capable d’afficher 16 millions de points. Dans la plus haute résolution actuelle (1600 x 1200), l’écran n’affiche que 1 920 000 points. Par ailleurs, l’œil humain n’est pas capable de distinguer autant de couleurs.

Représentation en couleur indexée
Afin de diminuer la charge de travail nécessaire pour manipuler des images en 24 bits, on peut utiliser le mode de représentation en couleurs indexée. Le principe consiste à déterminer le nombre de couleurs différentes utilisées dans l’image, puis à créer une table de ces couleurs en attribuant à chacune une valeur numérique correspondant à sa position dans la table. La table, appelée palette, comporte également la description de chacune des couleurs, sur 24 bits.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

INTRODUCTION GENERALE
CHAPITRE 1 : NOTIONS FONDAMENTALES SUR LE TRAITEMENT D’IMAGES
1.1. Introduction
1.2. Définition de l’image
1.3. Image numérique
1.4. Caractéristique d’une image
1.4.1. Pixel
1.4.2. Définition et résolution
1.4.3. Bruit
1.4.4. Niveau de gris
1.4.5. Couleur
1.4.5.1. Représentation en couleurs réelle
1.4.5.2. Représentation en couleur indexée
1.4.6. Histogramme
1.4.7. Contraste
1.4.8. Luminance
1.4.9. Région
1.4.10. Contour et texture
1.5. Système de traitement d’image
1.5.1. Acquisition des données images
1.5.2. Dispositifs de numérisation d’images
1.5.3. Pré-traitement et post-traitement
1.6. Domaine d’application
1.7. Numérisation des images
1.7.1. Balayage
1.7.2. Echantillonnage
1.7.3. Quantification et codage
1.8. Méthodes de traitement d’images
1.8.1. Opérateur statistique
1.8.1.1. Quelques transformations des niveaux de gris d’une image
1.8.1.2. Séparation des objets du fond
1.8.2. Filtrage d’image
1.8.2.1. Filtrage linéaire
1.8.2.2. Filtrage non linéaire
1.8.3. Analyse d’image
1.9. Conclusion
CHAPITRE 2 : ETAT DE L’ART DES TECHNIQUES DE SEGMENTATION D’IMAGES
2.1. Introduction
2.2. Segmentation par seuillage
2.2.1. Seuillage par approche globale
2.2.1.1. Principe
2.2.1.2. Choix du seuil
2.2.1.3. Avantage et inconvénient du seuillage par approche global
2.2.2. Seuillage par approche locale
2.2.3. Seuillage par approche adaptative
2.2.3.1. Algorithme de k-means
2.3. Segmentation par région
2.3.1. Segmentation par croissance de régions (region growing)
2.3.1.1. Algorithme de croissance par régions
2.3.1.2. Illustrations
2.3.2. Segmentation par division de régions (split)
2.3.2.1. Tetra-arbre (quadtree)
2.3.2.2. Inconvénients
2.3.3. Segmentation par fusion de régions (merge)
2.3.4. Segmentation par dual division – fusion (split & merge)
2.3.5. Inconvénients de la segmentation par région
2.4. Segmentation par contours
2.4.1. Les approches dérivatives
2.4.1.1. Le gradient d’une image
2.4.1.2. Laplacien d’une image
2.4.1.3. Les filtres sophistiqués
2.4.2. Modèles déformables (contour actif)
2.4.2.1. Energie interne
2.4.2.2. Energie externe
2.5. Evaluation de la segmentation
2.5.1. Calcul du pourcentage de pixels mal classés
2.5.2. Calcul du pourcentage de pixels bien classés
2.5.3. Le coefficient de Dice
2.6. Etude comparatif des techniques de segmentation
2.6.1. Tableau comparatif
2.6.2. Mesure de performance
2.7. Domaine d’application de segmentation d’image
2.7.1. Télécommunication
2.7.2. Astronomie
2.7.3. Recherche des images sur les moteurs de recherches
2.7.4. Application aux images radar
2.7.5. Imagerie médicale
2.8. Conclusion
CHAPITRE 3 : AMELIORATION DE SEGMENTATION PAR CROISSANCE REGION
3.1. Introduction
3.1.1. Description du problème actuel
3.1.2. Objectif de la méthode proposée
3.2. Principe de l’amélioration
3.2.1. Prétraitements
3.2.1.1. Illustrations
3.2.2. Segmentation proprement dit : croissance région (récapitulation approfondie)
3.2.2.1. Présentation de la croissance de régions
3.2.2.2. Algorithme de croissance de régions
3.2.2.3. Les paramètres de la croissance de régions
3.2.2.4. Propriétés de la croissance de régions
3.2.3. Algorithme d’amélioration de croissance régions
3.3. Tests et résultats de l’algorithme
3.4. Indicateur de performance
3.5. Conclusion
CONCLUSION GENERALE

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *