Télécharger le fichier pdf d’un mémoire de fin d’études
Traitement d’images
Techniques de seuillages
La technique d’imagerie par transmission permet de visualiser la projection 2D des objets. Pour étudier les différents objets présents sur une image, il convient de les séparer. Cette séparation est réalisée aux travers de méthodes de segmentation. Despotović et al. (2015) a récemment publié une revue d’articles listant les principales méthodes de segmentations utilisées pour analyser les images IRM du cerveau humain. Bien que le domaine d’application soit éloigné du sujet présenté ici, la classification des méthodes de segmentation qui y est faite n’en reste pas moins transposable à n’importe quel autre champ de recherche. Cette classification peut être résumée comme suit :
– Méthodes basées sur l’intensité des pixels.
– Méthodes basées sur la surface des objets.
– Méthodes de segmentations hybrides.
– Méthodes basées sur des atlas.
Les méthodes basées sur l’intensité des pixels cherchent à classifier chaque pixel en se basant sur son intensité lumineuse. La plupart de ces méthodes font appel à l’histogramme de niveau de gris de l’image pour la segmenter en différentes régions associées à des modes de l’histogramme, comme illustré en figure 29. D’autre basées sur la croissance de régions connexes ont pour principe de regrouper en 1 seule région tous les pixels adjacents d’intensité similaire (nécessitant un point de départ) ; ou encore celles basées sur des méthodes de classification qui identifient les différents objets d’une image en comparant l’image à segmenter à des images déjà segmentées issues d’une base de données. Ces méthodes identifient les zones de même intensité et/ou texture sur les images pour réaliser la segmentation.
Les méthodes basées sur la surface des objets comprennent toutes les méthodes utilisant les contours et surfaces actives (déformables) ainsi que les méthodes Level-Set (Chan et al. (2001), Yushkevisch et al. (2006), Kass et al. (1988), Li et al. (2010)). Dans ces méthodes, chaque objet se voit préalablement attribué une description qui lui est propre (intensité, texture, région de l’espace, géométrie, …). Ensuite, un ensemble de courbes est superposé à l’image pour la segmenter et toutes les zones identifiées sont comparées aux descriptions des objets. Pour les zones ne respectant pas les descriptions, leurs contours sont alors déformés itérativement pour chercher la surface qui correspondra le plus aux descriptions recherchées. Les contours utilisés sont des courbes (ou surfaces en 3 dimensions) paramétriques qui sont déformées sous l’action de forces internes et externes à la zone de l’image considérée pour respecter les descriptions des objets. Les objets de l’image et leurs contours sont considérés comme des fonctions que l’on cherche à minimiser, cette minimisation traduit la meilleure approximation réalisée sur l’image à partir des descriptions des objets données initialement. L’image est segmentée lorsqu’un critère de minimisation de ces fonctions est atteint.
Les méthodes basées sur des atlas consistent à comparer l’image étudiée à une banque de données similaires servant de référence afin de segmenter les différentes régions de l’image. Les méthodes de segmentations hybrides combinent plusieurs méthodes de segmentations. L’objectif est d’utiliser les complémentarités de ces méthodes pour contourner les désavantages de chacune et ainsi améliorer la qualité de la segmentation.
La phase de traitement d’images développée au CORIA par Blaisot et al. (1998), Yon (2003), Blaisot et al. (2005), Fdida et al. (2009) et Blaisot (2012) fait partie des méthodes de seuillage basées sur l’intensité des pixels. Elle consiste à extraire les objets liquides en adaptant localement le niveau du seuillage grâce à la prise en compte de la réponse impulsionnelle du système optique ainsi que du défaut de mise au point. Pour cela, un modèle d’imagerie est utilisé pour obtenir des informations de corrections de l’interface et de profondeur de champ à partir d’une configuration de caméra unique. Ce modèle est basé sur le formalisme de Fourier (Goodman (1968)) et utilise le concept de la fonction d’étalement du point (PSF). Il permet de mesurer la taille des gouttes indépendamment de leur position, c’est-à-dire pour les gouttes floues ou non floues, comme montré notamment dans Fdida et al. (2009). Cette phase de traitement d’images se découpe en plusieurs étapes :
– Normalisation des images.
– Localisation des objets liquides.
– Segmentation locale des objets de l’image.
La qualité de ce traitement joue un rôle essentiel sur la qualité des analyses. Ce traitement est facilité pour des images fortement contrastées et présentant une bonne mise au point du système liquide, comme détaillé dans Yon (2003) et Fdida et al. (2009).
Normalisation des images
Le fond lumineux d’une image est souvent inhomogène, présentant des variations d’intensité lumineuse d’une image à l’autre ou d’une partie à l’autre d’une même image. L’étape de normalisation des images consiste à supprimer ces inhomogénéités afin d’obtenir un fond lumineux uniforme. Cette étape nécessite l’utilisation d’une image de fond lumineux de référence (sans objets à analyser) et d’une image du bruit du capteur (image prise dans le noir complet) afin de calculer l’intensité lumineuse normalisée de chaque pixel ( , ) : Où , , , sont respectivement les intensités de l’image normalisée, de l’image expérimentale, de l’image de fond lumineux de référence et de l’image du bruit. La grandeur permet de fixer le niveau de l’intensité du fond lumineux lors de la reconversion de l’image normalisée en niveau de gris. Le paramètre corrige les éventuelles fluctuations d’intensité lumineuses d’une image à l’autre : sa valeur est obtenue en divisant le niveau de référence de l’image de fond lumineux par celui de l’image expérimentale, le niveau de référence pouvant être le niveau de gris maximum de l’image, le mode principal de l’histogramme de niveau de gris de l’image (niveau de gris le plus peuplé) ou encore le niveau de gris moyen d’une zone de l’image (jamais perturbée par la présence d’objets liquides).
Localisation des objets liquides
La localisation des objets liquides permet de différencier les pixels appartenant au fond lumineux de ceux appartenant aux objets liquides. La méthode de localisation utilisée combine deux techniques de seuillage afin de trouver un maximum d’objets sur l’image :
– Seuillage via la forme de l’histogramme.
– Seuillage par transformée en Ondelette.
Le seuillage d’une image consiste à transformer une image en niveau de gris en une image segmentée où chaque classe d’objets possède sa propre valeur de niveau de gris. Dans le cas où seules deux classes existent (fond d’un côté et objets de l’autre), on parle de « binarisation » d’image.
Seuillage via la forme de l’histogramme
C’est la méthode la plus simple de seuillage d’image. Elle est basée sur l’étude de l’histogramme de niveau de gris de l’image. Cette étude consiste à rechercher les valeurs de niveaux de gris, appelés seuils, qui séparent les classes d’objets désirées. Dans le cas d’un seuillage simple global (1 seul seuil pour toute l’image), la segmentation d’une image ( , ) est définie comme : 0, ( , ) < ′( , ) = {1, ( , ) ≥ (80) =( −)+ (81)
Où ′ est l’image segmentée avec deux niveaux (1 pour le fond lumineux et 0 pour les objets), le seuil normalisé (0 < < 1) déterminant le seuil de niveau de gris dépendant des niveaux de gris maximum et minimum de l’image à segmenter. L’utilisation d’une valeur de seuil plus élevée augmente le nombre d’objets détectés mais augmente également la sensibilité de la segmentation au bruit de fond l’image. Ceci peut se traduire par le regroupement de deux objets proches en 1 seul ou encore par l’apparition de taches dans le fond lumineux, comme l’illustre la figure 30.
Segmentation locale des objets de l’image
L’intérêt d’une image labélisée est qu’elle autorise l’analyse séparée de chacun des objets liquides identifiés : l’image labélisée va alors servir de masque pour isoler une portion de l’image contenant un objet liquide de l’image normalisée avec son environnement proche (Yon (2003)). A partir de cette portion d’image, on peut choisir de calculer le contour à un niveau pixel de cet objet ou le contour à un niveau sub-pixel. Le choix d’utiliser ou non l’information sub-pixel du contour des objets dépend de la résolution de ces objets ainsi que des analyses qui en seront faites par la suite.
La détermination du contour pixel peut être suffisante pour les images issues de caméra à haute résolution. La particularité de la méthode développée au CORIA est que le seuil de niveau de gris utilisé dans l’équation (81) sera ici déterminé localement pour chacun des objets labélisés étudiés. Ce seuil dépendra des niveaux et locaux à la portion d’image correspondant à cet objet et une correction est appliquée en fonction du défaut de mise au point de l’objet (Fdida et al. (2009)). Cette segmentation est calibrée pour placer le contour des objets au plus près de la position de l’interface.
Approches sub-pixel
L’intérêt des méthodes de segmentations sub-pixel est de permettre une description plus fine des interfaces par rapport aux segmentations classiques au niveau pixel. Le « gain » d’informations résulte de l’interpolation du contour à un niveau sub-pixel à partir des informations de l’image initiale. On peut distinguer deux grandes approches de ce problème :
– Segmentation directe de l’image au niveau sub-pixel.
– Reconstruction sur-résolue de l’image complète, puis segmentation classique.
La segmentation directe au niveau sub-pixel va chercher à interpoler un contour sub-pixel local et retourner une image segmentée sub-pixel. La plupart des méthodes sont basées sur les modèles itératifs à contours déformables, dit « snake ». Ils ont été introduit par Kass et al. (1988) pour le cas d’images 2D avant d’être rapidement généralisé en 3D (Li et al. (2010), Terzopoulos et al. (1988)). Ces méthodes sont basées sur la déformation d’une ligne spline (appelée level-set) qui respecte un critère de minimisation d’énergie (force interne au contour) et se déplace dans l’image jusqu’aux contours en fonctions des attributs (gradients de niveaux de gris, textures, …) de l’image (force externe au contour).
Initialement, ces méthodes level-set se sont avérées sensibles à la position initiale du contour et au bruit de l’image. Ensuite, elles ont été améliorées afin d’utiliser les informations venant des surfaces des objets à détecter dans l’image (Mumford et al. (1989), Chan et al. (2001)). Deux grandes familles de méthodes level-set découlent de ces évolutions :
– Modèles de contours : ils utilisent les gradients d’intensité des contours de l’image pour guider la déformation des contours (Caselles et al. (1997), Kimmel et al. (1995), Malladi et al. (1995)). Elles sont sensibles au bruit et nécessite de fort gradient de niveau de gris aux interfaces.
– Modèles de régions : ils cherchent des régions homogènes pour guider la déformation des contours (Ronfard (1994), Vese et al. (2002)). Elles sont sensibles aux inhomogénéités de l’image.
De manière générale, les méthodes de segmentation par level-set, itératives par natures, sont gourmandes en ressources de calcul.
La reconstruction sur-résolue d’une image à faible résolution consiste à créer une image à une résolution plus élevée à partir d’une ou plusieurs images à faible résolution (Ziwei et al. (2014)). En règle générale, l’image sur-résolue obtenue est directement utilisée à d’autres fins (imagerie satellite par exemple) qu’une simple segmentation comme nous allons le faire ici. Le développement de ces techniques a débuté avec Harris (1964) et Goodman (1968) avec l’utilisation d’une seule image. Elles ont été améliorées par Tsai et al. (1984) grâce à l’utilisation de séquences d’images d’une même scène décalées spatialement. Le début des années 2000 voit le développement de techniques de sur-résolution utilisant des méthodes d’apprentissages (Freeman (2000), Chang et al. (2004)) comme les chaines de Markov. Ces dernières sont utilisées dans des domaines plus spécifiques (reconnaissance faciale) où elles peuvent bénéficier d’une banque de données pour l’apprentissage.
A partir de cette brève littérature, les méthodes choisies pour la comparaison sub-pixel sont les suivantes :
– La méthode développée au CORIA (Blaisot et al. (2005), Blaisot (2012), Fdida et al. (2009)).
– Une méthode level-set de Li et al. (2010) qui est peu sensible au choix du contour initial et aux inhomogénéités de niveaux de gris présentes sur l’image. Cette méthode converge rapidement (pour une level-set) et est précise jusqu’au quart de pixel avec un bon jeu de paramètres.
– Une méthode de sur-résolution bi-cubique. Elle est utilisée comme référence (Timofte et al. (2014), Zhang et al. (2016)) pour les comparaisons des techniques de sur-résolution et présente les avantages d’être simple, très rapide et déjà implémentée dans la plupart des logiciels de traitement d’images (ImageJ, Gimp, Photoshop).
– Une méthode de sur-résolution de Timofte et al. (2014) utilisant une méthode d’apprentissage. C’est une méthode rapide (pour une méthode d’apprentissage) et présentant le plus fort PSNR (ratio signal maximal sur bruit) des méthodes de ce type.
Calcul du contour sub-pixel (CORIA)
La méthode de calcul du contour sub-pixel utilisée au CORIA a été développée par Blaisot et al. (2005) et Blaisot (2012) et utilise comme information de départ le contour pixel local défini pour chacun des objets labélisés. Pour chaque pixel du contour, les pixels adjacents (8-connexe) sont inspectés et ceux appartenant au fond de l’image sont identifiés. Pour chaque couple de pixels « contour – fond » est définie une interpolation linéaire entre les deux niveaux de gris de l’image normalisée pour ces deux pixels. A partir de cette interpolation, les coordonnées sub-pixel du contour sont déterminées au point où la valeur de niveau de gris interpolée est égale à la valeur du seuil local de segmentation, comme illustré en figure 34. Une fois les contours sub-pixel calculés pour chacun des objets trouvés lors de l’étape de localisation, une image à résolution sub-pixel est générée.
Sur-résolution : méthode A+
Les méthodes de sur-résolution ont pour objectif de construire une image de plus grande définition à partir d’une image de base. Elles ont pour principal défaut de créer une image au rendu « flou » : les gradients entre deux zones présentant une forte différence de couleurs sont peu prononcés, comme montré en figure 36 pour différentes méthodes. L’objectif de ces méthodes est alors d’augmenter les valeurs de ces gradients pour rendre les images produites plus « nettes ». La méthode de sur-résolution A+ (Timofte et al. (2014)) est une amélioration de la méthode initiale « anchored neighborhood regression » (ANR) des mêmes auteurs (Timofte et al. (2013)). Cette méthode reconstruit une image sur-résolue à partir de l’image de base en utilisant les informations contenues dans un dictionnaire. Ce dictionnaire est créé à partir d’une banque d’images à faible et haute résolution afin d’établir un lien statistique entre les détails d’une image à faible résolution et sa version à haute résolution d’une scène donnée, constituant ici la partie d’apprentissage de la méthode de sur-résolution. L’intérêt de l’utilisation d’un tel dictionnaire est de reproduire le plus naturellement possible les contours et textures d’une image. De plus, cela permet de réduire significativement le temps de calcul de l’image sur-résolue en transférant dans la partie de création du dictionnaire le calcul nécessaire à l’apprentissage.
L’intérêt de cette méthode pour notre comparatif est de proposer une image sur-résolue à partir d’une seule image initiale et présentant des gradients de niveaux de gris prononcés aux interfaces. Ces forts gradients limiteront l’impact de la valeur du seuil lors de l’opération de segmentation.
Comparatif des méthodes
Les comparaisons entre les différentes approches sub-pixels seront faites sur une image de test disposant d’objets et de structures élémentaires de différentes tailles en plus d’une image expérimentale de nappe liquide turbulente faiblement résolue (640*352 pixels) : c’est sur ce type d’images que l’on souhaite améliorer la qualité de l’analyse. La comparaison est d’ordre quantitatif pour l’image de test et qualitatif pour l’image de nappe : étant donné que l’on ne connait pas la position exacte du contour des objets pour les images expérimentales, c’est la convergence vers un même contour des différentes méthodes qui va être regardée.
L’image de test, illustrée en figure 37, comporte 2 rectangles de 400*40 pixels, dont le second est incliné de 5°, des disques dont les diamètres sont compris entre 5 et 40 pixels, d’une ellipse et de deux structures de perles sur une ficelle avec un diamètre variable de la structure ligamentaire variant entre 5 et 30 pixels, dont le second est incliné de 5°. Cette image est ensuite floutée par convolution avec un filtre gaussien de 20 pixels de largeur totale. Ce filtrage sert à simuler la réponse impulsionnelle du dispositif optique de formation d’image, comme illustré en figure 38.
Sur cette image test floutée, quatre contours sont calculés :
– Interpolation sub-pixel avec les programmes du CORIA (bleu).
– Interpolation sub-pixel par level-set Li et al. (2010) (violet).
– Sur-résolution bi-cubique x4 puis segmentation pixel avec les programmes du CORIA (vert).
– Sur-résolution A+ x4 puis segmentation pixel avec les programmes du CORIA (rouge).
Pour l’interpolation sub-pixel par level-set, le contour est déterminé par la level-set dans les zones où le gradient de niveau gris est maximum à l’aide de la fonction « contour » de MATLAB. Pour les trois autres méthodes, on utilise les outils développés au CORIA qui déterminent les niveaux de gris et pour chaque objet détecté sur l’image, un seuil est ensuite appliqué pour segmenter les images (voir Eq.(81)). Le niveau de seuil choisi est = 0,5 car il correspond à la position de l’interface pour l’image de test (voir figure 38(a)).
Pour chacun des contours obtenus, une image segmentée est produite. Ces images ont une résolution égale à un quart de pixel dans les deux directions vis-à-vis de l’image originale, correspondant à la précision maximale de la méthode level set. Un sub-pixel a une surface égale à 1⁄16è de la surface du pixel de l’image originale. Les images segmentées sont ensuite comparées à l’image originale (figure 37(a)) en mesurant le PSNR pour chaque objet présent sur l’image. Cette grandeur traduit la proximité entre deux images. Le PSNR s’écrit : 2 = 10 log ( ) (92) 1∑ −1∑ −1( ( , ) − ( , ))2
Où est le niveau de gris maximal de l’image, et sont les deux dimensions de l’image, 0( , ) et ( , ) sont l’intensité du pixel ( , ) respectivement sur l’image originale (figure 37(a)) et l’image obtenue après segmentation sub-pixel de l’image floutée (figure 37(b)). Les images sub-pixels étant 4 fois plus grande que l’image originale, cette dernière est agrandie avec un facteur 4 sans interpolation pour pouvoir calculer le PSNR. Les mesures de PSNR sont présentées en tableau 2, les ensembles « 4 gouttes » et « 5 gouttes » correspondent aux 4 ou 5 plus grand disques situés en bas à gauche de l’image originale. Dans le tableau 2, la colonne intitulée « Référence dilatée » correspond à l’image originale dont l’interface des objets a été dilatée d’un quart de pixel. La valeur de PSNR correspondante traduit alors un écart global d’un quart de pixel par rapport aux contours de l’image originale. Une augmentation de PSNR indique qu’il y a en proportion moins de pixels présentant des intensités différentes entre les deux images, indiquant que le contour sub-pixel obtenu se rapproche du contour original.
Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.
|
Table des matières
1. Introduction
2. Description multi-échelles
2.1. Introduction
2.2. Distributions de diamètres et distributions d’échelles
2.2.1. Distribution de diamètres
2.2.2. Distribution d’échelles
2.3. Applications de référence
2.3.1. Ensembles de sphères
2.3.2. Ensembles de cylindres
2.4. Application : perle sur une ficelle
2.4.1. Sphère et cylindre sans raccordement
2.4.2. Sphère et cylindre avec raccordement
2.5. Ensemble de cylindres s’amincissants
2.6. Conclusion
3. Traitement d’images et analyse sub-pixel
3.1. Introduction
3.2. Traitement d’images
3.2.1. Techniques de seuillages
3.2.2. Normalisation des images
3.2.3. Localisation des objets liquides
3.2.4. Segmentation locale des objets de l’image
3.3. Approches sub-pixel
3.3.1. Calcul du contour sub-pixel (CORIA)
3.3.2. Sub-pixel : level-set
3.3.3. Sur-résolution : méthode bi-cubique
3.3.4. Sur-résolution : méthode A+
3.3.5. Comparatif des méthodes
3.4. Mesure de la distribution d’échelle 3D
3.4.1. Détermination du squelette d’un objet
3.4.2. Mesure du volume et de la surface d’un objet à partir de son squelette
3.4.3. Mesure de la distribution d’échelle à partir des informations du squelette
3.5. Validation du calcul multi-échelles via la méthode de Monte-Carlo
3.5.1. Cas synthétiques
3.5.2. Influence de la densité de points sur les dérivées successives de e3(d)
3.5.3. Cas réel axisymétrique
3.6. Analyse de structures ligamentaires issues d’une nappe liquide turbulente
3.6.1. Dispositif expérimental
3.6.2. Résultats
3.7. Conclusion
4. Atomisation de jets libres viscoélastiques
4.1. Introduction
4.2. Dispositif expérimental
4.2.1. Système d’injection
4.2.2. Liquides
4.2.3. Points de fonctionnement
4.2.4. Système d’imagerie
4.3. Mesures préliminaires
4.3.1. Diamètre et vitesse du jet
4.3.2. Longueurs d’ondes de perturbation du jet
4.3.3. Longueurs de rupture du jet
4.4. Mesure des distributions d’échelles 3D
4.4.1. Protocole de mesure
4.4.2. Influence de la hauteur de fenêtre d’analyse sur la distribution d’échelles
4.4.3. Influence du nombre d’images sur la distribution d’échelles
4.4.4. Volume moyen du jet dans la fenêtre d’analyse
4.5. Analyse multi-échelle
4.5.1. Surface spécifique
4.5.2. Mesure des échelles caractéristiques d1 et d4
4.5.3. Identification des régimes ligamentaires
4.6. Résultats
4.6.1. Temps de relaxation
4.6.2. Taux de déformation du régime élasto-capillaire
4.6.3. Viscosité élongationelle terminale
4.6.4. Estimation de la longueur de ligament
5. Conclusion
Bibliographie
Télécharger le rapport complet