Imagerie hyperspectrale
De l’image classique à l’image hyperspectrale
Un appareil photographique classique échantillonne une scène spatialement sous forme de pixels et spectralement sous forme de trois bandes spectrales couvrant la partie visible du spectre lumineux : rouge, vert et bleu entre 0.39 μm et 0.78 μm. Il réalise ainsi trois mesures de luminosité par pixel. Le résultat de cette procédure est une image trichromatique. Ce choix est adapté à la reproduction d’une scène destinée à être vue par un œil humain car celui-ci possède sur sa rétine trois types de cônes permettant de percevoir les trois couleurs primaires mesurées par l’appareil photographique. On peut ainsi reproduire fidèlement toutes les couleurs perceptibles par l’œil humain et seuls l’échantillonnage spatial et la quantification numérique limitent la qualité de l’image. Mais la lumière provenant de cette scène contient bien plus d’information que ces trois valeurs par pixel. En effet, l’énergie lumineuse réfléchie par une surface est une grandeur continue spatialement et spectralement. Tout échantillonnage de cette grandeur conduit à une perte d’information. Un bon échantillonnage est celui qui conserve un maximum d’information utile en vue d’une exploitation donnée. Si l’échantillonnage de l’image trichromatique est adapté à sa fonction, d’autres types d’échantillonnage, en particulier suivant la dimension spectrale, permettent d’autres types d’applications.
L’imagerie multispectrale [Schott, 2007; Richards, 1999] propose un échantillonnage différent de l’imagerie trichromatique dont le but est l’identification des constituants de la surface observée. En effet, en un point donné, la forme du spectre de la lumière reflétée est déterminée par la composition chimique de la surface car chaque liaison chimique entre les molécules constituant la surface absorbe une longueur d’onde spécifique de la lumière incidente. Ainsi, bien plus que la couleur, c’est la composition chimique de la surface qui est accessible à partir de la lumière reflétée, chaque matériau étant caractérisé par un spectre de réflectance spécifique appelé signature spectrale. C’est pour exploiter cette information qu’est apparue l’imagerie multispectrale dans les années 1970. Celle ci consiste à mesurer la luminance dans un nombre donné de bandes spectrales (ou canaux spectraux) choisies de façon à discriminer les différents matériaux recherchés. Ces bandes peuvent être séparées, contiguës ou superposées, et éventuellement en dehors du domaine visible. Cette technique permet l’identification des matériaux à partir du profil global de leurs spectres lumineux.
L’imagerie hyperspectrale [Chang, 2007] est une évolution de l’imagerie multispectrale qui est caractérisée par l’acquisition de la lumière de la scène observée dans un grand nombre de bandes spectrales contiguës. Avec plusieurs dizaines ou centaines de bandes couvrant généralement le visible et l’infrarouge, la résolution spectrale est nettement supérieure à celle de l’imagerie multispectrale, souvent au détriment de la résolution spatiale. Cela permet une analyse plus fine de la composition de la surface, laissant apparaître les bandes d’absorption caractéristiques de chaque matériau. Une image hyperspectrale est donc composée d’un ensemble de mesures d’énergie lumineuse suivant trois dimensions (deux dimensions spatiales et une dimension spectrale). Elle est parfois représentée sous la forme d’un cube de données . Une image hyperspectrale peut occuper un volume de plusieurs centaines de méga-octet (Mo) en mémoire. Tout traitement est rendu difficile par le volume important des données en jeu. La mise en œuvre de solutions algorithmiques et matérielles permettant le contournement de cette difficulté est l’un des objectifs de ce travail de thèse.
Acquisition d’une image hyperspectrale
Il convient ici de préciser ce que l’on appelle réflectance d’une surface. Pour une longueur d’onde donnée, la réflectance correspond à la proportion de lumière incidente réfléchie par la surface. Plus précisément, la réflectance en tant que BRDF (Bidirectional Reflectance Distribution Function) est calculée comme le rapport entre la radiance I émergeant d’un élément de surface dans un certain angle solide, exprimée en W·m−2 ·sr−1, et l’intensité I du flux incident collimaté (c’est à dire venant d’une seule direction), exprimée en W · m−2. La réflectance BRDF est donc exprimée en sr−1 et est obtenue par la formule [Schmidt, 2014] .
Applications
Les domaines pouvant utiliser l’imagerie hyperspectrale sont nombreux. On peut citer :
• L’agriculture : suivi du développement et de la croissance des cultures, détection de maladies [Lacar et al., 2001; Tilling et al., 2006].
• La géologie : identification et classification des roches en laboratoire ou sur des surfaces étendues [Van der Meer et al., 2012].
• L’activité militaire : cartographie, détection et suivi de cibles [Ardouin et al., 2007].
• L’astrophysique et la planétologie : caractérisation chimique d’astres lointains, cartographie géologique d’astres plus proches [Starck et Murtagh, 2007; Schmidt et al., 2011].
Traitements possibles
Une image hyperspectrale peut être exploitée de différentes façons en fonction des hypothèses faites sur la composition de la surface observée et de l’information que l’on souhaite obtenir. On peut distinguer 4 types de traitement usuels :
• Détection de cible [Manolakis et al., 2003; Nasrabadi, 2014] : Il s’agit d’identifier les pixels dont la surface est constituée entièrement ou en partie d’un matériau cible dont le spectre de réflectance est connu. Ce type de traitment fait appel à des outils de mesure de distance entre deux spectres comme la distance euclidienne ou l’angle spectral ainsi qu’à des méthodes de seuillage pour discriminer les pixels contenant le matériau cible. Des méthodes statistiques peuvent être employées lorsque le spectre cible est connu à travers une description probabiliste.
• Classification [Schmidt, 2007; Fauvel et al., 2008] : Il s’agit d’associer à chaque pixel un matériau. Ceux-ci peuvent être issus d’une liste préétablie de matériaux dont les spectres sont connus (classification supervisée) ou bien issus des spectres mesurés dans l’image (classification non-supervisée). Ces méthodes de traitement font également appel aux outils de mesure de distance spectrale ainsi qu’aux méthodes classiques de classification telles que les SVM (Support Vector Machine, en français Machines à Vecteurs de Support) ou les réseaux de neurones. Certaines méthodes dites de classification spatiale-spectrale exploitent un a priori d’homogénéité spatiale de l’image pour améliorer la qualité de leurs résultats.
• Déconvolution [Bourguignon et al., 2012; Henrot, 2013] : Comme toute image issue d’un instrument de mesure optique, une image hyperspectrale est altérée par les défauts de l’appareil et certaines conditions extérieurs comme les perturbations atmosphériques. Ces phénomènes se traduisent dans l’image par un flou à la fois spatial et spectral caractérisé par sa PSF (Point Spread Function, en français Fonction d’Étalement du Point). La déconvolution est une procédure de restauration d’image permettant de compenser les effets de la PSF. Il s’agit d’une étape de prétraitement effectuée en amont des autres traitements décrits dans cette section lorsque ces effets ne peuvent pas être négligés.
• Démixage spectral [Keshava et Mustard, 2002; Bioucas-Dias et al., 2012] : Ce type de traitement repose sur l’hypothèse que chaque élément de surface couvert par un pixel peut être constitué de plusieurs matériaux. Le démixage spectral consiste à identifier ces matériaux ainsi que leurs proportions dans chaque pixel à partir des spectres mesurés qui sont des mélanges des spectres des matériaux purs. Il s’agit donc d’un problème de séparation de sources. Cette thèse se place dans le cadre du démixage spectral, et plus particulièrement de l’estimation de cartes d’abondances.
L’ensemble de ces traitements font partie d’une classe plus large de problèmes appelés problèmes inverses.
|
Table des matières
1 Introduction générale
1.1 Imagerie hyperspectrale
1.1.1 De l’image classique à l’image hyperspectrale
1.1.2 Acquisition d’une image hyperspectrale
1.1.3 Applications
1.1.4 Traitements possibles
1.1.5 Problèmes inverses
1.2 Contributions de la thèse et publications
1.3 Organisation du document
2 Estimation des cartes d’abondances en imagerie hyperspectrale
2.1 Séparation de sources en imagerie hyperspectrale
2.2 Hypothèses de travail
2.2.1 Modèle de mélange linéaire
2.2.2 Contraintes
2.2.3 Régularisation spatiale
2.3 Formulation du problème
2.4 Méthodes de résolution existantes
2.4.1 Quelques notions d’optimisation convexe
2.4.2 NNLS : Non-Negative Least Squares
2.4.3 FCLS : Fully Constrained Least Squares
2.4.4 ADMM : Alternating Direction Method of Multipliers
2.4.5 IPLS : Interior-Points Least Squares
2.5 Conclusion
3 Analyse comparative des méthodes existantes
3.1 Protocole expérimental
3.2 Situation de référence
3.3 Influence du nombre de pixels N
3.4 Influence du nombre de spectres purs P
3.5 Robustesse face au bruit
3.6 Robustesse face à l’imprécision des spectres purs
3.7 Influence du type de contrainte utilisé
3.8 Influence de la pénalisation spatiale
3.8.1 Choix des paramètres de pénalisation
3.8.2 Situation de référence avec pénalisation
3.9 Conclusion
4 Accélération algorithmique de la méthode de points intérieurs
4.1 Identification de l’étape critique
4.2 Stratégies de calcul dans le cas non-pénalisé
4.2.1 Traitement séparé de chaque pixel
4.2.2 Traitement séparé de tous les pixels
4.2.3 Résultats des différentes versions proposées
4.3 Accélération dans le cas pénalisé
4.3.1 Analyse de la structure du calcul des directions primales
4.3.2 Résolution par approche par Majoration-Minimisation Quadratique
4.3.3 Résolution par gradient conjugué préconditionné
4.3.4 Résultats
4.4 Conclusion
5 Conclusion générale