Images spectroscopiques et leurs problèmes
Images spectroscopiques : généralités
Une image spectroscopique est issue de la mesure d’un signal spectroscopique. Les domaines spectroscopiques sont assez nombreux et les signaux obtenus sont de natures très diverses. Quel que soit la spectroscopie, il faut disposer de l’instrumentation nécessaire pour l’acquisition du signal spectroscopique ainsi que les outils informatiques indispensables aussi bien pour le traitement des données que la production d’images spectroscopiques. Cette production est rendue possible par le gain en précision et en rapidité des instruments spectroscopiques ainsi que leur miniaturisation due aux progrès technologiques. Et cela a permis l’échantillonnage des surfaces de plus en plus petites. De ce fait, on passera du début du siècle à nos jours de la spectrométrie macroscopique à la microspectrométrie. Les images spectroscopiques sont produites dans des nombreux domaines tels que l’infrarouge, le Raman, la RMN, la spectroscopie UV Visible, les rayons X (DRX, XPS, EXAFS), la spectrométrie de masse, la spectroscopie électronique de surface (SEM, STM, AFM), la fluorescence, la phosphorescence, ….etc. Cette liste n’est pas exhaustive mais donne une idée de la très grande diversité des spectroscopies et des types d’images qu’on peut produire. La radiographie, la scintigraphie, la tomographie, le sonar, le scanner, l’échographie et l’IRM en sont les illustrations des nombreuses applications d’usage courant. Cependant ce qui conditionne la production de l’image spectroscopique, ce sont la nature de l’échantillon étudié et la caractéristique du signal d’analyse. Pour le signal, les méthodes spectrométriques les plus courantes utilisent le rayonnement électromagnétique. Ce type d’énergie se présente sous différentes formes dont la principale est la lumière. Les rayons X, gamma et ultraviolets, les micro-ondes et les ondes radios sont des formes différentes de ce rayonnement électromagnétique.
Une image est reconstruite après un long processus d’acquisition et de traitements de données. Outre l’échantillon, un spectromètre adapté avec son détecteur sensible dans le domaine spectroscopique ciblé et un moyen de capture d’images sont nécessaires (CCD, FPA par exemple). Pour la microspectrométrie, un microscope puissant est associé au spectromètre. Après avoir obtenu l’échantillon aux propriétés voulues (tailles, épaisseurs, quantités, propriétés physiques ou chimiques, …etc.), celui-ci est exposé au phénomène spectroscopique (radiation lumineuse, radiofréquence, flux d’électrons, …etc.). Chaque spectroscopie a sa propre instrumentation spécifique pour l’acquisition du signal.
D’une manière générale, pour aboutir à la formation d’images, on réalise une « cartographie spectrale » sur une portion délimitée de l’échantillon. On effectue un balayage à deux dimensions (suivant x et y) avec un pas régulier. Un déplacement vertical, par contrôle piézoélectrique pour s’adapter à la non-planéité de l’échantillon, est disponible sur certains microscopes. Chaque aire de mesure est une micro zone d’analyse, ce qu’on appelle « pixel ».
Un spectre est acquis sur chacun d’eux. L’ensemble des spectres acquis forme la matrice de données à étudier. Cette matrice est tridimensionnelle. Les deux premières dimensions restituent la répartition spatiale des pixels dans le plan de la « cartographie spectrale ». La troisième dimension exprime les caractéristiques spectrales des données mesurées. Les coordonnées spatiales des pixels serviront à mieux restructurer la formation d’images. La composante spectrale est spécifique à chaque type de spectroscopie et rend compte de la mesure spectroscopique sur chaque pixel analysé.
Méthodologies d’estimation du nombre des constituants
Les principales méthodes d’estimation du nombre de constituants sont basées sur l’analyse factorielle (FA). La méthodologie sous-jacente est la décomposition de la matrice de données en valeurs propres et en vecteurs propres. Le nombre de vecteurs propres les plus significatifs seront retenus comme étant le nombre de constituants à estimer. Pour une meilleure compréhension de la méthodologie de sélection du « nombre significatif de vecteurs propres » .
Définition et Bases mathématiques de l’analyse factorielle (Factor Analysis : FA)
Définition
Malinowski, dans son ouvrage « Factor analysis in Chemistry » édité en 1991, donne la définition suivante : « L’analyse factorielle (FA) est une technique des méthodes de l’analyse multivariée pour la réduction des matrices de données à leur plus faible dimensionnalité par l’utilisation d’un espace factoriel orthogonal et des transformations qui donnent des prédictions et/ou des facteurs reconnaissables ». Cela suppose bien sûr la maîtrise des fondements mathématiques de l’analyse factorielle et l’interprétation de ces concepts transposés aux données physico-chimiques. FA est très utile et permet :
✔ l’étude des données avec une grande complexité,
✔ de simplifier des données énormes,
✔ et donne des facteurs significativement interprétables.
Les fondements mathématiques
L’analyse factorielle est une technique d’étude. Le but est de décomposer une matrice des données recueillies D en produit de deux matrices D = C * S’ + E (cf. éq.2), E étant la matrice des résidus exprimant la variance non expliquée par les facteurs retenus pour la décomposition. C et S les matrices de la décomposition. Les traitements mathématiques expliquent comment effectuer cette décomposition de la manière la plus efficace possible. Il se pose deux problèmes :
✔ Pour faire cette décomposition, il faut estimer le nombre des facteurs significatifs.
✔ Ensuite il faut transformer cette décomposition mathématique pour lui donner un sens physique interprétable relatif aux données étudiées.
Le but de cette décomposition est de retrouver des « facteurs caractéristiques », des données étudiées, exempts de tout préjugé de l’expérimentateur et peu influencés par les différents types d’erreurs. La matrice de données expérimentales D est souvent un tableau rectangulaire. Les lignes représentent des individus (échantillons, observations…etc.) et les colonnes des variables à valeurs numériques continues (des mensurations, des taux, des mesures spectrales…etc.). Les lignes ont, en général, des caractères répétitifs (ou formées d’unités ayant des caractères répétitifs). Le Tableau 1 présente la forme matricielle de cette matrice de données D. Les éléments Echi représentent des individus, des espèces, des échantillons expérimentaux (…etc.) pour lesquels les variables vari ont été enregistrées. L’expérimentateur cherche à savoir les comportements des Echi pour les vari, la relation pouvant exister entre les Echi, entre les vari ou entre les Echi et les vari. On cherche surtout à ramener la grande taille des données mesurées à quelques facteurs simples facilement interprétables ayant un sens physique.
Recherche des facteurs significatifs à l’aide des valeurs singulières
L’obtention des valeurs singulières, issues de la décomposition de la matrice de données, ne termine pas notre résolution pour la recherche des facteurs significatifs. Pour une matrice de dimension (r×c) comme notre matrice de données D et supposant que c < r, on aura au maximum c valeurs singulières. Mais toutes les colonnes de la matrice D ne sont pas, toujours, linéairement indépendantes. Alors la liste des valeurs singulières contient des valeurs nulles, autant de fois qu’il y a de relations de colinéarité. Ce qui revient à dire que le rang de D n’est pas égal à c mais à un nombre p inférieur à c. Pour l’estimation des facteurs significatifs à l’aide des valeurs singulières, on procède comme suit :
✔ première étape de résolution : on retient dans W que les valeurs singulières non nulles. Ce qui réduit la dimension de l’espace de décomposition et le nombre de vecteurs propres non nuls à p.
✔ deuxième étape de résolution : pour une matrice de données D contenant un nombre élevé de lignes et de colonnes, on obtient un nombre de valeurs singulières non nulles assez élevé aussi. Un très grand nombre de ces valeurs singulières ont une valeur très proche de zéro. On ne retient alors que les grandes valeurs singulières qui donnent une bonne reconstitution de la matrice de données D. Pour cela on s’aide souvent du diagramme du pourcentage individuel et pourcentage cumulé des valeurs propres en s’autorisant dans la plupart des cas une marge d’erreur de 5%. Les q plus grandes valeurs propres servent à reconstituer la matrice de données de départ supposée exempte d’erreurs (bruit et tout type d’erreur). Ces q valeurs propres sont associées aux q vecteurs propres représentant les q facteurs significatifs recherchés.
|
Table des matières
INTRODUCTION GENERALE
Chapitre 1 : Chimiométrie pour la résolution des images
I. Images spectroscopiques et leurs problèmes
1. Images spectroscopiques : généralités
2. Problématique de reconstitution d’images
3. Les limitations de la production d’images spectroscopiques
3.1. Limites théoriques
3.2. Limitation instrumentale
4. Quelques outils pour améliorer la résolution ?
II. Méthodologies d’estimation du nombre des constituants
1. Définition et Bases mathématiques de l’analyse factorielle (Factor Analysis : FA)
1.1. Définition
1.2. Les fondements mathématiques
1.2.1. Décomposition en valeurs propres et vecteurs propres
1.2.2. Décomposition en valeurs singulières (Singular Value Decomposition : SVD)
2. Recherche des facteurs significatifs à l’aide des valeurs singulières
3. Les autres méthodes d’estimation de facteurs significatifs pour la décomposition
3.1. Les méthodes empiriques
3.2. Les méthodes statistiques
3.3. Les méthodes basées sur l’estimation de l’erreur expérimentale
3.4. Quelques méthodes du « self-modeling »
III. Premières estimations : méthodes simples d’extraction de spectres et de concentrations
1. SVD et PCA
2. EFA et ses dérivées
2.1. La naissance de EFA
2.2. L’adaptation de EFA à une fenêtre fixe en déplacement : l’apparition de FSW-EFA (ou FSMW-EFA)
2.3. L’utilisation de EFA pour l’imagerie 2-D, 3-D ou N-D : la création de FSIW-EFA
3. SIMPLISMA (SIMPLe-to-use Interactive Self-Modeling Mixture Analysis) et OPA (Orthogonal Projection Approach)
3.1. SIMPLISMA
3.2. OPA
4. D’autres méthodes
IV. L’optimisation et l’introduction des contraintes dans les méthodologies d’extraction pour une meilleure résolution
1. Hypothèses sous-jacentes aux méthodologies d’extraction simples
2. Les nouvelles exigences et les contraintes associées
3. Quelques méthodologies d’extraction plus robustes
3.1. La procédure des moindres carrés Alternés (ALS : Alternating Least Squares)
3.2. Amélioration dans ALS et création de MCR-ALS (Multivariate Curve Resolution – Alternating Least Squares)
3.3. D’autres méthodes comme PMF (Positive Matrix Factorization)
4. Contraintes sur la résolution des images
Chapitre 2 : Imagerie microspectrométrique (infrarouge et Raman) Spectroscopie vibrationnelle
I. Spectroscopie infrarouge
1. Un peu d’historique
2. Domaine infrarouge et interaction
3. Vibration et modélisation
4. Les sources et les transducteurs en infrarouge
4.1. Les sources
4.2. Les transducteurs : état de l’art des détecteurs infrarouges
5. La Transformée de Fourier
5.1. Série de Fourier et Transformée de Fourier (TF)
5.2. La transformée de Fourier et le traitement numérique du signal
6. Les spectromètres infrarouges
II. Spectroscopie Raman
1. Brève historique
2. Effet Raman
3. Instrumentation Raman
3.1. Les sources
3.2. Les spectromètres
Imagerie microspectrométrique infrarouge et Raman
1. Aperçu général
2. Moyens de production d’images en infrarouge et Raman
3. Production d’images spectroscopiques
3.1. Description des dispositifs
3.2. Principe d’acquisition des spectres
3.3. Production d’images spectroscopiques : la manière classique et ses limitations
Chapitre 3 : Application des méthodes de résolution sélectionnées à une matrice de données synthétiques bien caractérisées : Test d’efficacité
I. Introduction
II. Les méthodes chimiométriques de l’étude
III. Le choix de données synthétiques et la simulation des conditions expérimentales
1. Constitution de la matrice de données synthétiques
2. Manipulation de ces données synthétiques
3. La Simulation des conditions expérimentales
IV. La méthodologie générale de résolution
1. Critère de comparaison et d’évaluation
2. Comparaison globale
V. Application des méthodes de résolution sélectionnées aux données synthétiques
1. Etude du critère particulier de SIMPLISMA : l’influence de l’offset
2. Etude de l’influence du rapport signal sur bruit sur la capacité d’extraction des méthodes de résolution avec la seule contrainte de non-négativité sur les spectres et les concentrations
2.1. Etude comparative des capacités d’extraction des méthodes de résolution « simples », MS
2.1.1. Etude de la résolution en fonction du bruit sans décalage en nombres d’onde
2.1.2. Etude de la résolution en fonction des décalages en nombres d’onde pour un niveau de bruit donné
2.1.3. Quelques explications sur la mauvaise qualité d’extraction de certaines méthodes de résolution
2.1.3.1. OPA(spec)
2.1.3.2. PCA
2.2. Etude comparative des capacités d’extraction des méthodes de résolution « simples » raffinées par MCRALS
2.2.1. Etude de la résolution en fonction du bruit sans décalage en nombres d’onde
2.2.2. Etude en fonction des décalages
3. Etude des méthodes de résolution raffinées par MCR-ALS avec les contraintes du rang local en plus de la non-négativité
3.1. Explication de la méthodologie de la contrainte du rang local
3.1.1. Estimation du nombre de composés présents sur un pixel
3.1.2. Production des cartes du rang local
3.1.3. Production de la carte des absences
3.1.4. Utilisation des contraintes du rang local
3.2. Etude des résolutions en fonction du bruit sans décalage en nombres d’onde
3.3. Observations après décalages en nombres d’onde
4. Les méthodes de résolution les plus robustes à retenir pour l’application au traitement des données de l’imagerie microspectrométrique
VI. Conclusion du Chapitre 3
CONCLUSION GENERALE
Télécharger le rapport complet