Télécharger le fichier pdf d’un mémoire de fin d’études
Présentation de la Séparation Aveugle de Sources (SAS)
La SAS consiste à extraire signaux sources inconnus à partir de signaux observés qui correspondent à des mélanges de ces sources sans ou avec très peu d’informations a priori sur ces dernières, d’où le terme « aveugle ». Ces observations sont des mélanges des signaux sources reçus sur plusieurs capteurs, tels que des antennes, des microphones, des capteurs CCD…
L’objectif des méthodes de séparation est de déterminer à partir des observations, la fonction de démélange qui permet d’estimer les signaux qui correspondent aux sources réelles.
En général, le problème de la séparation de sources peut être divisé en deux parties (Figure 1.1) :
– Modélisation du problème : estimation du modèle de mélange qui lie les observations et les sources réelles, appelé problème d’Identification Aveugle de Mélanges (IAM) (Blind Mixture Identification (BMI)) [22].
– Traitement du problème : estimation des sources à partir des observations afin de résoudre le problème [6].
Méthodes de séparation de sources pour les mélanges linéaires
Il existe différentes méthodes permettant de résoudre le problème de séparation de sources. Ces méthodes sont généralement répertoriées dans trois grandes catégories : les méthodes d’Analyse en Composantes Indépendantes (Independent Component Analysis (ICA)), les méthodes d’Analyse en Composantes Parcimonieuses (Sparse Component Analysis (SCA)) et les méthodes de Factorisation en Matrices Non-négatives (Non-negative Matrix Factorization (NMF)).
Une quatrième catégorie de méthodes de séparation peut être considérée dans le cas d’applications en imagerie de télédétection, ces méthodes sont le plus souvent basées sur des critères géométriques [30-32].
Il est possible de trouver plus d’informations sur ces méthodes de séparation ainsi qu’un panorama général des méthodes dans [5, 6, 18, 25, 30-36].
Dans cette section nous nous intéressons aux méthodes de séparation les plus connues dans la littérature pour le cas de mélanges linéaires. Nous présentons les classes de méthodes de SAS dans le cadre général. Par la suite, nous évoquons les méthodes de séparation dans le cas particulier de la télédétection où des hypothèses supplémentaires sur les données sont considérées.
Méthodes basées sur l’Analyse en Composantes Indépendantes
L’ICA constitue l’une des catégories de méthodes les plus utilisées en séparation. Cette catégorie de méthodes exploite l’hypothèse de l’indépendance statistique mutuelle des signaux sources. Dans [4], P. Comon a généralisé le principe de l’ICA permettant d’obtenir des signaux de sortie, statistiquement indépendants, égaux aux signaux sources dans le cadre du mélange linéaire instantané, inversible et non bruité avec la présence d’au plus une source gaussienne. Pour une analyse plus détaillée sur des méthodes ICA et sur la séparation aveugle de sources, il est possible de se référer à [5, 6, 33]. Différents critères peuvent être utilisés pour réaliser l’ICA, parmi eux nous citons :
La minimisation de l’information mutuelle
Cette approche, issue de la théorie de l’information, est basée sur la minimisation de l’information mutuelle entre les sources estimées, ce qui consiste à maximiser l’indépendance entre elles. Plusieurs méthodes ont été développées en utilisant l’information mutuelle comme critère pour résoudre le problème de séparation de sources, notamment les travaux de P. Comon [4], M. Babaie-Zadeh [37, 38], L. B. Almeida [39] et D. T. Pham [40, 41].
La maximisation de la vraisemblance
Cette approche a pour objectif de retrouver les paramètres des mélanges qui maximisent la vraisemblance de réalisation des observations. L’inconvénient majeur du critère de maximisation de la vraisemblance réside dans le fait que nous ne connaissons pas la densité de probabilité des signaux sources. Nous pouvons alors soit la supposer connue a priori, soit supposer qu’elle appartient à une famille donnée de distributions.
Les premières méthodes basées sur la maximisation de la vraisemblance ont été introduites par M. Gaeta et J. L. Lacoume [42]. Nous pouvons aussi citer les travaux de D. T. Pham [43, 44], A. Belouchrani et J. F. Cardoso [45] et les travaux de R. Guidara, S. Hosseini et Y. Deville [46].
La maximisation de la non-gaussianité
Cette dernière approche est l’une des approches les plus utilisées en ICA, le principe de ce genre d’approches est de forcer la non-gaussianité de chaque signal de sortie.
En pratique, le kurtosis, qui est le cumulant d’ordre quatre normalisé, est le critère le plus utilisé pour mesurer la non-gaussianité [47, 48]. Un deuxième critère de mesure de la non-gaussianité est basé sur l’entropie différentielle ou la néguentropie. L’une des méthodes les plus connues basées sur la maximisation de la non-gaussianité est FastICA [33, 49].
Les approches tensorielles
Les approches tensorielles sont basées généralement sur l’utilisation de cumulants d’ordre 4 pour retrouver les signaux sources. Parmi les approches basées sur un tel critère, la méthode JADE (Joint Approximate Diagonalization of Eigenmatrices) [50].
Méthodes basées sur les statistiques d’ordre deux
Les approches d’ICA présentées ci-dessus font l’hypothèse que chaque source est non gaussienne et i.i.d. (indépendante et identiquement distribuée). Cependant dans les méthodes basées sur les statistiques d’ordre deux, l’hypothèse de la non-gaussianité est relâchée (les sources peuvent être gaussiennes) [51], et la séparation peut être effectuée en supposant une des deux hypothèses suivantes :
a) Les méthodes ICA basées sur les statistiques d’ordre deux avec l’hypothèse d’autocorrélation des signaux sources : parmi ces méthodes, nous pouvons citer : AMUSE (pour : Algorithm for Multiple Unknown Signals Extraction) [52] et SOBI (Second-Order Blind Identification) [53].
b) Les méthodes ICA basées sur les statistiques d’ordre deux avec l’hypothèse de la non stationnarité des signaux sources : parmi les travaux traitant des signaux sources non-stationnaires, citons par exemple les travaux de [54, 55].
Méthodes basées sur l’Analyse en Composantes Parcimonieuses
L’analyse en composantes parcimonieuses est une catégorie de méthodes actuellement très populaire en séparation aveugle de sources. Elles partent de l’hypothèse que les signaux ont une structure particulière. Un signal est dit parcimonieux dans un domaine de représentation donné (temporel, spatial, fréquentiel, temps-fréquence, temps-échelle) si la plupart de ses coefficients dans ce domaines sont nuls. Nous distinguons ainsi trois types d’approches tirant parti de la parcimonie des sources :
1) Approches basées sur l’hypothèse de fortes conditions de parcimonie
Appelées WDO (W-Disjoint-Orthogonality), elles supposent l’Orthogonalité W-Disjointe des sources, ce qui suppose qu’au plus une source est présente ou active dans chaque point du domaine d’analyse. La WDO permet de séparer les sources dans les cas dits « sous-déterminés ». Parmi les méthodes basées sur cette approche, nous pouvons citer celles dans [56, 57].
2) Approches basées sur la quasi-non-parcimonie
Ces méthodes nécessitent de petites zones du domaine d’analyse, dans lesquelles chaque source est isolée. Ces zones « mono-sources » (où une seule source est présente) sont retrouvées par l’utilisation d’un critère de détection. Parmi les méthodes basées sur cette approche, celles proposées par F. Abrard et Y. Deville. Les méthodes LI-TEMPROM et LI-TIFROM [58] utilisent la variance des rapports des observations pour la détection des zones mono-sources. Les méthodes LI-TEMPCORR et LI-TIFCORR [59] utilisent quant à elles la corrélation pour la détection de ces zones.
D’autres méthodes ont été proposées comme extensions des différentes méthodes citées ci-dessus afin de pallier certaines de leur limitations [60, 61].
3) Approches hybrides
Ces approches « hybrides » se basent à la fois sur les méthodes utilisant le concept de la WDO et sur celui de la quasi-non-parcimonie. Parmi les méthodes qui utilisent cette approche, la méthode d’Arberet, R. Gribonval et F. Bimbot proposée dans [62].
Méthodes basées sur la Factorisation en Matrices Non-négatives
Principe général
Les méthodes de factorisation en matrices non-négatives (NMF), sont une catégorie de méthodes basées sur l’hypothèse de « positivité » ou de « non-négativité » des données (sources et coefficients de la matrice de mélange comme dans le cas d’applications en télédétection spatiale). Nous exploitons dans nos travaux cette catégorie de méthodes étant donné la propriété de non-négativité de nos données (positivité des observations, des sources et des coefficients de mélange).
Initialement proposée par Paatero et Tapper avec des travaux fondés sur la Factorisation en Matrices Positives (Positive Matrix Factorization (PMF)) [63], la NMF a connu un succès depuis le milieu des années 90, suite aux travaux de D. D. Lee et H. S. Seung [64, 65], comme une nouvelle technique de séparation aveugle de sources.
Le principe de la factorisation en matrices non-négatives en terme de séparation de sources, consiste à décomposer la matrice non-négative des observations ∈ , et étant respectivement les nombres d’observations et d’échantillons, sous la forme suivante [65] :
Estimation des spectres d’endmembers
Nous distinguons deux types de méthodes d’extraction des spectres d’endmembers qui utilisent la géométrie du simplexe [8, 31].
Méthodes avec existence de pixels purs
L’hypothèse principale sur laquelle reposent ces méthodes est l’existence de pixels purs pour chaque matériau dans l’image étudiée pour extraire les endmembers à partir de ces pixels. Ces méthodes ont pour but de retrouver un simplexe englobant les observations dont les sommets sont les éléments purs. Parmi ces méthodes, les plus populaires sont :
– La méthode PPI (Pixel Purity Index) [95] utilise une MNF (Maximum Noise Fraction) comme une étape de pré-traitement pour réduire la dimensionnalité. Cette méthode cherche à retrouver le simplexe d’intérêt à partir de projections sur des espaces appropriés.
– La méthode N-FINDR [96] est une des méthodes d’estimation des composantes pures les plus utilisées. Elle repose sur le calcul itératif du simplexe de plus grand volume englobant l’ensemble des points de l’image considérée.
– La méthode SMACC (Sequential Maximum Angle Convex Cone) développée dans [97] est basée sur un modèle de cône convexe pour représenter des vecteurs spectraux. L’algorithme commence avec un seul endmember et augmente de façon incrémentielle en dimension. Un nouveau endmember est identifié en fonction de l’angle qu’il fait avec le cône existant, le vecteur de données formant l’angle maximal avec le cône existant est choisi comme le suivant endmember pour agrandir l’ensemble d’endmembers.
– La méthode VCA (Vertex Component Analysis) [98] est une méthode qui exploite la projection dans des sous-espaces orthogonaux afin de retrouver directement les endmembers.
Plus de détails sur ce type de méthodes sont présentés dans [8].
Méthodes sans l’hypothèse d’existence de pixels purs
Ces méthodes ne font pas l’hypothèse d’existence de pixels purs dans l’image traitée. Les méthodes de cette catégorie ont pour but de chercher à minimiser le volume du simplexe formé par les données projetées. Parmi ces méthodes, nous pouvons citer :
– La méthode MVC-NMF (Minimum Volume Constrained Non-negative Matrix Factorization), développée par L. Miao et H. Qi [99], introduit dans la NMF un terme de régularisation du volume afin de retrouver le plus petit simplexe parmi ceux possibles pouvant contenir les données.
– La méthode MVSA (Minimum Volume Simplex Analysis) de J. Li et J.M. Bioucas-Dias [100] résout ce problème en implémentant une séquence de sous-contraintes quadratiques.
– La méthode SISAL (Simplex Identification via Split Augmented Lagrangian) [101] résout le problème d’optimisation en ayant recours à un algorithme de type Lagrangien augmenté.
Les deux algorithmes MVSA et SISAL utilisent une initialisation issue de la méthode VCA, et ces deux méthodes remplacent la contrainte de non-négativité des abondances par une contrainte plus souple. Cette dernière est réalisée en rajoutant à la fonction d’optimisation utilisée dans la version de base un terme de régularisation.
La connaissance du nombre d’endmembers présents dans une image est généralement obligatoire pour extraire ces derniers. Ce nombre peut être estimé en effectuant une PCA comme dans [7], ou en utilisant la méthode proposée par J.M. Bioucas-Dias et J.M.P. Nascimento [102] appelée Hyperspectral Signal identification by minimum error (HySime), ou encore les méthodes HFC ou NWHFC décrites dans [103].
Estimation des fractions d’abondances
Il existe des méthodes qui permettent d’estimer les fractions d’abondances une fois que les spectres d’endmembers sont connus, ces méthodes sont appelées méthodes de régression. Parmi les méthodes les plus connues dans la littérature nous citons, la méthode Non-Negativity Constrained Least Squares (NCLS) proposée par C-I. Chang [104], Fully Constrained Least Squares (FCLS) de D. C. Heinz et C. I. Chang [105], la Split Gradient Method (SGM) de C. Theys [106], et les méthodes bayésiennes proposées dans [107].
Les méthodes basées sur l’analyse en composantes indépendantes
Ces méthodes sont des méthodes qui supposent l’indépendance statistique des sources, et sur ce principe plusieurs approches ont été proposées dans la littérature : J. Bayliss [108] introduit une méthode basée sur le maximum de vraisemblance appliquée à des problèmes de démélange spectral en considérant les « sources = abondances » (cette méthode repose sur un algorithme proposé par B.A. Pearlmutter et L. Parra [109]). Dans [110], les auteurs proposent une méthode en considérant les « sources = spectres ». Cependant, ces méthodes se basent sur l’indépendance des sources, ce qui n’est pas le cas pour des images de télédétection car dans le cas d’approche « sources = spectres », l’hypothèse d’indépendance statistique n’est pas respectée du fait de la nature de ces spectres dans certains cas très corrélés (notamment lorsqu’ils appartiennent à la même grande classe par exemple : végétation …etc.), tandis que dans le cas d’approche « sources = abondances », l’indépendance statistique n’est également pas respectée du fait des contraintes de somme égale à un sur chaque pixel des cartes d’abondances [67].
Dans [111], les auteurs proposent une comparaison entre plusieurs méthodes d’ICA et où l’efficacité de ces méthodes est étudiée. Ils démontrent ainsi que la dépendance des sources altère les performances de ces méthodes, ces méthodes sont donc difficilement applicables au problème de démélange des images de télédétection.
Dans [112, 113], les auteurs proposent une approche appelée Modified Independent Component Analysis for initializing Non-negative Matrix Factorization (ModifICA-NMF). Cette approche permet de mieux résoudre le problème de démélange spectral des images hyperspectrales, en utilisant les résultats d’une ICA modifiée comme initialisation d’une NMF.
Les méthodes basées sur l’analyse en composantes parcimonieuses
Plusieurs méthodes de démélange basées sur la SCA ont été proposées dans la littérature. Les méthodes proposées dans [114-116] sont des approches pour démélanger chaque pixel d’une image contenant des pixels purs. Ces méthodes sont basées sur un critère de corrélation. Dans [94], les auteurs proposent le même type d’approche, applicable à des images multispectrales/hyperspectrales de télédétection spatiale, qui reposent sur l’hypothèse de présence de zones à deux sources. Dans [117], les auteurs proposent une méthode, qui permet d’extraire les spectres d’endmembers à partir d’une image hyperspectrale contenant des pixels purs, en utilisant une méthode de SCA basée sur la variance spatiale.
D’autres méthodes utilisent une approche qui permet l’estimation des spectres d’endmembers qui interviennent dans le mélange en utilisant une bibliothèque de spectres (comme par exemple la bibliothèque U.S.G.S [118] contenant plus de 1300 spectres de divers matériaux naturels, mesurés au niveau du sol par des spectroradiomètres, ou bien la bibliothèque spectrale AGC [119]). En général, ces méthodes imposent la parcimonie de la solution (elles imposent aux pixels mixtes d’être composés de peu de matériaux) en minimisant un critère sous contraintes (un des critères les plus utilisés, revient à minimiser la norme l1) [8].
Les méthodes basées sur la factorisation en matrices non-négatives
Ces méthodes sont basées sur la non-négativité des données. Elles consistent de manière générale à factoriser une matrice en un produit de deux matrices dont les coefficients sont aussi positifs. L’inconvénient majeur de ces méthodes est leur problème de non-unicité de la solution. Plusieurs méthodes ont été proposées afin d’éviter ce problème ainsi que celui de l’initialisation. Dans [120], l’algorithme NMF a été appliqué pour le démélange d’images hyperspectrales. Ce dernier met à jour alternativement les matrices des sources suivant l’hypothèse de non-négativité. Cependant, il ne tient pas compte de la contrainte d’additivité.
Il est possible de se référer aux articles suivants [8, 30, 32, 121] ainsi que les références qui y sont citées pour plus de détails sur les méthodes linéaires.
Méthodes de démélange spectral pour des mélanges non-linéaires
La plupart des procédures de démélange spectral supposent que le modèle de mélange est linéaire en raison de sa relative simplicité. Cependant, le modèle linéaire peut s’avérer insuffisant pour décrire la complexité de certains phénomènes physiques [7, 8]. Cela est le cas lorsque la lumière réfléchie par la cible interagit avec plusieurs matériaux avant de remonter vers le capteur comme illustré dans la Figure 1.5. Ce phénomène de réflexions multiples se produit généralement lorsque la scène observée présente un relief non plat (par exemple une scène urbaine) [122], ou dans le cas de présence de mélange intime (mélange homogène) (par exemple le cas des grains de sable) [123]. Dans ces conditions, un modèle non-linéaire est plus adapté pour représenter la complexité du mélange spectral.
Récemment dans la littérature, des méthodes ont été proposées pour résoudre le problème de démélange spectral en palliant les limitations des modèles linéaires tout en tenant compte de la non-linéarité des données traitées. Pour plus de détails sur ce type de modèles et des méthodes de démélange correspondantes il est possible de se référer à [10, 124].
Méthodes de démélange spectral pour des modèles de mélange non-linéaires non-définis
Le processus de démélange spectral est d’autant plus difficile lorsque le modèle de mélange est inconnu. Plusieurs méthodes non-linéaires ont été proposées pour résoudre ce problème sans modèle de mélange (non-linéaire) prédéfini, comprenant des méthodes non-supervisées basées sur des techniques d’apprentissage de variété [125-127]. Les approches basées sur un noyau adaptatif (Kernel-based) ont également reçu un intérêt croissant ces dernières années. Dans [123, 128], les auteurs ont proposé l’algorithme KFCLS (Kernel Fully Constrained Least Squares), qui est une généralisation de l’algorithme FCLS [105], dans lequel ils introduisent une fonction noyau dans le critère à minimiser, avec un paramètre réglable qui dépend de la linéarité du mélange, avec le but de tenir compte de la non-linéarité des mélanges.
Plus récemment, dans [129], les auteurs ont proposé un algorithme non-linéaire supervisé (RKHS (Reproducing Kernel Hilbert Spaces)) qui prend en compte les interactions non-linéaires des endmembers lorsque ces derniers sont supposés être connues a priori. Dans [130], une autre approche a été proposée, et celle-ci est basée sur une réduction de la dimension en utilisant un modèle de variable latente de processus gaussien (GPLVM (Gaussian Process Latent Variable Model)). L’algorithme proposé dans [130] estime les paramètres du noyau, les spectres des endmembers et les abondances.
Dans la suite de ce manuscrit, nous nous intéressons particulièrement au modèle de mélange linéaire-quadratique/bilinéaire, étant donné que ce modèle est le plus adapté pour décrire la complexité des phénomènes physiques des scènes de milieux urbains [11].
Méthodes de démélange spectral pour des modèles de mélange non-linéaires spécifiques
Il existe dans la littérature des méthodes non-linéaires de démélange spectral qui reposent sur un modèle de mélange spécifique. Ces méthodes ont pour but de tenir compte des interactions entre les différents matériaux en présence de relief, ce qui est souvent le cas pour les images acquises sur des scènes avec végétation et/ou en milieux urbains [10, 131, 132]. Nous nous intéressons dans cette section aux différents modèles non-linéaires proposés dans la littérature ainsi que les modèles sur lesquels sont basées nos approches. Nous citons par la suite quelques méthodes de démélange pour ces modèles non-linéaires.
Plusieurs modèles ont été proposés pour décrire analytiquement les interactions entre les différents matériaux présents dans une scène imagée. Cependant, ces modèles ne prennent en compte que les interactions d’ordre deux » n’impliquant que les interactions entre deux matériaux » (les interactions d’ordres supérieurs à deux sont négligées). Parmi ces modèles nous citons :
Les modèles bilinéaires
Les modèles bilinéaires ont reçu un intérêt croissant au cours des dernières années pour leur capacité à représenter le phénomène de diffusion double se produisant dans les images hyperspectrales, lorsque la lumière diffusée par un matériau donné se reflète sur d’autres matériaux avant d’atteindre le capteur.
La plupart des modèles bilinéaires proposés dans la littérature peuvent être exprimés sous la forme suivante : ∑ ∑ ∑ , ⊙ . (1.27)
|
Table des matières
INTRODUCTION GENERALE
1. L’imagerie de télédétection en observation de la Terre
2. Analyse d’images de télédétection et extraction d’informations
3. Problématiques de la thèse
4. Plan du manuscrit
PARTIE 1 : DEMELANGE SPECTRAL DES IMAGES DE TELEDETECTION SPATIALE
INTRODUCTION
CHAPITRE 1 : SEPARATION AVEUGLE DE SOURCES (SAS) ET DEMELANGE SPECTRAL
1.1. Introduction
1.2. Présentation de la Séparation Aveugle de Sources (SAS)
1.3. Les modèles de mélanges usuels
1.3.1. Mélanges linéaires
1.3.2. Mélanges non-linéaires
1.4. Méthodes de séparation de sources pour les mélanges linéaires
1.4.1. Méthodes basées sur l’Analyse en Composantes Indépendantes
1.4.2. Méthodes basées sur l’Analyse en Composantes Parcimonieuses
1.4.3. Méthodes basées sur la Factorisation en Matrices Non-négatives
1.5. Méthodes de séparation de sources pour les mélanges non-linéaires
1.6. Le démélange spectral
1.6.1. Méthodes de démélange spectral pour le mélange linéaire
1.6.1.1. Méthodes géométriques de démélange spectral
1.6.1.2. Les méthodes basées sur l’analyse en composantes indépendantes
1.6.1.3. Les méthodes basées sur l’analyse en composantes parcimonieuses
1.6.1.4. Les méthodes basées sur la factorisation en matrices non-négatives
1.6.2. Méthodes de démélange spectral pour des mélanges non-linéaires
1.6.2.1. Méthodes de démélange spectral pour des modèles de mélange non-linéaires non-définis
1.6.2.2. Méthodes de démélange spectral pour des modèles de mélange non-linéaires spécifiques
1.7. Conclusion
CHAPITRE 2 : METHODES NON-LINEAIRES DE DEMELANGE SPECTRAL PROPOSEES
2.1. Introduction
2.2. Modèle mathématique de données
2.3. Méthodes proposées
2.3.1. Critère optimisé
2.3.2. Première méthode proposée : méthode à gradient projeté
2.3.2.1. Algorithme pour mélanges bilinéaires
2.3.2.2. Algorithme pour mélanges linéaire-quadratiques
2.3.3. Deuxième méthode proposée : méthode multiplicative
2.3.3.1. Algorithme multiplicatif pour mélanges bilinéaires
2.3.3.2. Algorithme multiplicatif pour mélanges linéaire-quadratiques
2.4. Conclusion
CHAPITRE 3 : TESTS ET PERFORMANCES
3.1. Introduction
3.2. Protocoles de test
3.2.1. Initialisation des algorithmes
3.2.1.1. Initialisations sans information a priori (init 1)
3.2.1.2. Initialisation avec information a priori (init 2)
3.2.2. Critères de performances
3.3. Résultats et discussion
3.3.1. Test 1
3.3.1.1. Résultats avec l’initialisation init 1
3.3.1.2. Résultats avec l’initialisation init 2
3.3.2. Test 2
3.4. Conclusion
CONCLUSION ET PERSPECTIVES
PARTIE 2 : FUSION D’IMAGES DE TELEDETECTION SPATIALE
INTRODUCTION
CHAPITRE 1 : ÉTAT DE L’ART EN FUSION D’IMAGES DE TELEDETECTION SPATIALE
1.1. Introduction
1.2. Hypothèses
1.3. Méthodes de Pansharpening
1.3.1. Les méthodes à substitution de composantes
1.3.2. Les méthodes d’analyse multirésolution
1.3.3. Les méthodes variationnelles
1.4. Méthodes de Multisharpening
1.4.1. Les méthodes bayésiennes
1.4.2. Méthodes fondées sur la Factorisation en Matrices Non-négatives
1.4.2.1. Méthode dite Coupled Non-negative Matrix Factorization (CNMF)
1.4.2.2. Méthode dite Joint Non-negative Matrix Factorization (JNMF)
1.5. Conclusion
CHAPITRE 2 : METHODES PROPOSEES POUR LE MULTISHARPENING
2.1. Introduction
2.2. Modèle mathématique de données
2.2.1. Rappel sur le modèle mathématique d’une image de télédétection
2.2.2. Modèles mathématiques des images considérées
2.3. Les méthodes de multisharpening proposées
2.3.1. Critères optimisés
2.3.2. Première méthode proposée
2.3.2.1. Première approche : HMF-LQNMF
2.3.2.2. Deuxième approche : CHMF-LQNMF
2.3.2.3. Troisième approche : JHMF-LQNMF
2.3.2.4. Quatrième approche : Multi-JCLQNMF
2.3.3. Deuxième méthode proposée
2.4. Conclusion
CHAPITRE 3 : TESTS ET PERFORMANCES
3.1. Introduction
3.2. Protocoles de tests
3.2.1. Données testées
3.2.1.1. Données synthétiques
3.2.1.2. Données réelles
3.2.2. Initialisation des algorithmes
3.2.3. Critères de performances
3.3. Résultats et discussion
3.3.1. Performances de l’approche HMF-LQNMF
3.3.1.1. Résultats avec les données synthétiques
3.3.1.2. Résultats avec les données réelles
3.3.2. Comparaison des performances des méthodes proposées
3.3.2.1. Résultats avec les données synthétiques
3.3.2.2. Résultats avec les données réelles
3.4. Conclusion
CONCLUSION ET PERSPECTIVES
CONCLUSION GENERALE
REFERENCES BIBLIOGRAPHIQUES
PUBLICATIONS SCIENTIFIQUES DE L’AUTEUR
Télécharger le rapport complet