Travaux sur les signatures spectrales

Contexte :l’agriculture de prรฉcision

ย  L’agriculture traditionnelle consiste, gรฉnรฉralement, ร  utiliser des engrais sur l’ensemble d’un champ ร  cultiver pour permettre une meilleure production, sans distinction des rรฉels besoins nutritifs des diffรฉrentes parties du champ. Ainsi, il se peut fort bien que seulement un tiers du champ ait besoin d’engrais; mais par commoditรฉ et/ou habitude, tout le champ seraยซ aspergรฉยป. S’en suit alors une pollution des sols plus importante. Dans le contexte actuel de notre sociรฉtรฉ qui se veut et se doit d’รชtre de plus en plus รฉcologique et environnementaliste, une nouvelle maniรจre de concevoir l’agriculture a รฉtรฉ pensรฉe: l’agriculture de prรฉcision. Le leitmotiv de cette nouvelleยซ philosophieยป agricole est d’ajouter la bonne dose (d’engrais, de dรฉsherbant ou autres produits) seulement au bon endroit et seulement au bon moment. En d’autres termes, cela revient, d’une part, ร  non plus penser un champ dans sa globalitรฉ mais par ses subdivisions ou parcelles; et, d’autre part, ร  combler les carences de chacune de ces parcelles de terre de maniรจre plus individuelle et privilรฉgiรฉe. Les intรฉrรชts de cette nouvelle faรงon de penser sont รฉvidemment d’ordre รฉcologique (diminution de la pollution des sols par inflitration) et รฉconomique (rรฉduction de coรปts pour l’agriculteur). Pour identifier les carences locales et les combler, il est primordial de connaรฎtre la constitution du sol. Une fois celle-ci connue et ร  partir de l’expertise des biologistes et agriculteurs qui connaissent les รฉlรฉments nรฉcessaires ร  une bonne pousse, il devient รฉvident de savoir ce qu’il faut modifier : les รฉlรฉments (engrais, … ) ร  rajouter et leurs quantitรฉs. C’est une adaptation personnalisรฉe ร  chaque parcelle. L’objectif est donc de savoir ce que contient le sol, localement. Pour ce faire, on va, tout d’abord, mentalement subdiviser le champ en parcelles pour ainsi satisfaire ร  la problรฉmatique de la localitรฉ (il sera montrรฉ plus tard que ce n’est pas si mental que รงa, mais dรฉpendant de la rรฉsolution de la camรฉra). Dans un deuxiรจme temps, le but est de rechercher ce que l’on appelle les signatures spectrales de ces parcelles, pour satisfaire ร  la problรฉmatique de leur contenu.

Signature spectrale

La signature spectrale d’un รฉlรฉment, qu’il soit humain, animal, vรฉgรฉtal ou minรฉral. .. , reprรฉsente son comportement, sa rรฉponse unique ร  un rayonnement lumineux; c’est-ร -dire la faรงon dont un corps rรฉagit, รฉmet sous l’incidence d’un rayonnement รฉlectromagnรฉtique, qui est constituรฉ d’รฉnergie transportรฉe sur une plage รฉtendue de longueurs d’ondes. On appelle signature spectrale la rรฉponse sur cette plage et rรฉflectance la rรฉponse pour une longueur d’onde donnรฉe. Ainsi, une signature spectrale (voir l’exemple de l’actinolite, signature issue deยซ United States Geological Survey ยป (USGS), figure 1)1 est un signal unidimensionnel qui reprรฉsente la rรฉftectance en fonction des longueurs d’ondes des bandes spectrales utilisรฉes (typiquement ici de 0,2 ร  3 p,m, soit du proche ultra-violet ร  l’infrarouge). ร€ noter que, puisque la rรฉftectance est le rapport de ce qui est รฉmis par ce qui est reรงu, sa valeur est normalisรฉe et donc comprise entre 0 et 1. Il en va de mรชme par consรฉquent pour la signature spectrale. Ce qu’il est primordial de comprendre est le fait que, pour une condition d’รฉclairement donnรฉe, ร  un รฉlรฉment correspond une et une seule signature spectrale et rรฉciproquement ! Par exemple, les pics et bosses de la figure 1 sont typiques de l’ actinolite; et seule l’ actinolite prรฉsente cette signature. Le terme ยซsignatureยป prend alors tout son sens. De mรชme, les os sont visibles aux rayons X, alors que les รชtres humains ne le sont pas, mais le sont dans le visible … Ainsi, connaรฎtre les signatures spectrales d’une parcelle nous renseigne de faรงon unique et parfaite sur la nature des รฉlรฉments qui y sont prรฉsents. Cette phrase est la phrase-clรฉ du mรฉmoire de maรฎtrise car grรขce ร  elle, on transforme le problรจme agricole, sur le terrain, en un problรจme thรฉorique, mathรฉmatique, de traitement du signal, comme il le sera expliquรฉ plus tard.

Indรฉpendance et gaussianitรฉ font mauvais mรฉnage

ย  ร€ partir de l’รฉquation (1.56), nous pouvons รฉnoncer deux idรฉes majeures sur la nature des ยซaffinitรฉsยป, plutรดt frigides, devant exister entre indรฉpendance et gaussianitรฉ pour rรฉsoudre un problรจme d’AC!:
a. on recherche les sources les moins gaussiennes possibles;
b. il faut qu’au plus une le soit (condition nรฉcessaire, non suffisante).

Sources les moins gaussiennes possibles Si l’on considรจre la propriรฉtรฉ mathรฉmatique de la non-gaussianitรฉ, invariante par transformation linรฉaire (soit G(Y) = G(A -lX) = G(X)), on peut remarquer que, vu que X est constant, G(X) et donc G(Y) le sont รฉgalement. On obtient ainsi la propriรฉtรฉ suivante (Cardoso, 2002) : ยซminimiser la dรฉpendance I (Y) revient ร  minimiser la corrรฉlation C(Y) tout en maximisant la non-gaussianitรฉ G(Yi) de chacune des composantes Yi de ย Y (non-gaussianitรฉs marginales)ยป. En d’autres termes (Cardoso, 2004a), ยซ les composantes linรฉaires indรฉpendantes recherchรฉes sont celles qui sont les plus dรฉcorrรฉlรฉes et les moins gaussiennes possibles 1 ยป.Ce rรฉsultat, qui reprรฉsente l’idรฉe essentielle de l’ ACI, met en lumiรจre la direction ร  suivre pour rรฉsoudre un problรจme d’ ACI : maximiser la non-gaussianitรฉ.
Au plus une source gaussienne On sait que dans le cas de variables gaussiennes, indรฉpendance et dรฉcorrรฉlation sont รฉquivalentes. En dรฉcoule alors une autre propriรฉtรฉ importante de l’ ACI: il est impossible d’extraire les composantes indรฉpendantes si plus d’une source est gaussienne. Deux critรจres permettent de dรฉmontrer ce thรฉorรจme quand toutes les sources sont gaussiennes (la propriรฉtรฉ une au plus vient de Linnik (Cardoso, 2004b)) : le thรฉorรจme de la limite centrale et la faiblesse de la dรฉcorrรฉlation face ร  l’indรฉpendance. En outre, pour appuyer, si besoin รฉtait, l’idรฉe de l’antipathie existant entre gaussianitรฉ et ACI, les conditions d’existence et d’unicitรฉ de la dรฉcomposition ACI sont prรฉsentรฉes en annexe 1, section 6. On y montre qu’il en existe une infinitรฉ quand X est gaussienne, alors qu’elle est unique quand X =AS, avec S, composรฉe de sources indรฉpendantes.

Types d’algorithmes

ย  Trois types d’algorithmes existent (Hyvarinen et Oja, 1997; Hyvarinen, 1997a):
a. les algorithmes parยซ lotsยป (ouยซ batch-mode algorithm ยปen anglais);
b. les algorithmes adaptatifs;
c. les algorithmes du point fixe (ou ยซ fixed-point algorithms ยป (FP) en anglais). Les algorithmes par lots sont basรฉs sur la minimisation ou maximisation de fonctions de contraste, ne faisant intervenir que les cumulants d’ordre plus รฉlevรฉs (Cardoso, 1992; Comon, 1994). Ceux-ci sont parmi les premiers ร  avoir รฉtรฉ implantรฉs historiquement, donc, bien que performants ร  l’รฉpoque, leurs capacitรฉs actuelles s’avรจrent limitรฉes. En effet, ils nรฉcessitent des opรฉrations matricielles difficiles (notions de tenseurs matriciels (Cardoso et Camon, 1996; De Lathauwer et al., 2000)), donc une charge informatique รฉlevรฉe et sont sensibles aux valeurs aberrantes; c’est pourquoi les algorithmes adaptatifs leur sont prรฉfรฉrรฉs. Ces derniers sont basรฉs sur des mรฉthodes de gradient stochastiques (gรฉnรฉralement, descente de gradient), dont les implรฉmentations peuvent รชtre assimilables ร  celles de rรฉseaux de neurones; dans le sens oรน B ou bi sont considรฉrรฉs comme les poids mis ร  jour du rรฉseau (Amari et al., 1996; Bell et Sejnowski, 1995b; Delfosse et Loubaton, 1995; Hyvarinen et Oja, 1996a; Jutten et Herault, 1991; Cichocki et al., 1996). Mรชme si plus efficaces que les prรฉcรฉdents, ces algorithmes prรฉsentent le dรฉfaut de converger lentement vers la solution et รฉgalement d’รชtre sensible aux valeurs aberrantes. Pour y remรฉdier, une troisiรจme forme a รฉtรฉ dรฉveloppรฉe par Hyvarinen (Hyvarinen, 1999a; Hyvarinen et Oja, 1997; Hyvarinen, 1999b, 1997a; Hyvarinen et Oja, 1996a): les algorithmes du point fixe, basรฉs sur le kurtosis ou la nรฉgentropie. Son nom (point fixe) vient du fait que la rรจgle rรฉcursive, comme nous le verrons en dรฉtail dans le chapitre 3, prรฉsente la forme caractรฉristique d’une รฉquation du type point fixe (ou encore appelรฉยซ principe de contraction de Banachยป) en B; ร  savoir B = f(B), avec f une fonction convergente. Pour mener ร  bien nos expรฉrimentations, nous avons dรฉcidรฉ d’opter pour l’algorithme FastiCA de Hyvarinen, qui est une forme de l’algorithme du point fixe. Nous en donnons les raisons dans la partie suivante, oรน les algorithmes principaux de l’ ACI sont comparรฉs avec l’algorithme du point-fixe.

Comparaison des diffรฉrents algorithmes

ย  ย Avant de commencer, notons que toutes les informations, qui vont รชtre รฉnoncรฉes dans la suite, notamment la dรฉfinition des algorithmes, leurs performances, sont expliquรฉes plus en dรฉtail dans l’annexe 4 et dans (Giannakopoulos et al., 1999b; Giannakopoulos, 1998; Giannakopoulos et al., 1998, 1999a; Karhunen, 1996; Karhunen et al., 1997); c’est pourquoi seuls les grandes propriรฉtรฉs et rรฉsultats seront explicitรฉs dans cette partie.
Algorithmes considรฉrรฉs
Les algorithmes comparรฉs dans ces articles sont :
a. les algorithmes du point fixe (FP), dรฉfinis par une non-linรฉaritรฉ (dรฉrivรฉe de la fonction G (voir 1.8.3.3)) et une mรฉthode. Ici, la non linรฉaritรฉ gรฉnรฉralement utilisรฉe est la tangente hyperbolique (tanh) avec la mรฉthode dรฉflation (FPth) ou symรฉtrique (FPsymth);
b. l’algorithme naturel du gradient ACY, du nom de ses trois concepteurs AmariCichocki-Yang (Amari et al., 1996);
c. l’algorithme รฉtendu de Bell et Sejnowski, ExtBS (ยซ Extended Bell Sejnowski ยปen anglais), algorithme de gradient basรฉ sur le critรจre de l’infomax (Bell et Sejnowski, 1995b; Girolami et Fyfe, 1997);
d. l’ algorithme EASI de Cardoso et Laheld ( Cardoso et Laheld, 1996) pour ยซ Eq uivariant Adaptive Separation via Independence ยป en anglais; soit, en franรงais, algorithme qui rรฉalise la sรฉparation adaptative รฉquivariante de sources indรฉpendantes;
e. l’algorithme NPCA-RLS (Karhunen et Pajunen, 1997b; Pajunen et Karhunen, 1998; Karhunen et Pajunen, 1997a) pourยซ Nonlinear Principal Componentย  Analysis by Recursive Least Squares ยป ; soit, en franรงais, une ACP par une technique rรฉcursive des moindres carrรฉs. Nous rappelons que nous ne donnons ici pas plus de dรฉtails sur ces algorithmes (se rรฉfรฉrer ร  l’annexe 4 si besoin est). Aprรจs les avoir prรฉsentรฉs, nous allons maintenant juger de leurs performances pures.
Performances des algorithmes D’un point de vue protocolaire, les algorithmes sont comparรฉs sur des donnรฉes gรฉnรฉrรฉes artificiellement, constituรฉes de mรฉlanges de signaux de base (sinusoรฏdes, dents de scie, … ). Les proportions des mรฉlanges sont connues (en d’autres termes, la matrice de mรฉlange A est connue) car le but est de comparer les algorithmes sur les propriรฉtรฉs de prรฉcision et de vitesse de calcul. Ainsi, en connaissant A, on cannait initialement S et il est alors facile de comparer les composantes indรฉpendantes rendues par chaque algorithme avec les signaux de S. Le critรจre d’erreur utilisรฉ est l’indice de performance E1, tel que prรฉsentรฉ en 1.6.4. Nous nous intรฉressons aux trois critรจres suivants : la prรฉcision, la charge informatique etl’erreur en fonction du nombre de sources. Les figures sont issues de (Giannakopoulos et al., 1999b; Giannakopoulos, 1998).

Consรฉquence: choix du FastiCA

ย  ย Si l’on rรฉcapitule toutes les propriรฉtรฉs dรฉductibles des trois tests rรฉalisรฉs, on en arrive ร  la conclusion que, globalement, le meilleur algorithme est l’algorithme ร  point fixe symรฉtrique ร  non linรฉaritรฉ en tangente hyperbolique (FPsymth). Vu qu’il est le plus rapide des algorithmes considรฉrรฉs, son concepteur Hyviirinen lui a donnรฉ l’appelation ยซ FastiCA 1 ยป. Ce Fas tl CA apparaรฎt donc finalement ร  la fois comme l’algorithme le plus rapide pour converger, nรฉcessitant le moins d’opรฉrations et relativement peu sensible ร  l’augmentation du nombre de sources. Ces trois raisons majeures justifient donc parfaitement le fait qu’il ait รฉtรฉ choisi comme routine ร  notre programme Matlab sur lequel est basรฉ notre projet de maรฎtrise. De plus, anecdotiquement, nous avons choisi FastiCA car, au prรฉalable, probablement pour les raisons รฉvoquรฉes plus haut, Luis Da Costa, un รฉtudiant en Ph.D. de 1 ‘ร‰TS, qui travaillait sur ce projet avant moi, avait dรฉveloppรฉ du code Matlab ร  partir de cette routine FastiCA. Nous avons poursuivi et amรฉliorรฉ le travail de programmation, ร  partir de ses travaux et ceux d’Hyvarinen. Maintenant que nous avons ยซrรฉglรฉ ยป la problรฉmatique matรฉrielle de notre mรฉmoire, nous pouvons nous intรฉresser ร  1′ รฉtat de l’art des applications de l’ ACI. On rappelle qu’il existe de nombreuses applications ร  l’ ACI, principalement issues de la sรฉparation aveugle de sources. Dans la suite, nous ne dรฉveloppons pas les applications dรฉjร  citรฉes mais nous nous concentrons uniquement sur l’application concernant les signatures spectrales. Comme nous allons le constater, les papiers scientifiques ne sont pas lรฉgions sur ce sujet.

Le rapport de stage ou le pfe est un document dโ€™analyse, de synthรจse et dโ€™รฉvaluation de votre apprentissage, cโ€™est pour cela chatpfe.com propose le tรฉlรฉchargement des modรจles complet de projet de fin dโ€™รฉtude, rapport de stage, mรฉmoire, pfe, thรจse, pour connaรฎtre la mรฉthodologie ร  avoir et savoir comment construire les parties dโ€™un projet de fin dโ€™รฉtude.

Table des matiรจres

ABSTRACT
AVANT-PROPOS ET REMERCIEMENTS
LISTE DES TABLEAUX
LISTE DES FIGURES
LISTE DES ALGORITHMES
LISTE DES ABRร‰VIATIONS ET SIGLES
INTRODUCTION
CHAPITRE 1 ANALYSE EN COMPOSANTES INDร‰PENDANTESย 
1.1 Dรฉfinitionย 
1.2 Sรฉparation aveugle de sourcesย ย 
1.2.1 Le cocktail-party
1.2.2 Hypothรจse d’indรฉpendance
1.2.3 Illustration
1.3 Applicationsย ย 
1.4 Modรจle mathรฉmatiqueย 
1.4.1 Modรจle vectoriel
1.4.1.1 x, set a
1.4.1.2 Modรจle bruitรฉ
1.4.1.3 y et b
1.4.2 Modรจle matriciel
1.4.2.1 X,SetA
1.4.2.2 Y et B
1.4.2.3 Approches et estimรฉes
1.5 Conditionsย ย 
1.5.1 Au moins autant de mรฉlanges que de sources
1.5.2 A matrice de rang plein
1.5.3 Indรฉpendance statistique des composantes
1.5.4 Au plus une source gaussienne
1.6 Ambiguรฏtรฉs
1.6.1 Ordre
1.6.2 ร‰nergies
1.6.3 Matrice globale G
1.6.4 Indice de performance E1
1.7 Indรฉpendance
1.7.1 Dรฉfinition mathรฉmatique
1.7.2 Mesure d’indรฉpendance: l’information mutuelle
1.7.3 Dรฉpendance, corrรฉlation et non-gaussianitรฉ
1.7.3.2 Non-gaussianitรฉ
1.7.3.3 Corrรฉlation
1.7.3.4 ร‰quation caractรฉristique
1. 7.4 Indรฉpendance et gaussianitรฉ font mauvais mรฉnage
1.7.4.1 Sources les moins gaussiennes possibles
1.7.4.2 Au plus une source gaussienne
1. 7.5 Conclusion
1.8 Fonctions de contrasteย ย 
1.8.1 Statistiques d’ordres plus รฉlevรฉs
1.8.2 Kurtosis
1.8.3 Nรฉgentropie
1.8.3.1 Rappel sur l’entropie
1.8.3.2 Dรฉfinition
1.8.3.3 Approximations
1.8.4 Autres
1.8.4.1 Information mutuelle
1.8.4.2 Maximum de vraisemblance
1.8.4.3 Infomax
CHAPITRE 2 ร‰TAT DE L’ARTย 
2.1 Choix de l’algorithme ACI
2.1.1 Problรฉmatique
2.1.1.1 Mรฉthode d’estimation
2.1.1.2 Types d’algorithmes
2.1.2 Comparaison des diffรฉrents algorithmes
2.1.2.1 Algorithmes considรฉrรฉs
2.1.2.2 Performances des algorithmes
2.1.3 Consรฉquence : choix du Fast! CA
2.2 Travaux sur les signatures spectrales
2.2.1 Prรฉambule : la sรฉgrรฉgation hyperspectrale
2.2.2 Analogie avec l’ ACI
2.2.3 Mรฉthode des fractions d’abondance
2.2.3.1 Justification
2.2.3.2 Modรจle
2.2.3.3 Travaux
2.2.4 Mรฉthode des signatures spectrales
2.2.4.1 Modรจle
2.2.4.2 Travaux
2.3 Conclusionsย 
CHAPITRE 3 ALGORITHMES DU POINT FIXEย 
3.1 Prรฉtraitementย ย 
3.1.1 Centrer X
3.1.2 Blanchiment
3.2 Analogie avec les rรฉseaux de neuronesย 
3.3 Algorithmes du point fixeย ย 
3.3.1 Pour une composante
3.3.1.1 Convergence
3.3.1.2 Basรฉ sur le kurtosis
3.3.1.3 Basรฉ sur la nรฉgentropie
3.3.2 Pour toutes les composantes
3.3.2.1 Mรฉthode dรฉflation
3.3.2.2 Mรฉthode symรฉtrique
3.3.2.3 Propriรฉtรฉs du Fasti CA
3.4 Sortie du FastiCAย ย 
CHAPITRE 4 PROTOCOLE EXPร‰RIMENTALย 
4.1 Gรฉnรฉralitรฉs
4.1.1 Approches
4.1.2 Validitรฉ des rรฉsultats
4.1.3 Mise au point lexicale
4.1.4 Confiances
4.2 Prรฉtraitementย 
4.2.1 Conformitรฉs statistiques avec le modรจle
4.2.2 Formation de A
4.3 Application de l’ ACIย 
4.4 Post-traitement
4.4.1 Partie thรฉorique
4.4.1.1 Matrice Go,I
4.4.1.2 Confiance thรฉorique
4.4.2 Partie pratique
4.4.3 Pourcentage de succรจs
4.4.4 Mesures globales d’erreur
4.4.4.1 Erreur E1 et confiances globales
4.4.4.2 Erreur EA
4.5 Variables finales interprรฉtables
4.5.1 Nature
4.5.2 Erreur standard
4.5.3 Explications de la sรฉlection
4.6 Algorithme
4.7 Exemple d’application du protocole expรฉrimentalย 
A 7 1 Partie thรฉorique
4.7.2 Partie pratique
4.7.3 Succรจs d’associations
4.7.4 Erreurs E1 et EA
CHAPITRE 5 DISCUSSION ET INTERPRร‰TATION DES Rร‰SULTATS
5.1 Valeurs des paramรจtresย 
5.2 Donnรฉesย 
5.2.1 Images en niveaux de gris
5.2.2 Signaux de base
5.2.3 Signatures spectrales
5.2.4 Valeurs de (k, E) en fonction de la nature des donnรฉes
5.3 Commentaires de forme sur les tableaux de rรฉsultatsย 
5.4 Remarques gรฉnรฉralesย 
5.4.1 Cas particulier den = 2
5.4.2 Convergence
5.4.3 Rรฉsultats sur A
5.4.3.1 Uniformitรฉ en A
5.4.3.2 Erreur EA
5.4.4 Dรฉpendance ร  la nature de la combinaison
5.5 Interprรฉtation des valeurs de confiances
5.5.1 Nรฉcessitรฉ pour la distinction des cas d’associations parfaites
5.5.2 Condition non suffisante
5.5.3 Philosophie de la prise de dรฉcision
5.5.4 Valeurs des seuils empiriques locaux
5.6 Rรฉsultats particuliers
5.6.1 Images en niveaux de gris
5.6.1.1 Cas n = 2
5.6.1.2 Cas n = 3
5.6.1.3 Cas n = 4
5.6.2 Signaux de base
5.6.2.1 5 signaux
5.6.2.2 4 signaux
5.6.3 Signatures spectrales
5.6.3.1 Cas n = 2
5.6.3.2 Cas n = 3
5.6.3.3 Cas n = 4
5.6.4 Bilan
5.7 Note positive finale
CONCLUSION
RECOMMANDATIONS
ANNEXES
1 : Indรฉpendance
2: ACI versus ACP et PP
3 : Moments et cumulants
4 : Algorithmes de 1′ A CI
5 : Neutralisation des deux premiers moments d’une matrice
6 : Signatures spectrales USGS
7 :Tableaux de rรฉsultats
BIBLIOGRAPHIE

Rapport PFE, mรฉmoire et thรจse PDFTรฉlรฉcharger le rapport complet

Tรฉlรฉcharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiรฉe. Les champs obligatoires sont indiquรฉs avec *