Segmentation conjointe de signaux astronomiques
Brève taxinomie des méthodes de segmentation
Les problèmes de détection de changements ont reçu un intérêt considérable dans la communauté du traitement du signal, et ce depuis plus de 25 ans. Une bibliographie complète des références publiés avant 2000 peut être trouvée dans les livres de Basseville et Nikiforov [BN93], Brodsky et Darkhovsky [BD93] ou Gustafsson [Gus00]. Cependant, depuis 2000, la mise en œuvre de nouveaux algorithmes performants s’avère possible, grâce notamment aux importantes charges calculatoires désormais supportées par les outils informatiques. D’une manière générale, on distingue deux types d’algorithme de segmentation. La première classe de méthodes consiste en un traitement séquentiel des données observées, à mesure de leur disponibilité. On parle alors de segmentation « en ligne» : pour un taux de fausse alarme donné, un critère de décision est calculé successivement sur les portions de signal [y1, . . . , yi ], puis [y1, . . . , yi+1], puis [y1, . . . , yi+2] etc…, jusqu’à ce qu’un changement soit détecté. Un grand nombre de ces algorithmes sont basés sur des tests d’hypothèses statistiques mettant en jeu des rapports de vraisemblance. Nous citerons par exemple les algorithmes CUSUM pour Cumulative Sum [BN93, p. 35] et GLR pour Generalized Likelihood Ratio [Nik01; WW04]. Notons que d’autres algorithmes de segmentation en ligne reposent par exemple sur des méthodes à noyau [DDD05] ou sur des techniques de filtrage [DF98; FL07].
Le travail de thèse rapporté dans ce manuscrit se concentre sur un deuxième type d’algorithme : les procédures de segmentation hors-ligne. Dans ce cas, nous supposons que l’ensemble du signal observé [y1, . . . , yN ] est connu. Il convient alors de déceler un ou plusieurs changements dans l’ensemble de cette séquence, de manière « rétrospective » (terme employé notamment par Inclan dans [IT94] et Rotondi dans [Rot02]). Là encore, une dichotomie des algorithmes de segmentation hors-ligne peut être opérée. Un grand nombre de stratégies développées se base sur une approche par sélection de modèle. Les algorithmes les plus connus sont basés sur les critères Cp introduit par Mallows [Mal73], AIC (Akaike Information Criterion [Aka74]) et BIC (Bayesian Information Criterion [Sch78]). Une description paramétrique est proposée, incluant les positions des ruptures entre un nombre inconnu de segments. Les changements sont alors estimés par optimisation d’un critère pénalisé approprié [Lav99; LM00]). Cette pénalisation, portant par exemple sur le nombre total de segments, permet de s’affranchir des problèmes de sur segmentation. Plusieurs études ont été menées afin de choisir au mieux le terme de pénalisation [Lav98; LL00; BM01; Lav05; Leb05]. Une alternative à cette démarche de pénalisation réside en une formulation bayésienne du problème. Il est alors nécessaire de définir des lois a priori pour les paramètres inconnus. Ces lois induisent implicitement une pénalisation du terme d’attache aux données représenté par la vraisemblance. Comme nous l’avons précisé plus haut, l’utilisation de méthodes MCMC s’avère alors souvent nécessaire [MT93; Dju94; Chi98; LM99; WW03]. L’estimation des hyperparamètres est alors possible en introduisant un deuxième niveau de hiérarchie dans l’inférence [CGS92; Cap02].
Position du problème
Très peu de travaux issus de la littérature du traitement du signal sont consacrés à la segmentation de séries astronomiques. Pourtant, détecter les changements de brillance de différents objets est un problème fondamental en astronomie pour l’analyse temporelle des activités galactique et extragalactique. Au début des années 1990, la NASA a lancé le satellite CGRO afin d’étudier plus précisément un phénomène méconnu jusqu’alors : les sursauts gamma. Embarqué à son bord, un instrument, appelé BATSE , a pour mission d’enregistrer les instants d’arrivée des photons sur un capteur photo-sensible dans quatre bandes d’énergies différentes.
Un algorithme bayésien itératif basé sur un modèle de Poisson constant par morceaux a été récemment étudié pour résoudre ce problème [Sca98]. L’idée principale de cet algorithme est de décomposer le signal observé en deux sous-intervalles (en optimisant un critère approprié basé sur un rapport de vraisemblance), d’appliquer la même procédure sur les deux segments obtenus et de continuer cette opération autant de fois que nécessaire. L’avantage majeur de cette procédure est de choisir une seule rupture à chaque étape. Cependant, la performance de l’algorithme est limitée par sa complexité calculatoire et par le fait qu’une règle d’arrêt judicieuse a besoin d’être définie. L’algorithme à ruptures multiples présenté dans [JSB+05] permet de dépasser ces limitations, mais nécessite la connaissance d’une information a priori sur le nombre de ruptures. Il a également l’inconvénient de ne pas fournir automatiquement d’information sur la précision des paramètres déterminés de façon optimale. Un autre inconvénient des algorithmes présentés dans [Sca98] et [JSB+05] est qu’ils ne permettent pas de traiter simultanément les quatre séquences de données fournies par le capteur BATSE. Ce chapitre étudie un nouvel algorithme de segmentation bayésienne qui ne nécessite pas de règle d’arrêt et qui permet de segmenter conjointement plusieurs signaux issus de capteurs multiples. La stratégie proposée repose sur un modèle hiérarchique qui suppose que des lois a priori pour les paramètres inconnus sont disponibles. Des lois a priori vagues sont choisies pour les hyperparamètres qui sont soit intégrés dans la loi a posteriori dès que cela est possible, soit estimés grâce aux données observées. Des méthodes MCMC sont utilisées pour générer des échantillons distribués suivant la loi a posteriori. Les estimateurs bayésiens sont finalement calculés à partir de ces échantillons simulés. La méthodologie proposée est similaire au modèle bayésien hiérarchique développé dans [PADF02]. Pourtant, il convient de noter les deux points suivants. La méthode présentée dans [PADF02] traite de modèles de régression linéaire entachés d’un bruit additif gaussien et ne peut donc pas être directement appliquée à des données poissonniennes. Notre méthode peut donc être considérée comme une adaptation de cette approche à des données distribuées suivant une loi de Poisson. D’autre part, la procédure de segmentation que nous détaillons ici permet la segmentation conjointe de séquences enregistrées par plusieurs capteurs, ce qui n’était pas possible avec l’algorithme proposé dans [PADF02]. C’est, à notre connaissance, la première fois qu’un algorithme totalement bayésien est développé pour la segmentation conjointe de données poissonniennes.
Mises en forme des données
Comme cela est détaillé dans [Sca98], les données brutes fournies par des outils comme BATSE sont les temps d’arrivées de P photons {tp, p = 1, . . . , P} sur la surface sensible de l’appareil. Ces données peuvent être mises en forme selon différents modèles qui sont détaillés ci-après. Le mode TTE (Time-Tagged Event) est couramment utilisé en astronomie. Il suppose la connaissance d’une période d’échantillonnage δt qui correspond à la résolution temporelle de l’appareil. Cette constante est le délai minimal qui sépare l’arrivée de deux photons détectés. En d’autres termes, c’est le temps nécessaire au dispositif pour qu’il redevienne opérationnel après avoir détecté une particule. Ce temps est généralement très court comparé au phénomène astronomique qui nous intéresse (pour BATSE, δt = 2µs). Ainsi, les données observées pendant la durée T = Mδt sont représentées par leur indice d’arrivée DTTE = {mp, p = 1, . . . , P}, où tp = mpδt est le temps d’arrivée du p ième photon. Une représentation élégante de ce mode consiste à introduire un processus binaire Xm (m = 1, . . . , M) tel que :
Xm = 1 si un photon est détecté à l’instant mδt,
Xm = 0 sinon.
Ainsi Xm peut-il être considéré comme un processus de Bernoulli avec P0 = P[Xm = 0] et P1 = 1−P0. Bien sûr, le mode TTE fournit les données les plus résolues du point de vue temporel. Cependant, les données binaires TTE semblent trop volumineuses pour donner lieu à une analyse facilement exploitable. La deuxième manière de représenter les données est appelée Time-To-Spill (TTS). Pour réduire le volume occupé par les données brutes, seuls sont conservés les temps d’arrivée tous les S photons, où S est un entier (pour BATSE, S = 64). Les données disponibles sont alors les temps qui séparent l’arrivée de S photons consécutifs, DTTS = {τl , l = 0, . . . , L − 1}, où τlδt est le temps écoulé entre l’enregistrement des (lS + 1)-ième et (lS +S)-ième photons.
|
Table des matières
Introduction
1 Segmentation conjointe de signaux astronomiques
1.1 Brève taxinomie des méthodes de segmentation
1.2 Position du problème
1.3 Mises en forme des données
1.4 Description du modèle bayésien hiérarchique
1.5 Échantillonneur de Gibbs pour la détection de ruptures
1.6 Diagnostic de convergence
1.7 Segmentation de données synthétiques
1.8 Analyse de données astronomiques réelles
1.9 Conclusions
2 Segmentation conjointe de processus autorégressifs
2.1 Introduction
2.2 Modèle bayésien hiérarchique
2.3 Échantillonneur de Gibbs pour la segmentation conjointe de processus AR
2.4 Segmentation de données synthétiques
2.5 Modèles alternatifs
2.6 Ordres des modèles inconnus
2.7 Applications
2.8 Conclusions
3 Démélange linéaire d’images hyperspectrales
3.1 Introduction
3.2 Modèle de mélange linéaire
3.3 Modèle bayésien hiérarchique
3.4 Échantillonneur de Gibbs pour l’estimation des abondances
3.5 Résultats de simulations sur des données synthétiques
3.6 Démélange spectral d’une image AVIRIS
3.7 Cas d’un bruit gaussien corrélé
3.8 Estimation du nombre de pôles de mélange à l’aide d’un algorithme à sauts réversibles
3.9 Conclusions
Conclusions