L’ACTIVITÉ CÉRÉBRALE
Le problème inverse
Le problème inverse en imagerie cérébrale consiste à trouver la source de l’activité cérébrale à partir de mesures acquises à l’extérieur du crâne. La résolution de ce problème est complexe et demeure un sujet de recherche en constante évolution. La complexité du problème vient principalement du fait qu’il existe une infinité de configurations de sources qui expliquent le potentiel électrique mesuré EEG ou qui expliquent le champ magnétique mesuré en MEG. Au cours des vingt dernières années, deux approches de résolution du problème inverse ont été développées : les méthodes dipolaires et les méthodes distribuées. Les méthodes dipolaires simplifient l’activité cérébrale à l’aide de quelques sources seulement. Une source se modélise par un dipôle dont la position, l’orientation et l’amplitude (9 paramètres) sont inconnues.
La principale technique de résolution utilisée est un « algorithme de fouille » qui, à partir d’un dipôle initial, recherche les meilleurs paramètres qui minimise l’erreur quadratique entre les mesures générées sur les capteurs et les mesures d’acquisition. Le signal généré par ce dipôle est ensuite soustrait aux vraies mesures. Le processus est répété avec un autre dipôle jusqu’à ce que l’erreur moyenne totale sur les capteurs soit minimale. Le résultat de cet algorithme fournit la position, l’orientation et l’amplitude des dipôles qui expliquent le mieux les mesures. Il faut noter que le résultat de cette approche n’est pas identique à un algorithme qui minimise l’erreur quadratique entre les mesures et l’activité générée par simultanément. Le nombre de dipôles est donc un paramètre d’initialisation ad hoc important. En général,. Puisque les méthodes dipolaires utilisent un algorithme de fouille dans un grand volume de recherche, leur performance est très sensible à l’initialisation de la position des dipôles. L’algorithme peut également converger vers un minimum local loin de la vraie solution. Plus le nombre de dipôles est grand, plus ce risque est important, car l’activité générée par le premier dipôle peut annuler l’activité générée par le second dipôle et ainsi générer une activité sur les capteurs qui explique entièrement les mesures. Finalement, il faut noter que la résolution du problème inverse par une méthode dipolaire donne une solution très focale et plus le foyer réel d’activité est étendu plus la position du dipôle optimal sera profonde.
À l’inverse, les techniques de résolution du problème inverse par les méthodes distribuées tentent d’expliquer l’activité mesurée sur les capteurs à partir d’un grand nombre de sources. Ici, afin de réduire le nombre d’inconnues du problème, il est nécessaire de formuler des hypothèses ou des contraintes qui réduisent le nombre de degrés de liberté. Dans le cas présent, on fixe la position et l’orientation de chaque source. Ces hypothèses permettent de rendre le problème linéaire car, une petite variation de la position d’un dipôle peut engendrer une grande variation des mesures sur les capteurs. Les sources peuvent être distribuées sur un volume quelconque, comme un grillage, ou distribuées à l’interface entre la matière blanche et la matière grise du ruban cortical. Cette dernière hypothèse est raisonnable, car c’est dans cette région où l’on retrouve la grande partie de l’activité neuronale (voir l’introduction).
La seconde hypothèse suggère que les neurones « actifs » du ruban cortical sont regroupés en macrocolonnes orientés perpendiculairement au cortex. Puisque l’EEG et la MEG enregistrent le comportement d’un regroupement de plusieurs milliers de neurones actifs en même temps (macrocolonnes), l’orientation de chaque source est donc fixée perpendiculairement à la surface corticale. Même si la position et l’orientation des dipôles sont fixées, le problème à résoudre reste fortement sous-déterminé : il existe une infinité de configurations d’amplitude des sources qui peut expliquer les mesures. Il faut donc encore contraindre l’ensemble des solutions pour réduire cette dégénérescence. On parle alors de méthode de régularisation. C’est au niveau du choix de régularisation que les principaux modèles distribués de résolution de problème inverse se différencient. La méthode dans ce mémoire appartient à cette dernière famille de technique de résolution avec environ 5000 sources distribuée. Elle est détaillée au CHAPITRE 3.
Revue de littérature
La revue de la littérature de ce mémoire est divisée en trois sections. On présente d’abord, les différentes méthodes de résolutions du problème inverse par méthode distribuées. Puis, les plus récentes techniques de parcellisation de la surface corticale sont décrites. Finalement, les méthodes actuelles de fusion multimodale sont présentées. Comme il a été vu précédemment, les techniques de résolution du problème par les méthodes de sources distribuées nécessitent une contrainte de régularisation afin d’obtenir une solution unique. La contrainte la plus couramment utilisée s’apparente au critère d’optimisation des méthodes dipolaires et consiste à minimiser l’erreur quadratique entre les mesures et le signal généré par les sources. Principalement développée par Hämäläinen (Hämäläinen et Ilmoniemi, 1984), cette contrainte trouve la solution dont l’énergie globale des sources est la plus faible.
Quoique cette méthode de régularisation soit simple à implémenter, on peut se questionner sur la validité de l’hypothèse d’une solution où l’énergie doit être minimale. LORETA, développée par Pascual-Marqui (Pascual-Marqui, Michel et Lehmann, 1994) impose une contrainte supplémentaire à l’erreur quadratique en minimisant également le Laplacien. Cela correspond à trouver la configuration des sources qui est la plus lisse spatialement. L’hypothèse de lissage spatiale proposée par Pascual-Marqui est intéressante, car il est probable que l’amplitude des sources qui se trouvent près d’une forte activité soit également élevée. Par contre, cette contrainte a pour effet de trouver des solutions qui sont spatialement très étendues.
Une autre façon d’exprimer la contrainte de régularisation est d’utiliser une formulation probabiliste. Deux approches ont émergé dans cette technique : l’inférence bayésienne et le maximum d’entropie sur la moyenne. La méthode de Bayes propose de trouver la configuration des sources qui maximise la loi de probabilité à postériori connaissant les mesures (MAP). Baillet et Garnero (Baillet et Garnero, 1997) utilisent la contrainte du maximum a postériori et ajoute une régularisation spatiale (S-MAP) ou spatiotemporelle (ST-MAP) afin de localiser les sources de l’activité. La méthode S-MAP obtient de meilleurs résultats de localisation que la méthode LORETA et il est démontré que sa résolution est beaucoup plus robuste à la présence du bruit. À l’aide de la méthode ST-MAP, il y a beaucoup moins de fluctuations de l’activation des sources dans le temps et légèrement moins d’erreurs de reconstruction que la technique qui utilise une régularisation spatiale seulement.
De plus, l’algorithme ST-MAP converge 22% plus rapidement que la méthode SMAP ce qui signifie que la sélection judicieuse de contraintes telle la contrainte temporelle et spatiale aide à stabiliser l’algorithme de résolution du problème inverse (Baillet et Garnero, 1997). La méthode du maximum d’entropie sur la moyenne (MEM) développée à la fin des années 1980 par Clarke (Clarke et Janday, 1989) dans le contexte des neuroscience et remise en perspective par Amblard en 2004 (Amblard, Lapalme et Lina, 2004) repose sur la théorie de l’information de Shannon. En utilisant l’entropie comme mesure de distance, le MEM trouve la loi qui explique le mieux les données et qui s’approche le plus de la loi de référence définie a priori. Le MEM est la méthode de résolution du problème inverse par sources distribuées qui sera utilisée dans ce mémoire. Plus de détails sont présentés au CHAPITRE 3.
Comme mentionné, le MEM formulé par Amblard (Amblard, Lapalme et Lina, 2004) est utilisé tout au long de ce mémoire. L’approche suggère que l’activité cérébrale est mieux caractérisée par l’activation de parcelles que par l’activation de dipôles. Une parcelle est représentée par un groupement d’objets comme des dipôles ou des voxels. Il existe plusieurs façons de parcelliser la surface corticale dans la littérature. L’approche la plus utilisée consiste à donner une étiquette à chaque voxel d’une IRM afin d’identifier à quelle structure anatomique il appartient. Cette étiquette se base habituellement sur son gradient de couleur. Il est ainsi possible d’identifier de larges structures ayant un fort contraste sur l’IRM tels le crâne, la matière blanche, le liquide cérébro-spinal, etc. Récemment, le groupe de Fischl (Fischl et al., 2002), propose une méthode qui permet d’identifier chaque voxel en 37 structures différentes. Cette technique utilise non seulement le gradient de couleur, mais aussi la position spatiale du voxel. À l’aide d’un atlas anatomique, ils sont ainsi capables de parcelliser des régions tels le thalamus, l’hippocampe et l’hypothalamus ce qui devait se faire manuellement auparavant.
Le groupe de Desikan (Desikan et al., 2006) utilise une tout autre approche qui se base sur un point de vue anatomique. À l’aide d’une IRM, ils génèrent une surface tridimensionnelle de la matière blanche du cortex. C’est à l’aide de la courbure des gyrus et des sillons présents sur cette surface qu’ils sont capables de parcelliser le cerveau en 34 régions. Nouvellement, une approche proposée par Flandin (Flandin et al., 2002), plus récemment améliorée par Thirion (Thirion et al., 2006), utilise la combinaison de l’information anatomique et fonctionnelle dans le temps, extraite d’une IRMf, afin de parcelliser la surface corticale. Cette approche requiert la création d’une surface en trois dimensions de la matière grise. La surface ainsi créée est formée de noeuds. À l’aide d’une fonction particulière, un score qui encode l’information fonctionnelle mesurée et la position est attribué à chaque noeud. Les parcelles sont ensuite créées en utilisant un algorithme de création de groupe sur ce score. Cet algorithme est très rapide et présente des résultats de parcellisation intéressants. Toutefois, le nombre de parcelles désirées doit être prédéterminé.
|
Table des matières
INTRODUCTION
CHAPITRE 1 MISE EN CONTEXTE
1.1_ Le problème inverse
1.2_ Revue de littérature
1.3_ Objectifs et contributions
1.4_ Méthode de validation
CHAPITRE 2 L’ACTIVITÉ CÉRÉBRALE
2.1_ Le modèle des sources
2.2_ Description du problème direct
2.3_ L’hypothèse d’orientation des sources
CHAPITRE 3 LE MAXIMUM D’ENTROPIE SUR LA MOYENNE
3.1_ Description et équations
3.2_ La parcellisation
3.3_ Score des dipôles
3.4_ Algorithme de parcellisation
3.5_ Initialisation des paramètres
3.6_ MEM itératif
3.7_ Validation : Le cas de l’EEG
3.8_ Validation : Le cas de la MEG
3.9_ Validation : EEG vs MEG
3.10_ Validation : La contrainte d’orientation
3.11_ Validation : Le MEM itératif
3.12_ Application : Un cas réel
CHAPITRE 4 LA FUSION MULTIMODALE
4.1_ Le MEM pour la fusion multimodale
4.2_ Parcelles dans le contexte de fusion
4.3_ Validation : La fusion de l’EEG et de la MEG
4.4_ Application : Un cas réel
CHAPITRE 5 APPLICATIONS
5.1_ L’outil MATLAB : BrainEntropy
5.2_ Le modèle
5.3_ Parcellisation
5.4_ MEM
CONCLUSION
PERSPECTIVES ET RECOMMANDATIONS
BIBLIOGRAPHIE
Télécharger le rapport complet