Méthodes de reconstruction 3D
Les méthodes de compensation par reconstruction 3D diffèrent des méthodes de recalage par leur approche ; elles procèdent globalement en deux étapes, la première étant la reconstruction 3D des artères à chaque instant à partir de plusieurs images synchrones sous différents angles de vue, et la seconde visant à appliquer des contraintes aux différentes reconstructions de manière à assurer une évolution temporelle cohérente de la déformation.
Chen et Carroll [2003] propose une étude complète portant sur l’analyse des déformations 3D dans le temps des artères coronaires. La méthode traite point par point des traitements appliqués depuis l’acquisition des séquences XA jusqu’à l’évaluation de la cinématique des artères.
L’étape de segmentation est semi-automatique ; une intervention humaine est nécessaire pour indiquer plusieurs points se trouvant sur les artères coronaires dans la première image de la séquence. Par la suite, l’approche est très similaire à celle de Dubuisson-Jolly et al. [1998] : des courbes sont crées à partir des points spécifiés en considérant ces derniers comme les points de contrôle de splines cubiques, lesquelles sont ensuite déformées afin de s’aligner au mieux possible sur un masque de rainures calculé à partir de l’image initiale. La structure finale obtenue est utilisée comme initalisation de segmentation sur l’image suivante, et déformée de la même façon que sur la première image, avec des contraintes additionelles de flot optique (entre les deux images) et de hiérarchie (calculées à partir des embranchements trouvés sur la première structure segmentée).
Le problème de mise en correspondance est également traité, en prenant en compte les ambiguïtés pouvant survenir dans les cas où les séquences XA seraient acquises sous différents angles de façon asynchrone. Ces considérations conduisent à une reconstruction 3D de l’arbre coronaire à différents instants du cycle cardiaque. Celles-ci sont ensuite compilées en un modèle 4D (3D+temps) pour décrire le mouvement des artères coronaires dans le temps. La compilation est effectuée en pénalisant l’allongement et les variations angulaires trop importantes (comme Dubuisson-Jolly et al. [1998]), et en modélisant la déformation à l’aide de surfaces de Bézier afin d’assurer la régularité du mouvement calculé.
Les caractéristiques retenues pour l’analyse de la déformation ainsi reconstruite sont la courbure et la torsion locale, calculées à l’aide de B-splines pour représenter la ligne centrale des artères en 3D, et la flexion globale, calculée en comparant les angles entre deux portions de segment successives sur deux modèles 3D reconstruits à deux instants successifs. Les temps de calcul présentés par les auteurs sont de plusieurs minutes par image, sans compter l’interaction nécessaire en début de séquence pour l’étape de segmentation manuelle. Ceci illustre bien le point soulevé à la page 35, que les méthodes de recalage basées sur les algorithmes de reconstruction sont généralement coûteuses en termes de temps de calcul. Shechter et al. [2003, 2004, 2005] décrit une méthode de compensation de mouvement dont l’approche globale vise à un suivi des artères coronaires en 3D à partir de séquences angiographiques bi-planes supposées synchrones. Les contraintes de régularité imposées pour la reconstruction du mouvement (4D) s’appliquent à un modèle 3D a priori de l’arbre coronaire, lui-même reconstruit à partir de paires d’images segmentées pour chaque patient.
L’étape de segmentation est similaire à celle décrite dans Chen et Carroll [2003] ; le filtre vasculaire de Frangi et al. [1998] est appliqué à chaque image de la séquence, et une segmentation interactive est ensuite effectuée pour dessiner la ligne centrale des artères coronaires.
Une hiérarchie est là encore calculée sur le résultat de cette segmentation, et la ligne centrale est divisée en segments, dont les deux extrémités sont soit situées à des bifurcation de l’arbre coronaire, soit à une bifurcation et à une «feuille» de l’arbre.
Chacun de ces segments est ensuite interpolé par une courbe B-spline, ce qui offre une représentation compacte de l’arbre coronaire, et les correspondances point-à-point sont évaluées à l’aide d’un algorithme d’exploration de graphe, et de considération épipolaires. Une reconstruction
3D segment par segment est enfin calculée avec une approche de minimisation au sens des moindres carrés, à partir de ces correspondances. Ces reconstructions sont à leur tour interpolées par des splines cubiques pour assurer régularité et connexité à la reconstruction finale.
La reconstruction 4D est effectuée en évaluant les paramètres d’un modèle de déformation entre deux reconstructions 3D successives. L’optimisation correspondante procède par minimisation d’une fonction d’énergie en trois étapes, qui correspondent à trois types de mouvement, du plus grossier au plus fin (coarse-to-fine en anglais) :
Rigide : il s’agit de la déformation classique (rotation+translation) appliquée globalement à l’arbre coronaire. On compte six degrés de liberté pour cette optimisation.
Affine : ce type de mouvement est similaire au précédent, mais la matrice de transformation homogène (voir équation (1.4)) est supposée contenir cette fois 12 coefficients indépendants (alors que six d’entre eux étaient contraints pour le mouvement rigide).
B-solide : l’utilisation d’un B-solide permet d’exprimer une déformation non-rigide appliquée à l’arbre coronaire tout entier (modélisé comme une courbe B-spline 3D), héritant des propriétés de régularité des splines. Cela revient à considérer l’ensemble des points de contrôle de la spline 3D comme les sommets d’une grille 3D qui contient l’arbre coronaire. La déformation du B-solide revient alors à spécifier une nouvelle configuration de cette grille en bougeant localement les sommets internes (voir Fig. 1.12).
Plusieurs points de cette méthode sont à noter pour la suite ce mémoire ; tout d’abord, durant la phase d’optimisation, l’auteur utilise les reconstructions 3D, ainsi que les masques vasculaires de la séquence angiographique. Ces derniers sont rendus flous par l’application de filtres gaussiens de variance tout d’abord importante pour guider l’optimisation des mouvements grossiers, puis de plus en plus faible à mesure que l’optimisation devient fine. Ces masques sont très similaires aux transformées de distances (Fabbri et al. [2008]) que nous utilisons dans notre méthode, et que nous décrirons au §2.3.2. Par ailleurs, un défaut notable de cette méthode est qu’elle procède par déformation, non de la structure à recaler, mais de l’espace qui la contient (voir Fig. 1.12) ce qui augmente drastiquement le nombre de paramètres décrivant la déformation, et rend l’optimisation délicate et longue à calculer.
Les erreurs de reprojection mesurées suite à la reconstruction 4D du mouvement sont notablement plus importantes durant la phase de systole. Cette constatation fait suite au point souligné en introduction : l’optimisation d’un grand nombre de paramètre requiert des contraintes fortes qui ont pour effet de limiter l’efficacité du recalage dans le cas de mouvement soudains comme celui du coeur. L’utilisation d’une grille plus dense pour formuler une déformation plus fine du B-solide mènerait à des temps de calcul prohibitifs. Enfin, l’auteur fait remarquer qu’aucune contrainte de cohérence temporelle n’est formulée, et appelle à l’extension de sa méthode par l’application de régularisation temporelle.
Ces indications décrivent précisément le travail que nous avons tenté de réaliser durant notre recherche, et que nous présentons dans ce mémoire.
Recalage 3D/2D
Markelj et al. [2010] définit le problème de recalage 3D/2D comme la réconciliation de données pré- et intra-opératoires dans un même repère de l’espace par l’optimisation d’un critère de recalage. Plus spécifiquement, il s’agit de transformer les données 3D (typiquement CT-scan ou modèle de l’arbre coronaire dans notre cas) pour parvenir à la meilleure correspondance possible avec les données 2D (images de la séquence XA dans notre cas).
L’auteur assimile très justement l’intérêt d’une telle tâche à celui de réalité augmentée, dans le sens où l’information existante est enrichie d’information calculée pour améliorer son interprétation et son utilisation. En outre, la précision de la navigation percutanée peut être améliorée en fournissant au chirurgien un plan virtuel de navigation, et des indications sur la progression de l’intervention selon ce plan à chaque instant.
Timinger et al. [2004] propose par exemple une solution simple de compensation pour la navigation intra-opératoire ; le cathéter utilisé fait partie d’un dispositif magnétique capable d’estimer la position et l’orientation du cathéter dans l’espace à partir de huit senseurs. Les expériences sont menées sur un fantôme cardiaque mécanique.
La position exacte du cathéter – grâce au dispositif magnétique – est connue à chaque instant, et on peut le représenter dans un volume virtuel supposément acquis avant l’intervention afin de guider cette dernière. Les mouvements cardiaques et respiratoires sont compensés de la manière suivante :La mise à jour de la position du cathéter est synchronisée sur le signal ECG, et interrompue entre les moments où les ondes P et T sont perçues (voir §1.2.2, on parle d’ECG gating en anglais). Ainsi la position du cathéter est mise à jour uniquement lorsque le coeur est (supposément) au repos.
• Le mouvement résiduel est supposé être causé par la respiration, et un modèle affine simple (rotations+translations) est utilisé pour modéliser ce déplacement. La position exacte du cathéter étant connue en plusieurs points, le calcul des paramètres de ce modèle à chaque instant ne pose aucun défi particulier. Par simple inversion, on peut ensuite appliquer ce déplacement au volume virtuel, et stabiliser ainsi artificiellement le cathéter.
Toutefois, le défaut majeur de cette approche concerne l’utilisation d’un dispositif magnétique : ceux-ci sont très peu utilisés en clinique à cause des risques d’interférence avec les autres appareils déjà présents dans la salle d’opération. Par ailleurs, les expériences sont menées uniquement sur un fantôme mécanique, et il est nécessaire de reproduire les performances présentées dans un contexte réel pour évaluer l’utilité pratique de cette approche. Également, l’alignement initial du repère lié au volume CT segmenté (faisant office de «fantôme virtuel») avec le repère dans lequel la position du cathéter est mesurée grâce au dispositif magnétique est en-soi une tâche non-triviale de recalage. Enfin, l’hypothèse que le coeur est au repos entre les ondes T et P est contestable à la lumière des résultats présentés précédemment Fig. 1.6.
La classification des méthodes de la littérature peut se faire suivant de nombreux critères. Markelj et al. [2010] propose une classification détaillée en fonction des critères suivants : les modalités d’imagerie concernées (CT, IRM, XA), les dimensions des données (2D,3D,4D), la nature du recalage (comparaison d’intensités, ou de caractéristiques calculées sur les données comme la segmentation par exemple), la stratégie de correspondance (reconstruction, projection ou rétro projection), les déformations géométriques considérées (rigides ou non-rigides), l’interaction humaine (pour la segmentation ou pour l’initialisation par exemple), la stratégie d’optimisation, la spécificité de la méthode (spécifique au patient ou par atlas) et enfin l’objet du recalage (cerveau, os, vaisseaux, etc.).
Les points importants de cette étude concernent principalement les difficultés générales du problème de recalage 3D/2D, et les problèmes liés spécifiquement aux choix correspondants à la nature du recalage. Le premier point souligne que le problème de recalage 3D/2D est un problème mal-posé par essence, puisqu’une solution unique de recalage n’est pas toujours assurée ; les résultats fournis par ces algorithmes pouvant donc être faux, il est clair que les applications peuvent au mieux servir d’indications, mais ne doivent en aucun cas remplacer ou modifier les données originales. C’est pourquoi l’application de notre travail vise à superposer la projection des artères 3D déformées sur chaque image angiographique (voir Fig. 0.1).
Le second point comporte plusieurs volets de commentaires, mais traite principalement des points suivants :
• Concernant les méthodes procédant par comparaison d’intensités, une technique très largement employée est celle de synthèse numérique de radiographies (DRR) : cette technique consiste à projeter chaque voxel des données 3D une fois la déformation appliquée, de manière à générer une radiographie simulée comparable à l’image 2D recalée.
Le problème lié à l’utilisation de cette technique intervient dans un contexte d’optimisation ; le parcours des données 3D à chaque itération d’un algorithme d’optimisation ralonge significativement le temps de calcul nécéssaire pour effectuer le recalage.
• Alternativement, les méthodes qui procèdent par comparaison de caractéristiques sont sensibles à la technique d’extraction employée sur les images à comparer (segmentation par exemple).
• Pour l’une comme pour l’autre de ces approches, le choix d’une métrique de similarité est particulièrement sensible puisque celle-ci définit la fonction à optimiser : dans le cas des méthodes par comparaison d’intensité par exemple, le comportement de cette métrique n’est par expérience ni globalement monotone, ni globalement convexe, ce qui impose un recalage initial proche de la solution finale, et ces méthodes ne sont donc adaptées que pour des recalages de faible amplitude.
|
Table des matières
INTRODUCTION
CHAPITRE 1 REVUE DES CONNAISSANCES ET ÉTAT DE L’ART
1.1 Anatomie du système cardiovasculaire
1.1.1 Le coeur
1.1.2 Anatomie des artères coronaires
1.1.3 Pathologies des artères coronaires
1.1.3.1 Athérome et sténose coronaire
1.1.3.2 Athérosclérose, thrombose et infarctus
1.1.4 Angioplastie des artères coronaires
1.2 Dynamique et cinématique du coeur
1.2.1 Réseau nerveux et cycle cardiaque
1.2.2 Electrocardiographie (ECG)
1.2.3 Mouvement cardiaque et mouvement respiratoire
1.3 Imagerie des artères coronaires
1.3.1 Modalités d’imagerie
1.3.1.1 Angiographie 2D
1.3.1.2 Tomodensitométrie 3D/4D
1.3.2 Traitements des images médicales
1.3.2.1 Segmentation des images 2D et 3D
1.3.2.2 Projection des données 3D
1.4 Compensation du mouvement des artères coronaires
1.4.1 Méthodes de suivi 2D
1.4.2 Méthodes de reconstruction 3D
1.4.3 Recalage 3D/2D
1.4.3.1 Recalage 3D/2D par atlas déformable
1.4.3.2 Recalage 3D/2D par modèle vasculaire non-rigide
1.4.3.3 Recalage 3D/2D stochastique
1.4.4 Sommaire de la revue de littérature
CHAPITRE 2 MÉTHODOLOGIE
2.1 Description introductive
2.1.1 Cadre d’étude
2.1.2 Solution de compensation proposée
2.2 Modèle génératif
2.2.1 Réseau Bayésien dynamique
2.2.2 Composantes du modèle génératif
2.3 Estimation de vraissemblance
2.3.1 Métrique de similarité
2.3.1.1 Similarité cosinus
2.3.1.2 Covariance normalisée
2.3.1.3 Covariance normalisée de gradients
2.3.1.4 Information Mutuelle
2.3.2 Technique de diffusion
2.3.2.1 Transformée de distance Euclidienne
2.3.2.2 Transformée de distance rationelle
2.4 Modèle de mouvement cardiaque
2.4.1 Modèle de déformation local
2.4.1.1 Le repère planisphérique
2.4.1.2 Changement de coordonnées
2.4.1.3 Déformation planisphérique
2.4.2 Modèle de déformation global
2.4.3 Évolution cyclique des paramètres
2.4.3.1 Estimation de la phase cardiaque
2.4.3.2 Gabarits de paramètres
2.5 Compensation du mouvement comme maximisation a posteriori
2.5.1 Approche Bayésienne
2.5.2 Filtre de particules
2.6 Évaluation du modèle proposé
2.6.1 Erreurs évaluées
2.6.1.1 Erreur cible-à-objet (TRE)
2.6.1.2 Erreur systématique et distorsion statistique
2.6.2 Processus de simulation
2.6.2.1 Séquence de déformation
2.6.2.2 Critère de similarité
2.6.2.3 Perturbations envisagées
2.6.2.4 Filtre de particules
2.6.2.5 Tableau de configuration
2.6.3 Évaluation avec des données réelles
CHAPITRE 3 RÉSULTATS ET DISCUSSIONS
3.1 Données de tests
3.1.1 Fantôme vasculaire
3.1.2 Données MSCT segmentées
3.1.3 Angiographies segmentées
3.2 Définition de gabarits de paramètres
3.3 Évaluation des critères de similarité
3.3.1 Mesures considérées
3.3.2 Résultats
3.4 Comportement de la méthode de compensation
3.4.1 Procédé d’évaluation
3.4.2 Résultats
3.5 Robustesse de la méthode de compensation
3.5.1 Influence du recalage initial
3.5.2 Influence du bruit de formation d’images
3.5.3 Variabilité inter-patients
3.6 Compensation de mouvement sur des données réelles
CONCLUSION
ANNEXE I : Sélection du meilleur point-de-vue
ANNEXE II : Résultats complémentaires pour les tests de recalage inital
ANNEXE III : Résultats complémentaires pour les tests inter-patients
APPENDICE A : Anatomie détaillée des artères coronaires
APPENDICE B : Commentaires sur l’estimation spectrale de la phase cardiaque
BIBLIOGRAPHIE
Télécharger le rapport complet