Définition de la qualité
La qualité est définie selon deux aspects : la précision et l’exactitude. Dans une cible, lorsque que tous les résultats sont concentrés au même endroit mais loin du centre, une certaine précision est atteinte. Par contre, lorsque les résultats sont plus près du centre mais dispersés, cela définit l’exactitude. Concrètement, il est fort probable que les contours segmentés à partir d’images possédant peu de bruit mais beaucoup de flou soient précis. Par contre, lorsque des images possèdent du bruit mais peu de flou, les contours qui en sont extraits seront probablement plus exacts. De façon générale, pour arriver à retrouver une meilleure qualité d’image, un compromis entre la précision et l’exactitude est nécessaire.
Artéfacts
La présence d’artéfacts dans les images réduit l’exactitude des interprétations des images et nuit aux médecins pour établir un diagnostic efficace. Pour notre application de conception de prothèse personnalisée, cela pourrait avoir comme effet de diminuer l’ exactitude de la description numérique de la surface par rapport à sa description anatomique réelle. Al-Shakhrah (2003) a identifié les causes de détérioration de plus de 7197 images afin de cibler des solutions. 6 % d’entre elles comportaient des artéfacts. 25 % des artéfacts sont dus à la présence de matériel de haute densité, en seconde place avec 21 %, il y a les erreurs dues à la mesure du faisceau rayons X atténué. L’effet du volume partiel avec 16 % est en troisième place, par la suite avec 15 % les artéfacts engendrés par les mouvements du patient, le bruit avec 7 %, le mauvais fonctionnement des détecteurs 6 %, l’effet de la géométrie des détecteurs 5% et 5% pour les autres non quantifiées. Les deux premières causes d’artéfacts sont difficiles à corriger. La présence de matériaux de haute densité (prothèses, vis, etc.) cause une saturation des détecteurs et engendre un effet non linéaire. Les erreurs de mesure du faisceau sont habituellement plus présentes dans les zones où il y a une large atténuation (exemple : l’ os). Les artéfacts liés au volume partiel sont souvent présents dans les images de tomographes et sont dus à la variation de géométrie à l’intérieur même de la «tranche» sous observation.
Mode axial, mode hélicoïdal, nombre de barrettes
Dans le mode axial, l’acquisition se fait en mode « arrêter et photographier ». Le tube à rayon X et les détecteurs exposent et font une boucle de 360 degrés. La table et le patient se déplacent d’une distance prédéfinie (intervalle) puis l’opération se répète. Pour ce qui est du mode hélicoïdale ou en spirale, celui-ci est une modalité d’acquisition d’images en continu. Le tube à rayons X et les détecteurs exposent et tournent de manière continue à 360 degrés pendant que le patient traverse la zone d’exposition à une vitesse de déplacement fixée. Les informations collectées sont ensuite reconstruites en une image selon l’épaisseur de coupe et l’intervalle prescrit. Par contre, en analysant la performance des systèmes multicoupe, McCollough et Zink affirment que le profil de sensibilité de la coupe, qui est directement relié à la résolution en Z, le bruit dans les images et la résolution sont quasi similaires entre une acquisition axiale et hélicoïdale. McCollough et Zink (1999) en viennent à la conclusion qu’en mode axiale et hélicoïdale, pour un système multicoupe, nous obtenons des images de bonne qualité en réduisant le temps d’examen et la charge du tube.
En contrepartie, la dose relative émise augmente à différents degrés. Une autre étude réalisée par Gupta, Nelson et etc. (2003) démontre qu’il n’y a pas de différence significative entre le rapport signal sur bruit pour un 4 barrettes et pour un 8 barrettes. Par contre, les auteurs concluent en démontrant que pour un CT 8 barrettes versus un 4, la résolution en z se voit augmenter et ils démontrent aussi qu’il y a beaucoup moins de barres (lignes) d’artefacts.
Modèle linéaire de formation d’images
Résolution
Avant de commencer à expliquer chacun des paramètres d’acquisition d’un tomographe, nous parlerons des différents types de mesures qui nous aident à quantifier la résolution.
Nous distinguerons ainsi deux types de résolution, soit la résolution optique et la résolution numérique. La résolution optique est inhérente au processus de la formation des images et peut être définie de façon générale comme la plus petite distance entre deux objets qui permet de les distinguer. Lorsque cette distance est trop petite, les objets se confondent en un seul. La résolution numérique, pour sa part, est directement reliée au processus de numérisation.
Bruit
Le bruit dans les images tomodensitométriques a fait l’objet de plusieurs études. Une étude (Doré, 1992) fait la synthèse des différentes méthodes afin de caractériser le bruit L’une de celles-ci est l’évaluation du profil de la puissance du bruit (NPS). À l’aide d’un fantôme réalisé par la compagnie Philips, l’estimation de la NPS est réalisée en fonction de trois filtres différents et de trois épaisseurs de coupes différentes. Nous constatons que le bruit n’est pas blanc. De plus, nous constatons qu’il varie en fonction de l’épaisseur de coupe et du filtre de reconstruction utilisés.
Influence de certains paramètres sur la qualité de segmentation des images
Nous pouvons diviser les paramètres d’acquisition d’un tomodensitomètre en quatre catégories : paramètres d’avance (vitesse d’avance de la table par rotation du tube, le pas et la longueur du scan); paramètres de reconstruction (épaisseur de coupe ou collimation et incrémentation de la reconstruction); paramètres dérivés (vitesse de la table et temps de scan); paramètres reliés à l’équipement (temps de rotation et nombre de rangées de détecteur).
Vitesse d’avance de la table, le pas et l’épaisseur de collimation
Le profil de sensibilité, et donc la résolution en Z, est affecté par la relation entre la vitesse d’avance de la table (TF), de la collimation (SC)et du pas. Dans la partie gauche, le pas est doublé en augmentant la vitesse d’avance pour une collimation constante. Dans la partie droite, le pas est doublé en maintenant la vitesse d’avance constance et en diminuant de moitié la collimation. On remarque que le profil d’une section est considérable différent bien que la pas ait été doublé dans les deux cas.
Épaisseur de la collimation
Habituellement, la collimation peut van er de 0,5 à 10 mm . Deux raisons motivent l’utilisation de la collimation la plus faible possible. Nous venons de voir que la collimation est un des facteurs affectant la résolution spatiale le long de l’axe z. Pour une vitesse d’avance constante, une diminution de la collimation mène à une amélioration de la résolution.
Temps de rotation et temps de scan
Le temps de rotation est le temps pour une révolution. Pour la plupart des tomodensitomètres, ce temps est de une seconde mais peut varier entre 0,4 à 2 secondes pour d’autres. Avec un faible temps d’acquisition pour une même couverture en z, le temps d’examen se voit diminuer ce qui a tendance à créer moins d’artefacts de mouvement. Pour ce qui est du temps d’acquisition, celui-ci dépend du tube de rayons X. Plus la dose émise est élevée, moins le temps d’examen sera long pour une même région.
Filtres de reconstruction (Kernel convolution) et FOV
Autant le filtre de reconstruction que le champs d’intérêt (« field of view » – FOV) affectent la résolution dans le plan X-Y. Le filtre de reconstruction est utilisé dans la reconstruction des images afin de minimiser l’effet du flou causé par l’opération de rétro-projection dans le plan X-Y. Le FOY ( »field ofview ») correspond à la limite de la région d’intérêt à reconstruire. Plus la région d’intérêt sera précise meilleures sont nos chances d’avoir une image adéquate de bonne résolution.
Intervalle de reconstruction (RI)
L’intervalle de reconstruction est la distance entre deux images. En général, pour le mode axial, l’intervalle de reconstruction est égal à la collimation afin d’avoir des images contiguës. Cependant, en déplaçant la table d’une distance plus grande que l’épaisseur de coupe il est possible d’obtenir un intervalle de reconstruction plus grand et d’espacer les coupes. Le même phénomène peut être obtenu en mode hélicoïdal en combinant correctement les paramètres d’avance de table et de collimation. Ce paramètre a pour grand avantage de diminuer le nombre d’images lorsque l’examen demande un grand déplacement en z. Par contre, plus nous augmentons l’intervalle de reconstruction, plus la possibilité que nous puissions détecter une petite lésion diminue.
Dose, voltage et courant
La dose émise est fonction de plusieurs paramètres. Les plus importants sont : le courant et le voltage du tube à rayons X, l’ épaisseur de collimation, l’épaisseur de coupe, le pas, la région de l’examen tomographique et le FOV. Voici quelques impacts de la variation de certains paramètres. En augmentant le voltage du tube et en gardant constant le courant, la dose relative augmente mais le bruit diminue (Prokop et Galanski, 2003). Il est reconnu également que plus nous cherchons à augmenter la résolution spatiale des images, plus nous introduisons du bruit et plus nous risquons d’augmenter la dose relative (Prokop et Galanski, 2003).
|
Table des matières
INTRODUCTION
CHAPITRE 1 REVUE DE LITTÉRATURE
1.1 Historique
1.2 Définition de la qualité
1.3 Modèle linéaire de formation d’images
1.3.1 Résolution
1.3 .1.1 Dans l’ axe Z
1.3.1.2 Résolution numérique
1.3.2 Bruit
1.4 Artéfacts
1.5 Mode axial, mode hélicoïdal, nombre de barrettes
1.6 Influence de certains paramètres sur la qualité de segmentation des images
1.6.1 Vitesse d’avance de la table, le pas et l’épaisseur de collimation
1.6.2 Épaisseur de la collimation
1.6.3 Temps de rotation et temps de scan
1.6.4 Filtres de reconstruction (Kemel convolution) et FOV
1.6.5 Intervalle de reconstruction (RI)
1.6.6 Dose, voltage et courant
1.7 Conclusion
CHAPITRE 2 MÉTHODOLOGIE
2.1 Introduction
2.2 Présentation des fantômes utilisés
2.2.1 Plans de fabrication
2.2.2 Création des modèles numériques
2.3 Présentation des tomodensitomètres utilisés pour l’ acquisition des images
2.2.2.1 Fantôme de M. Capponi
2.2.2.2 Fantôme de la sphère (simule_sphère)
2.4 Positionnement des fantômes
2.4.1 Recalage en Z
2.4.1.1 Fantôme simule _paramètre
2.4.1.2 Fantôme simule_sphère
2.4.2 Alignement Axial
2.5 Explications des outils utilisés
2.5.1 Outils pour la 1re série d’expériences
2.5.2 Outils pour la 2e et 3e série d’expériences
2.5.2.1 Segmentation
2.5.2.1.1 Sélection de la région d’intérêt
2.5.2.1.2 Calcul du seuil et seuillage
2.5.2.1.3 Extraction du contour
2.5.2.1.4 Repositionnement et reformatage
2.5.2.1.5 Le triage
2.5.2.2 Calcul des erreurs
2.5.3 Outils supplémentaires pour la 3e série expériences
2.5.3.1 Calcul de la variation de quantité de matière
2.5.3.2 Algorithme de restauration
CHAPITRE 3 RÉSULTATS
3.1 Choix de l’algorithme de segmentation
3.2 1re série d’expériences
3.3 2e série d’expériences
3.3.1 Filtres de reconstruction
3.3.2 Épaisseur de coupes
3.3.3 Champ de reconstruction
3.3.4 Voltage du tube
3.3.5 Différence entre les modèles de tomodensitomètres
3.4 3e série d’expériences
3.4.1 Volume partiel
3.4.2 Restauration
CHAPITRE 4 DISCUSSION
CONCLUSION
Télécharger le rapport complet