Apports de la biologie moléculaire à la médecine

Les explorations en neurochirurgie

Très tôt, les neurochirurgiens se sont définis comme des médecins ayant une pratique chirurgicale. Clovis Vincent disait que « La neurochirurgie, ce n’est pas seulement l’art d’enlever les tumeurs du cerveau, mais c’est le moyen d’apprendre d’une façon précise les fonctions du cerveau humain ». Il fut d’ailleurs le premier médecin-chef d’un service de chirurgie. Au Canada, Wilder Penfield , également neurologue et neurochirurgien, décrivit la somatotopie cérébrale. Il contribua, tout comme Clovis Vincent, élève de Babinski, à la description des circuits de la mémoire. S’appuyant sur ses travaux, Harvey Cushing réalisa les premières stimulations peropératoires pour explorer les fonctions des zones cérébrales réséquées. Ces explorations historiques préfigurent le développement de la chirurgie éveillée.
L‘un des pans de la neurochirurgie moderne la plus liée à ces progrès techniques est certainement la neurochirurgie fonctionnelle. Elle vise à ajuster certaines fonctions du névraxe quand le traitement médicamenteux est insuffisant ou non recommandé. Classiquement d’autres approches y sont associées telles que la stimulation cérébrale profonde, la chirurgie de l’épilepsie, la chirurgie de la douleur et la radiochiurgie. Ses pionniers viennent d’horizons divers. Lars Leksell (1907-1986) est physicien puis neurochirurgien suédois . Nous lui devons l’un des premiers cadres de stéréotaxie (Figure 2) et l’invention de la radiochirurgie. La France est là encore bien représentée : Jean Talaraich (1911-2007) est psychiatre puis neurochirurgien . Avec Jean Bancaud, neurologue, ils rédigent le premier atlas de stéréotaxie qui reste un ouvrage de référence et proposent un cadre de stéréotaxie qui permet de réaliser implantation d’électrodes et biopsie cérébrale avec une précision incomparable. Ces techniques chirurgicales ont été développées avant le scanner cérébral (1970’s). Les repères anatomiques étaient basés sur des abaques statistiques issus de centaines d’observations cadavériques et de repères indirects. Ces abaques représentent une information stockée, quantifiable, normée et mobilisable pour assister l’acte chirurgical. Conceptuellement, ces abaques sont les bases de données informationnelles précurseurs du big data anatomo-clinico-biologiques actuel. En effet, les repères indirects, avant l’avènement du scanner et de l’IRM, consistaient en une ventriculographie gazeuse (inventée par Dandy) ou l’injection sous-arachnoïdienne de lipiodol tel que décrit par Sicard en 1921 . Il faut imaginer une opération de neurochirurgie avant ces imageries et l’approximation que cela pouvait représenter ainsi que la morbidité associée. La sémiologie clinique nous permettait et permet toujours d’émettre une hypothèse topographique d’une lésion. Une ventriculographie (injection d’air ou de lipiodol) était réalisée puis une radiographie de crâne standard laissait entrevoir la déviation du système ventriculaire et ainsi la localisation supposée de cette lésion. Une « ouverture » du scalp large était réalisée puis des trous de trépan étaient réalisés. Un volet crânien était taillé à la scie Gigli (scie à ruban glissée d’un trou de trépan à un autre). En 1972, Godfrey Hounsfield se voit décerner le prix Nobel de médecine pour la découverte du premier scanner appelé tomographie. De manière anecdotique, Sir Hounsfield était ingénieur chez EMI, société de musique et d’électronique qui, grâce aux ventes record des Beatles dans les années 1960’s finança les travaux de recherche de Hounsfield. Ce fut un bouleversement technologique pour la neurochirurgie. Pour la première fois, nous pouvions voir le cerveau de manière directe sans ouvrir la boite crânienne. Le scanner a progressivement amélioré sa résolution et l’arrivée de l’IRM au début des années 1990’s a permis une technique non irradiante et beaucoup plus fine.
En seulement 30 ans, l’IRM est passée de sa naissance à une pratique courante qui parait évidente à toute une génération.

Apports de la biologie moléculaire à la médecine

La naissance de la biologie

Les philosophes grecs, voraces de curiosité, regardent avec intérêt l’éventail des créatures vivantes, de la plante la plus humble à l’homme lui-même. Un nom grec a été inventé par un naturaliste allemand au début du XIXe siècle pour cette étude de tous les aspects physiques de la vie naturelle – la biologie, du bios (vie) et du logos (mot ou discours) . C’est un sujet qui comporte des subdivisions claires, comme la botanique, la zoologie ou l’anatomie. Mais tous s’intéressent aux organismes vivants. L’un des pères de la biologie est Alcmaeon de Crotone , médecin, astronome et philosophe pythagoricien du Ve siècle avant J.C. Il s’intéresse aux fluides corporels et émet l’hypothèse que les caractéristiques de ces fluides pourraient être des marqueurs de pathologies plus globales : c’est le principe même d’un biomarqueur tel qu’il se conçoit actuellement. Il est suivi un siècle plus tard par Aristote et Théophraste qui développent respectivement la biologie animale et végétale. Dans son ouvrage Historia animalium, Aristote recense les caractéristiques biologiques propres à chaque animal, car selon lui, « c’est par l’observation du normal et de ses caractéristiques intrinsèques que l’on peut décrire le pathologique ». Là encore nous verrons tel que développé plus loin dans ce manuscrit, qu’il s’agit d’un principe des sciences Omiques de caractériser sur le plan phénotypique une population et d’établir le pathologique et son biomarqueur par comparaison d’un groupe témoin de sujets indemnes de la pathologie qu’on cherche à identifier. En 158 avant J.C. la ville de Pergame compte un nouveau médecin en chef des gladiateurs. Il est un médecin grec du nom de Galien . Cette nomination lui donne l’occasion d’étudier des blessures de toutes sortes. Sa connaissance des muscles lui permet d’avertir ses patients du résultat probable de certaines opérations. Mais c’est la pratique de la dissection des singes et des porcs qui donne à Galien des informations détaillées pour ses traités médicaux. Près de 100 de ces ouvrages ont survécu. Ils deviennent la base de la grande réputation de Galien dans la médecine médiévale, incontestée jusqu’aux travaux anatomiques de Vésale. Grâce à ses expériences, Galien est capable de renverser de nombreuses croyances de longue date, comme la théorie selon laquelle les artères contiennent de l’air et non du sangle transportant vers toutes les parties du corps depuis le cœur et les poumons. Cette croyance est basée à l’origine sur les artères des animaux morts qui semblent vides. Galien démontra par ses observations des plaies de gladiateurs que les artères vivantes contiennent du sang. Il supposa par contre que le sang va et vient du cœur dans un mouvement de flux et de reflux.
Cette théorie a prévalu dans les cercles médicaux jusqu’au XVIe siècle.
Au cours des siècles profondément chrétiens du Moyen-Âge européen, l’ambiance qui prévaut n’est pas propice à la recherche scientifique. Dieu sait ce qui est le mieux, et il devrait le faire  puisqu’il a tout créé. Lorsque des connaissances pratiques sont nécessaires, il existe des autorités anciennes dont les conclusions sont acceptées sans conteste – Ptolémée dans le domaine de l’astronomie, Galien pour les questions anatomiques. Quelques savants atypiques s’intéressent à la recherche scientifique. Le frère franciscain du XIIIe siècle, Roger Bacon, est l’exemple le plus souvent cité , mais ses études portent aussi bien sur l’alchimie et l’astrologie que sur l’optique et l’astronomie. Le scepticisme pratique requis pour la science doit attendre la Renaissance.

Des progrès liés à l’imprimerie

En 1454, l’allemand Johannes Gutenberg invente les caractères mobiles. La mécanisation de l’écriture permet une accélération des connaissances biologiques . Vers 1489, Léonard de Vinci commence une série de dessins anatomiques . Pour la précision de l’observation, ils sont bien en avance sur tout ce qui a été tenté auparavant. Au cours des vingt-cinq années suivantes, il dissèque une trentaine de cadavres humains, dont beaucoup dans une morgue à Rome – jusqu’à ce qu’en 1515, le pape Léon X lui ordonne d’arrêter. Ses dessins, au nombre de 750 environ, comprennent des études sur les structures osseuses, les muscles, les organes internes, le cerveau et même la position du fœtus dans l’utérus. Ses études sur le cœur suggèrent qu’il était sur le point de découvrir le concept de la circulation du sang. C’est une coïncidence de grande valeur pour la biologie, dans laquelle l’observation est de première importance, que le regain d’intérêt de la Renaissance pour la science coïncide avec l’invention de l’imprimerie. Dès que les livres peuvent être publiés avec des illustrations gravées sur bois parmi les textes imprimés, les naturalistes ont non seulement un nouveau lectorat important, mais aussi la capacité de montrer ce qu’ils ont observé avec tant de soin. Le premier à utiliser sérieusement cette possibilité est un botaniste, Otto Brunfels, dont les trois volumes Herbarum vivae eicones sont publiés à Strasbourg entre 1530 et 1540 . Un naturaliste français de cette époque fournit un bon exemple de l’impulsion de la Renaissance à égaler et peut-être même à surpasser les auteurs classiques. En 1546, Pierre Belon entreprend un voyage de deux ans autour de la Méditerranée orientale dans le but précis de trouver et de représenter les animaux et les plantes décrits par les écrivains anciens. A Bâle, en Suisse, Vésale publie en 1543 son grand ouvrage – De humani corporis fabrica (La structure du corps humain) . Il s’agit d’un ouvrage en sept volumes comprenant de nombreuses et magnifiques illustrations gravées sur bois. Le livre connaît un succès immédiat, bien qu’il fasse naturellement l’envie des traditionalistes qui suivent Galien. Les théories de Galien ont, après tout, le mérite évident de l’ancienneté. Elles ont maintenant quelque 1400 ans. Ce souci de précision et d’exhaustivité n’est pas sans rappeler les projets actuels que sont par exemple The Human Protein Atlas ou le séquençage du génome humain 30,31 . La continuité avec nos ancêtres est que la connaissance biologique des éléments nous constituant nous permet de mieux appréhender et traiter les maladies. Cela nécessite donc de visualiser l’infiniment petit.

Métabolomique

Définition

La métabolomique est définie comme l’étude des métabolites issus du métabolisme chez un individu . Les métabolites sont les composés organiques de petite taille participant au métabolisme. Leur étude entre en interaction avec les autres sciences omiques bien que la métabolomique émule directement l’activité biochimique de l’organisme et décrit donc le mieux le phénotype moléculaire. Le métabolome d’un organisme, défini par l’ensemble des métabolites le constituant, est complexe et dynamique, car les métabolites sont continuellement absorbés et dégradés. Les études métabolomiques tentent de fournir un instantané complet de l’état physiologique d’un organisme à un moment donné. De manière générale, l’étude métabolomique peut être réalisée selon deux approches : l’approche ciblée et l’approche non ciblée. Dans le cas de l’approche non ciblée, un certain nombre de métabolites différents sont mesurés sans aucun biais d’échantillon, tandis que dans le cas de l’approche ciblée, des ensembles définis de métabolites sont mesurés avec un objectif du problème à traiter. Cependant, les étapes de ces deux approches sont communes.

Stratégies analytiques

Les études métabolomiques peuvent être divisées en cinq étapes 65,66 (Figure 4). La première étape consiste à définir le plan de l’étude en tenant compte d’un certain nombre de facteurs tels que la taille de l’échantillon, sa nature, la randomisation des analyses. Cette étape permet de s’assurer que tous les facteurs importants sont pris en compte, notamment les métabolites impliqués et leurs interactions potentielles qui pourraient biaiser leur analyse. La deuxième étape est la préparation de l’échantillon, où la collecte, le stockage et la préparation de l’échantillon ont lieu. Une attention particulière sera prise à la méthode d’extraction pour ne pas dégrader les échantillons. De la même manière, la conservation devra s’effectuer à très basse température (-80°C) pour ne pas dégrader les métabolites d’intérêt. Dans la troisième étape, une technique analytique comme la spectroscopie de masse ou la RMN est utilisée pour mesurer et quantifier les métabolites. La quatrième étape consiste à prétraiter les données pour les analyser afin d’en extraire des inférences biologiques. La dernière étape est l’analyse des données. Cette étape comprend l’application d’analyses statistiques aux données générées.

LES GLIOBLASTOMES

Épidémiologie

Le glioblastome est la tumeur cérébrale maligne primaire la plus fréquente chez l’adulte. Au cours des 20 dernières années, une incidence croissante des glioblastomes a été observée en raison de l’augmentation de l’espérance de vie de la population générale et d’un meilleur accès à des outils de diagnostic plus précis tels que l’IRM . Dans un article récent basé sur un registre prospectif des tumeurs du système nerveux central (SNC) aux États-Unis 5 , les glioblastomes représentent 54% des gliomes du cerveau avec une incidence annuelle de 3,19 pour 100 000. Le pic d’incidence se situe dans la 6 ème décennie pour les glioblastomes de type sauvage IDH et plus tôt, vers la 4 ème -5 ème décennie, pour les glioblastomes IDH mutés 6 . Malgré de nombreux essais thérapeutiques et des progrès dans la gestion de ces tumeurs, la survie médiane reste faible, environ 14 à 20 mois, avec un taux de survie à cinq ans de 5% dépendant de l’âge au moment du diagnostic, des caractéristiques moléculaires et de la gestion . Nous passons ici en revue les données actuelles concernant la présentation clinique, le diagnostic et la prise en charge des patients présentant un glioblastome.
Les facteurs de risque d’apparition de glioblastomes sont encore inconnus et les études traitant de cette question manquent souvent de puissance. L’exposition aux rayonnements ionisants pour le traitement d’une tumeur maligne pendant la petite enfance (12 ans) est un facteur de risque très rare pour l’apparition d’un gliome. Le risque de développer une tumeur cérébrale après radiothérapie est accru si les radiations se produisent à un âge plus jeune (<5 ans) et semblent liées au volume et à la dose, mais sans seuil clairement établi . L’incidence accrue des glioblastomes soulève la question des facteurs de risque environnementaux. Une méta-analyse a établi un lien entre l’utilisation d’un téléphone portable et l’apparition de glioblastomes . Cependant, ces résultats sont discordants et ont été contestés dans d’autres études. Le rôle de l’exposition au tabagisme ou à des agents cancérigènes a été étudié sans qu’il y ait d’association prouvée avec le glioblastome . Dans de très rares cas (<1%), il existe une prédisposition génétique au développement de glioblastomes chez les patients atteints des syndromes de Lynch, de Turcot de type 1 ou de Li Fraumeni.

Histologie et biologie moléculaire

Le diagnostic du glioblastome se fait facilement sur la base de résections chirurgicales ou de prélèvements de biopsie. Les glioblastomes sont des gliomes de haut grade, de grade IV selon la classification de l’Organisation mondiale de la santé (OMS) des tumeurs du système nerveux central . Les glioblastomes sont composés de cellules tumorales peu différenciées, souvent pléomorphes, avec une différenciation astrocytaire prédominante . Les caractéristiques histopathologiques comprennent l’atypie nucléaire, le pléomorphisme cellulaire, une forte activité mitotique, la thrombose vasculaire, la prolifération microvasculaire et la nécrose (Figure 5).

Prise en charge chirurgicale

Dans la mesure du possible, la première étape consiste en une résection chirurgicale macroscopique complète. Les données de la littérature suggèrent qu’une résection > 90 % de l’augmentation du contraste de la lésion chez les patients sans comorbidité améliore le résultat du patient au moment du diagnostic et de la récidive . La résection chirurgicale est généralement proposée aux patients de moins de 70 ans en bon état (échelle de Karnofsky >70) et ayant une tumeur accessible à l’ablation complète. Sinon, un débulquage chirurgical ou une biopsie stéréotaxique est pratiqué pour confirmer le diagnostic avant le traitement adjuvant . En raison de l’importance d’une résection complète sur la survie, des progrès ont été réalisés dans les techniques chirurgicales telles que la craniotomie en état de veille ou le neuromonitoring pour améliorer la qualité de la résection et prévenir les déficits ultérieurs.
En outre, la chirurgie guidée par fluorescence (Figure 7) a été développée pour guider la résection avec de meilleurs résultats sur la résection et la survie sans progression . Plus récemment, les dispositifs de résection ont évolué avec l’utilisation de la thérapie thermique interstitielle au laser (LITT) , qui permet une approche percutanée moins invasive grâce à l’insertion d’une fibre optique. La lésion thermique générée induit une nécrose tumorale . Une autre nouveauté dans la résection chirurgicale des tumeurs cérébrales est la surveillance peropératoire des métabolites de la tumeur par spectrométrie de masse. Le contenu cellulaire est analysé, ce qui permet une délimitation moléculaire précise des marges de la tumeur et donc une résection optimale de la tumeur.

Nouvelles thérapies et perspectives

En raison de l’issue défavorable chez les patients atteints de glioblastome et de la fréquence élevée de cette maladie, des thérapies innovantes sont testées dans différents essais contrôlés randomisés . Avec le développement d’une meilleure compréhension des voies moléculaires déclenchant la croissance des glioblastomes, l’approche traditionnelle de lathérapie antitumorale est progressivement complétée par une approche plus personnalisée.
Les calendriers de traitement ont été repensés, ainsi que les médicaments eux-mêmes. Deux inconvénients majeurs consistent en la difficulté pour la plupart des médicaments de passer à travers la barrière hématoencéphalique (BHE) et de cibler les cellules tumorales en raison de la présence de vaisseaux anormaux et de nécrose, ce qui empêche les médicaments d’être délivrés à une concentration appropriée. Certaines techniques émergentes ont été proposées pour améliorer la distribution de la thérapie antitumorale, notamment la conjugaison de médicaments avec des protéines pour faciliter le mouvement à travers la BHE et cibler spécifiquement la tumeur , l’utilisation de la délivrance par convection améliorée consistant en l’administration directe à l’intérieur de la tumeur via un cathéter et l’utilisation de nanoparticules.
L’augmentation de la perméabilité de la BHE pendant l’administration de la chimiothérapie par des ultrasons focalisés est également testée . Entre-temps, les approches d’immunothérapie sont connues depuis longtemps, avec des résultats prometteurs dans de nombreux cancers tels que le mélanome, mais décevants chez les patients atteints de gliomes . La vaccination contre le cancer a récemment été proposée en référence à l’activation d’une réponse immunitaire contre les antigènes tumoraux. Ces nouvelles technologies ont été appliquées pour le traitement des glioblastomes avec différents vecteurs . Deux modalités ont été testées : les vaccins
peptidiques ciblant les protéines EGFR, IDH1 ou de choc thermique, et les vaccins à base de cellules consistant en l’injection de cellules modifiées ex vivo, principalement des cellules dendritiques. Malgré des résultats encourageants dans les modèles animaux en termes de contrôle de la maladie, la vaccination contre le cancer dans les glioblastomes n’a pas encore prouvé son efficacité sur la survie globale dans les études de phase III. Stupp et al. ont récemment mis au point une nouvelle modalité thérapeutique dans le traitement des glioblastomes récurrents, consistant à délivrer localement des champs électriques de faible intensité par l’intermédiaire d’un transducteur non invasi . Le dispositif (NovoTTF-100A) a été testédans une étude de phase III et randomisé avec une chimiothérapie active comme bras alternatif. La survie globale a été similaire dans les deux bras (6 mois) avec moins d’effets indésirables dans le groupe NovoTTF-100A et une meilleure qualité de vie.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières
Remerciements
Table des matières
Publications et communications
Liste des figures
Liste des principales abréviations
INTRODUCTION GENERALE
Préambule 
CHAPITRE I : CHIRURGIEETMEDECINEDEPRECISION
1.1 Perspectives historiques
1.1.1 La neurochirurgie dans l’histoire
1.1.2 Apports de la biologie moléculaire à la médecine
1.2 Sciences omiques
1.2.1 Génomique
1.2.2 Transcriptomique
1.2.3 Protéomique
1.2.4 Métabolomique
1.3 Article I : Precision Neurosurgery: A Path Forward
CHAPITRE II : LES GLIOBLASTOMES
1.1 Épidémiologie
1.2 Présentation clinique
1.3 Diagnostic radiologique
1.4 Histologie et biologie moléculaire
1.5 Prise en charge chirurgicale
1.6 Thérapeutiquesmédicales
1.7 Nouvelles thérapies etperspectives
1.8 ArticleII : Diagnosis and Management of Glioblastoma: A Comprehensive
Perspective
CHAPITRE III : TRAVAIL EXPERIMENTAL
1.1 Définition du problème
1.2 Mise en place du design expérimental
1.3 Article III : Integrative Metabolomics Reveals Deep Tissue and Systemic Metabolic
Remodeling in Glioblastoma.
CONCLUSIONS ET PERSPECTIVES

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *