Quelques chiffres concernant les maladies neurologiques dans la population
Les maladies neurologiques sont prédominantes dans notre société et doivent constituer une priorité en matière de santé publique.
Les données de santé publique peuvent parfois être difficiles à recueillir à cause de la fragilité du système de santé de certains pays ou bien à cause de problèmes socio-culturels qui font barrière à la détection de pathologies.
Les pathologies neurologiques concernent pourtant le monde entier comme le montre la Figure 1 extraite de l’outil de visualisation en ligne des données de l’IHME (Institute for Health Metrics and Evaluation). Cette figure représente la prévalence pour 100 000 habitants des troubles neurologiques sur l’ensemble du territoire mondial en 2017. Ces résultats montrent que la planète entière est concernée par ces pathologies avec une densité supérieure notable pour les pays d’Amérique du Nord et d’Europe.
Le coût des troubles neurologiques
En Europe
Le coût des maladies neurologiques pour les populations est considérable. En effet, le Conseil Européen du Cerveau (European Brain Council – EBC), une organisation européenne à but non lucratif ayant pour but de promouvoir et d’améliorer la recherche pour les personnes atteintes de maladies neurologiques et psychiatriques, a mandaté en 2010 la réalisation d’une étude pour connaitre le coût des troubles neurologiques dans la population européenne.
Le coût total des maladies du cerveau en 2010 en Europe a été estimé à 798 milliards d’euros.
Les différents types de coûts dans cette étude sont présentés de la manière suivante :
– les coûts directs du système de santé (tous les produits et les services liés à la prévention, au diagnostic et au traitement de la maladie tels que les rendez-vous médicaux, les hospitalisations ou encore les médicaments),
– les coûts directs non médicaux (autres produits et services liés au trouble tels que les services sociaux et les hébergements spéciaux), et
– les coûts indirects (perte de productivité due à une absence du travail ou un départ en retraite anticipée).
Le coût total des troubles neurologiques et psychiatriques est composé à 37% de coûts directs de santé, 23% de coûts directs non médicaux et 40% de coûts indirects sociétaux et de perte de productivité.
En moyenne, le coût moyen estimé par personne et par an avec un trouble du cerveau est très variable en fonction de la pathologie et va de 285 euros pour les maux de tête à 30 000 euros pour les troubles neuromusculaires (Figure 3).
Aux États-Unis
Un article assez récent ayant été publié en 2017 assure que les États-Unis sont particulièrement durement touchés par le poids économique dû aux troubles neurologiques et psychiatriques de par les plus de 100 millions d’américains vivant avec ces troubles.
Le coût annuel total des troubles neurologiques rassemblant la maladie d’Alzheimer et autres démences, les lombalgies, les accidents vasculaires cérébraux, les traumatismes crâniens, la migraine, l’épilepsie, la sclérose en plaques, les lésions de la moelle épinière et la maladie de Parkinson, avoisine les 800 milliards de dollars. Ce chiffre augmente rapidement et ceci à cause du vieillissement de la population aux États-37 Unis. Le coût est assez variable en fonction de la pathologie comme illustré sur la Figure 4.
Une aire thérapeutique complexe pour le développement de nouvelles thérapies
La durée et les échecs du développement de nouveaux médicaments en neurologie
L’industrie pharmaceutique dans son ensemble est face à une pression constante pour revoir ses pratiques de recherche et développement afin d’améliorer l’efficacité et la productivité. En effet, l’expiration des brevets, les contraintes budgétaires des systèmes de santé et les exigences règlementaires de plus en plus strictes, conjugués à des coûts de R&D de plus en plus élevés obligent l’industrie pharmaceutique à innover pour rester viable et durable.
Il faut en général au moins dix ans pour qu’un nouveau médicament atteigne le marché après avoir franchi avec succès toutes les étapes indispensables de son développement de la découverte initiale à l’accès au marché comme le décrit la Figure 5 ci-dessous. La partie la plus longue de ce processus est le développement clinique qui dure en général six à sept ans.
Les causes de l’attrition
Dans la recherche et le développement de nouvelles thérapies, le taux d’échecs est donc très élevé notamment en neurologie. Il est important de mettre en lumière les causes de ce fort taux d’attrition afin de pouvoir trouver des solutions et des stratégies pour réduire ce taux d’échecs et par ce moyen ainsi augmenter l’efficience du développement de médicaments.
Une étude a examiné les raisons des échecs au cours du développement de nouvelles thérapies et l’évolution de celles-ci entre les années 1991 et 2000. Ces résultats sont présentés dans la Figure 8.
En 1991, la pharmacocinétique (PK) et la biodisponibilité représentaient les raisons principales de l’attrition à hauteur d’environ 40% du taux d’attritions total. En 2000, le nombre d’attrition pour raisons pharmacocinétiques ou de biodisponibilité a drastiquement diminué puisqu’il ne représentait plus qu’à peine 10% du total. A ce moment, les raisons majeures de l’attrition étaient le manque d’efficacité des nouveaux produits ainsi que la sécurité (sécurité clinique et toxicologie) qui comptaient chacunepour 30% des raisons totales.
Comme précisé dans les détails de l’analyse de l’étude, le manque d’efficacité pourrait être un contributeur encore plus significatif dans des aires thérapeutiques pour lesquelles les modèles animaux sont notoirement moins prévisibles d’un point de vue efficacité. Ceci est particulièrement vrai pour le système nerveux central ou encore l’oncologie pour lesquelles, comme vu précédemment, le taux d’attrition est élevé en phases II et III du développement. (13,14)
Il parait donc indispensable de mettre au point des modèles animaux représentatifs et prédictifs afin de limiter les échecs pour cause de manque d’efficacité et de sécurité chez l’Homme et ainsi éviter les échecs dans les phases avancées du développement des médicaments.
Une analyse plus récente a également été menée sur les données d’attrition de candidats médicaments fournies par quatre entreprises pharmaceutiques majeures entre 2000 et 2010. Ces données couvrent 812 candidats médicaments de forme orale et qui sont tous des molécules chimiques. L’auteur met en garde et prévient que les résultats de cette analyse sont plus représentatifs dans les phases précoces du développement.
Identification et validation des molécules
Que les molécules à visée thérapeutique soient d’origine naturelle ou synthétique, deux approches différentes sont utilisées pour le criblage primaire de celles-ci : le criblage basé sur les cibles et le criblage phénotypique. Les avantages et les inconvénients de ces deux méthodes sont présentés dans le Tableau 2.
Traverser la barrière hémato-encéphalique
Il existe un challenge tout particulier pour les traitements des maladies du cerveau, il s’agit de la barrière hémato-encéphalique. Les médicaments doivent être en mesure de pénétrer à travers cette barrière physiologique, protectrice, dynamique et sélective entourant les capillaires et qui module le flux entre le sang et le SNC. Cette barrière régule l’homéostasie du cerveau en protégeant les cellules cérébrales. Elle est constituée de trois types de cellules : les cellules endothéliales, les péricytes et les astrocytes (Figure 11).
Les cellules endothéliales forment la paroi des vaisseaux et sont liées par des jonctions serrées qui rendent imperméable cet espace entre les cellules. Les péricytes font partie de la lame basale tandis que les astrocytes sont en interaction avec chaque microvaisseau ; ces deux types cellulaires sont importants pour la fonction et la croissance de la barrièrehémato-encéphalique.
Les modèles animaux et les tests associés
De manière générale, la validité et la prédictivité des modèles animaux pour les troubles neurologiques sont largement reconnues comme étant insuffisantes (31). Les causes intrinsèques des maladies n’étant pas toujours connues, il est difficile de créer des modèles animaux pertinents. Le plus souvent, les modèles animaux utilisés sont très réductionnistes et ne récapitulent et n’incluent que quelques aspects de la complexité physiopathologique clinique de la maladie. Par exemple, le modèle de lésion à la 6-hydroxydopamine chez le rat est (a été) très largement utilisé pour modéliser la maladie de Parkinson. Ce modèle de dyskinésie du rat à la 6-hydroxydopamine reste l’un des plus populaires pour modéliser la dyskinésie à dose maximale. Ce modèle a été décrit pour la première fois par Cenci et ses collègues en 1998 et est encore largement utilisé aujourd’hui et recommandé pour tester des composés, car il produit un résultat comportemental stable et reproductible. Cependant ce modèle correspond à une perte massive (>90%) et brutale (24h) des neurones dopaminergiques de la substance noire (31,32). Ceci dévie fortement de la situation clinique qui correspond à une perte très progressive (sur plusieurs décennies) avec une apparition des premiers signes moteurs lorsque plus de 50% des neurones ont disparu (33).
Par ailleurs les tests utilisés pour mesurer et évaluer (reposant majoritairement sur l’observation d’une réponse comportementale) ont une faible valeur translationnelle et ont une très forte composante subjective. On pourra citer des exemples d’échelles de scoring pour évaluation des dyskinésies induites à la L-dopa chez le rat (31). La plupart des échelles existantes sont pertinentes pour les enquêtes approfondies sur les mécanismes neurobiologiques de la dyskinésie induite par L-Dopa (si elles ne sont pas conçues spécifiquement dans ce but) et reposent sur l’observation visuelle directe d’un grand nombre de paramètres comportementaux fins. En conséquence, l’impact de la subjectivité est élevé (l’expérimentateur peut introduire un biais subjectif pour chaque sous-type de comportement observé, ce qui influence le score global de la dyskinésie induite par L-Dopa) et l’utilisation d’une méthode particulière peut être difficile pour un expérimentateur qui n’a pas été formé par le laboratoire dans lequel la méthode a été développée.
On peut aussi citer le test de pression de la patte classiquement utilisé dans l’évaluation de la douleur, le test de Randall et Selitto (34). Ce test peut également inclure des biais à l’interprétation de la douleur. En effet comment peut-on être certain que la réaction du rat n’est pas liée à un état de stress ou à un inconfort mais bien à la douleur ? Comments’assurer de la bonne répétitivité du test ?
Fort taux de réponse des groupes placebo
Dans les études contrôlées versus placebo pour l’évaluation de nouveaux médicaments agissant sur le SNC, il est connu que le taux de réponse dans les groupes placebo peut être élevé. Ceci peut rendre l’analyse de l’efficacité du traitement à l’essai plus compliquée notamment dans des maladies comme la maladie d’Alzheimer ou les douleurs neuropathiques.
Alors que la recherche continue à élucider les détails du phénomène placebo dans les troubles du SNC, l’incertitude sur les résultats thérapeutiques des essais de traitements de plusieurs affections neurologiques s’accroît. Les progrès réalisés dans la compréhension des mécanismes des différents effets des placebos ont mis en évidence les défis considérables inhérents à l’interprétation des résultats des essais cliniques sur le SNC. Ces dernières années, de nouveaux mécanismes et concepts sont apparus dans l’étude des effets placebo dans les essais cliniques sur le SNC. Par exemple, la simpleétape du recrutement dans un essai ou l’interaction sociale entre les participants à l’essai peut modifier les conditions de base et donc affecter l’interprétation des résultats thérapeutiques. En outre, il a été démontré que différents génotypes réagissent différemment au placebo, dans des études sur la douleur par exemple. La reconnaissance croissante de ces facteurs dans la population générale soulève la question de savoir s’il faut tenter de réduire les réponses aux placebos dans les essais cliniques sur le SNC. Par exemple, de nombreux essais cliniques menés dans la maladie de Parkinson ou encore la douleur ont échoué à cause d’un fort taux de réponse placebo. (39)
Le concept de l’incertitude doit être pris en compte dans les essais cliniques SNC spécifique. En effet, dans les essais cliniques sur la douleur par exemple, le fait d’administrer un médicament et de mesurer ses effets peut activer les attentes des patients en matière d’analgésie, le médicament offrant un certain bénéfice, non pas par une action sur les voies de la douleur, mais par les mécanismes de l’attente, de l’espoir. Ceci peut donc évidemment mener à une mauvaise interprétation des résultats de l’étude. Cet effet relatif à l’attente a été mis en évidence lors d’une étude sur un produit narcotique, le rémifentanil. Le rémifentanil est un analgésique agoniste des récepteurs μ-opioïdes.
Lorsqu’un patient reçoit du rémifentanil et qu’il est informé du produit qui lui est administré, ceci produit un effet analgésique plus important que lorsque le sujet n’attend aucun effet alors qu’il prend du rémifentanil mais qu’on lui fait penser que le produit est une solution saline. Ces résultats sont mis en évidence sur la Figure 14. De plus, l’attente d’une interruption du traitement au rémifentanil alors que le patient continue la prise du produit, supprime l’effet analgésique global. Ces effets sont associés à une activité dans le cortex pré-frontal dorsolatéral et le cortex cingulaire antérieur dans la condition d’attente positive, alors que c’est la zone de l’hippocampe qui est activée dans l’attente négative d’une interruption.
Le recrutement des sujets
Un objectif essentiel du développement clinique est la réussite du recrutement et de l’inclusion des personnes participants à l’étude.
Le recrutement des personnes participants aux études est défini par le processus qui permet l’identification des personnes potentiellement éligibles jusqu’à leur inclusion et randomisation dans l’essai par le médecin investigateur. Ces personnes doivent être informées sur le protocole de l’essai et doivent signer le consentement éclairé.
La nature subjective des évaluations et un fort besoin de résultat cliniquement significatif
Le choix des outils de mesure de l’efficacité des traitements en développement est particulièrement important notamment lors des études d’efficacité précoces. Les critères de mesure d’efficacité choisis doivent équilibrer la nécessité de mesurer l’effet du médicament sur l’état de la maladie, fournir une première assurance que l’effet du médicament est cliniquement significatif et présenter des caractéristiques opérationnelles adéquates pour des études dont la taille de l’échantillon est généralement un peu plus petite. Si le but final du programme de développement est l’approbation d’un nouveau médicament, les paramètres sélectionnés pour les essais pivots doivent être acceptables pour les autorités réglementaires, quel que soit le lieu d’enregistrement du médicament.
Ceci est particulièrement vrai dans les programmes de développement des nouvelles thérapies en neurologie dans lesquels, des outils de mesure spécifiques sont utilisés. Des mesures de nature différente sont utilisées dans les essais cliniques, elles peuvent être de nature objective (événement clinique, changement dans le statut de la maladie, survie) et subjective (symptômes, qualité de vie).
Souvent des mesures telles que des résultats rapportés par des patients (PRO :
Patient-reported outcomes) sont évalués dans les essais en neurologie. Un PRO est un outil scientifiquement conçu, développé et testé pour saisir de manière fiable un ou plusieurs aspects de l’état de santé auto-perçu dans une population de patients spécifique.
Un PRO est donc un rapport sur l’état de santé d’un patient ou la condition d’un patient qui provient directement du patient lui-même, sans aucune interprétation de la réponse par une autre personne. Certains aspects peuvent être observés (fonctionnalité, niveau d’activité) tandis que d’autres ne sont pas observables et connus seulement par les patients (intensité de la douleur, niveau d’anxiété). Les types de mesures PRO les plus courants sont les suivants :
– Échelles d’évaluation (par exemple, échelle d’évaluation numérique de l’intensité de la douleur ou échelle d’évaluation verbale de l’amélioration d’un traitement médical)
– Nombre d’événements (par exemple, journal des épisodes de crise rempli par le patient). (46)
Le Microbiome
Le microbiome désigne l’ensemble des microbes (bactéries, virus, champignons et protozoaires), leurs gènes et leurs génomes (bien que différents à proprement parler, les termes microbiome et microbiote sont souvent utilisés de manière interchangeable).
L’ensemble diversifié de micro-organismes qui peuplent le tractus gastrointestinal chez l’Homme, influence profondément de nombreux aspects de la physiologie de l’hôte, notamment le métabolisme des nutriments, la résistance aux infections et le développement du système immunitaire.
Le rôle du microbiote intestinal dans l’homéostasie et la santé continue d’être prouvé.
Parmi les rôles connus du microbiote figurent le développement et la maturation du système immunitaire de la muqueuse, le maintien de l’intégrité de la barrière intestinale (66), la modulation des fonctions neuromusculaires intestinales (67) et l’exécution d’un certain nombre de fonctions métaboliques clés (68). Ces dernières pourraient, bien sûr, conduire à l’élaboration de molécules qui influencent les fonctions cérébrales. (65)
Des perturbations de la flore microbienne (appelées dysbiose) conduisent à des phénomènes inflammatoires qui pourraient se propager jusqu’au cerveau via l’axeintestin-cerveau.
Il suffit de se fier au graphique ci-dessous pour comprendre que le microbiome et son lien avec les maladies neurologiques constituent un intérêt croissant et un espoir pour la recherche dans cette aire thérapeutique. Le graphique répertorie le nombre de publications dans PubMed, par année, liées au microbiome et incluant les conditions neurologiques citées après. Les termes recherchés sont : microbiome et sclérose en plaques OU microbiome et maladie d’Alzheimer OU microbiome et maladie de Parkinson OU microbiome et maladie de Huntington. Le graphique représente la somme du nombre de publications (sur l’axe des ordonnées) pour chaque année entre 2015 et 2020 (sur l’axe des abscisses).
CONCLUSION
Les maladies neurologiques constituent un véritable fardeau pour la société et un vrai problème de santé publique. En effet, à travers le monde près d’un milliard de personnes sont concernées par ces troubles.
Les médicaments actuellement disponibles pour le traitement de ces pathologies sont des traitements symptomatiques, ils ne guérissent pas et ne modifient pas l’évolution physiopathologique de la maladie.
Par ailleurs, la découverte et le développement de nouveaux médicaments en neurologie sont confrontés à un taux d’attrition élevé lors des phases de recherche précliniques et dans les essais cliniques ; et seul un petit nombre de médicaments innovants atteignent le marché.
Il est important de prendre conscience des aspects clés nécessaires à l’amélioration de la découverte de traitements pour les pathologies liées au système nerveux central. La manière dont les maladies ont été définies jusque-là doit être repensée en mettant d’avantage l’accent sur la biologie. C’est ce vers quoi travaille le consortium européen PRISM qui se focalise sur les maladies psychiatriques mais aussi sur la maladie d’Alzheimer. (79) Leur but vise à développer une approche biologique quantitative de la compréhension des maladies neuropsychiatriques afin de revitaliser la découverte de traitements plus efficaces pour les patients. Les troubles étudiés (Schizophrénie, troubles dépressifs et Maladie d’Alzheimer) partagent en partie des symptomatologies communes, notamment le retrait social et certains déficits cognitifs, tels que l’attention, la mémoire de travail et le traitement sensoriel. Des technologies innovantes (par exemple, EEG, tâches cognitives, IRM) sont utilisées pour phénotyper en profondeur une cohorte clinique de patients atteints de Schizophrénie et de Maladie d’Alzheimer. Ces données seront ensuite combinées avec des ensembles de données cliniques existants provenant de grandes cohortes mondiales qui incluent également les troubles dépressifs. L’objectif sera de déduire de ces données un ensemble de paramètres biologiques quantifiables permettant de regrouper et de différencier les patients atteints ces trois pathologies.
Le but est donc de repenser la frontière entre la neurologie et la psychiatrie car bon nombre de maladies neurologiques sont associées à des symptômes psychiatriques.
|
Table des matières
REMERCIEMENTS
LISTE DES FIGURES
LISTE DES TABLEAUX
LISTE DES ABREVIATIONS
INTRODUCTION
1 ÉTAT DES LIEUX DES MALADIES NEUROLOGIQUES ET DE LA DECOUVERTE DE LEURS TRAITEMENTS
1.1 Description du système nerveux
1.2 Un besoin non satisfait en matière de traitements pour les troubles neurologiques
1.2.1 Généralités sur les maladies neurologiques
1.2.2 Quelques chiffres concernant les maladies neurologiques dans la population
1.2.3 Le coût des troubles neurologiques
1.2.3.1 En Europe
1.2.3.2 Aux États-Unis
1.3 Une aire thérapeutique complexe pour le développement de nouvelles thérapies
1.3.1 La durée et les échecs du développement de nouveaux médicaments en neurologie
1.3.2 Les causes de l’attrition
2 LES CHALLENGES CLES DE LA DECOUVERTE ET DU DEVELOPPEMENT DE NOUVELLES THERAPIES EN NEUROLOGIE
2.1 L’identification des cibles et des molécules
2.1.1 Identification et sélection des cibles
2.1.2 Identification et validation des molécules
2.1.3 Traverser la barrière hémato-encéphalique
2.2 Les modèles animaux et les tests associés
2.3 Les essais cliniques
2.3.1 Généralités sur les essais cliniques
2.3.2 Fort taux de réponse des groupes placebo
2.3.3 Le recrutement des sujets
2.3.4 La nature subjective des évaluations et un fort besoin de résultat cliniquement significatif
3 NOUVELLES APPROCHES THERAPEUTIQUES ET TENDANCES
3.1 Les voies de l’immuno-inflammation
3.2 Le Microbiome
3.3 La Thérapie génique
CONCLUSION
ANNEXE : QUESTIONNAIRE QOLIE-31
BIBLIOGRAPHIE