Télécharger le fichier pdf d’un mémoire de fin d’études
Obtention des données de surveillance continue en réanimation.
Les paramètres étudiés étaient la fréquence cardiaque, la tension artérielle, la température et le BIS.
Les mesures de pression artérielle ont été réalisées par l’intermédiaire de cathéters de mesure invasive de pression. La température centrale a été monitorée à l’aide de sondes thermiques vésicales ou oesophagiennes. Les capteurs de BIS (Bi-spectral Index) utilisés étaient de type Quatro, de la marque Mindray, reliés au moniteur Coviden.
Le BIS est un signal simplifié de l’EEG (électroencéphalogramme), qui traduit le signal en un chiffre compris entre 0 (tracé isoélectrique) et 100 (activité cérébrale normale d’un patient conscient). On calcule également le rapport de suppression, qui correspond au pourcentage de temps avec un signal isoélectrique pour chaque période de 63 secondes. Son utilisation a été initialement décrite en anesthésie, avec un objectif sous anesthésie générale entre 40 et 60, après exclusion des nombreux facteurs confondants.
Le recueil des données au cours des 7 premiers jours de séjour a été réalisé grâce au logiciel ReaScopy conçu par le Dr François Antonini et connecté aux moniteurs de surveillance scopiques de chaque patient, qui enregistre leurs données toutes les 5 secondes.
Les données ont été extraites et enregistrées dans une base de données HL7. Puis, nous avons réalisé un script Python afin de les convertir dans un format utilisable et de créer un dossier individuel par patient.
Elles ont ensuite été traitées grâce au logiciel Matlab® (The Mathworks, Nantucket, Massachussetts, USA), afin d’être exploitables. Les artéfacts tels que le flush de l’artère ou les déconnexions du système étaient retirés en utilisant un filtre médian permettant de détecter et régulariser les signaux de fréquence cardiaque et de pression artérielle. Ceci a permis l’obtention de courbes à partir des valeurs enregistrées toutes les 5 secondes.
Nous avons analysé la structure du signal de la courbe de fréquence cardiaque et étudié sa complexité, de deux manières, en calculant la dimension fractale d’Higuchi (DFH) et en étudiant les N-peaks. La DFH est utilisée pour décrire la variabilité d’un signal non linéaire telle qu’est la variabilité de la fréquence cardiaque9. L’estimation de la DFH est bien adaptée à l’étude de séries temporelles irrégulières. Cette estimation est basée sur le calcul de la durée des séries utilisées. La valeur est de 1 pour une courbe totalement déterministe telle qu’une courbe sinusoïde. La valeur est de 2 pour une courbe complexe comme une série aléatoire. Donc, plus la valeur se rapproche de 2, plus la courbe est complexe. Les N-peaks sont issus d’une formule mathématique étudiant la variabilité d’une courbe, en quantifiant le nombre de pics au-dessus d’un seuil prédéfini sur la courbe de variance, et est exprimé en unités arbitraires. Plus il y a de pics, plus la courbe est complexe. Nous avons calculé ces indices à partir de la courbe issue des données de fréquence cardiaque.
Analyse de la population et des données médicales
Les statistiques ont été réalisées avec le logiciel Excel. Les résultats pour les données quantitatives sont donnés sous forme de moyennes associées à un intervalle de confiance calculé à 95% ou sous forme de médianes associées à l’intervalle interquartile (IIQ) à 25% et 75%. Les données qualitatives sont données sous forme de pourcentage avec les chiffres de l’effectif.
Analyse univariée
Les variables relevées ont été étudiées afin de retrouver lesquelles étaient significatives entre le groupe des patients non décédés en réanimation et le groupe de patients décédés en réanimation.
L’analyse des données était univariée. Pour les variables numériques continues, nous avons réalisé des tests de Student. L’homogénéité des variances des 2 groupes était vérifiée par un test F préalable. Les 2 groupes étant de taille supérieure à 30, nous avons considéré que la distribution était normale.
Pour les variables qualitatives, nous avons réalisé des tests de Khi2.
Le risque d’erreur accepté était de 5%, et nous avons donc considéré le résultat comme significatif si la valeur du p était inférieure à 0,05.
Algorithme d’intelligence artificielle
Elaboration des algorithmes
Nous avons évalué les performances de 4 modèles différents.
Le modèle 2 est un algorithme utilisant une méthode de régression logistique. Il intègre le score TAREA. Ce score prend en compte la valeur de l’IGS II associée à la valeur moyenne de la DFH et de la PAD moyenne au cours des 24 premières heures du séjour en réanimation. Ce score a déjà été étudié en réanimation sur une population de 519 patients10. Les données de cette population associées à celle de notre étude ont été prises en compte pour l’évaluation de ce score.
Les 3 autres modèles sont des algorithmes d’intelligence artificielle d’apprentissage automatique supervisé. Les différentes techniques d’apprentissage automatique ne seront que résumées ici, mais ont été décrites de façon plus approfondie dans la littérature11. En bref, l’apprentissage automatique correspond à l’utilisation d’algorithmes qui apprennent des associations non-linéaires de façon rétrospective à partir des données pour estimer le risque d’une issue prédéfinie.
Nous avons utilisé des classifieurs à type de forets aléatoires associés une méthode de ‘’bagging’’ afin de rendre la prédiction plus précise. Les forêts aléatoires correspondent à une méthode utilisant de multiples arbres décisionnels pour créer des séries de division des données saisies initialement de façon aléatoire. A ceci est ajoutée la technique de bagging, correspondant à la division de ces données par ‘’groupes’’ ou ‘’sacs’’.
L’algorithme garde une partie des données de côté afin de tester ensuite sa fiabilité. Il existe plusieurs techniques de validation interne de l’algorithme. Ici nous avons utilisé une technique de validation croisée, avec un échantillon de validation de 1 pour 5. Ceci consiste à diviser les données en 5 échantillons, puis à en sélectionner un comme validation pendant que les 4 autres échantillons participent à l’apprentissage, puis l’opération se répète en sélectionnant un autre échantillon de validation. Ceci permet d’obtenir une estimation plus robuste.
Pour utiliser l’algorithme, une fois de nouvelles données saisies, celui-ci ‘’interroge’’ les différents arbres décisionnels et génère une probabilité de réalisation de l’issue demandée initialement, en fonction de la réponse de chaque arbre (ici, le décès).
Nous avons sélectionné les variables à intégrer dans les algorithmes parmi celles qui avaient un résultat significatif après l’analyse statistique, tout en essayant d’intégrer un nombre limité de variables dans chaque algorithme. Ceci avait pour but d’éviter la création d’un modèle trop complexe, pouvant être sujet au phénomène de surapprentissage et non généralisable par la suite. Le surapprentissage correspond à l’élaboration d’un algorithme trop précis, trop proche de la population source, et qui n’est pas fiable quand on le teste sur une nouvelle série de données, et n’est donc pas généralisable à la population cible.
Le Modèle 3 intègre les variables suivantes : le sexe, l’IGS II, l’étiologie (cardiaque ou non cardiaque), la durée de no flow, la durée de low flow, la présence de témoins, la présence d’un rythme choquable initial, et le taux de créatininémie initiale.
Le Modèle 4 intègre la valeur du score TAREA, l’étiologie (cardiaque ou non cardiaque), la présence d’un rythme choquable, le taux de NSE entre 48 et 72 heures.
Le Modèle 5 intègre les mêmes valeurs que le modèle 4 (score TAREA, étiologie, présence d’un rythme choquable initial, taux de NSE), ainsi que la valeur du score de Glasgow moteur à la 72ème heure.
Les différentes variables intégrées dans chaque modèle sont résumées dans le tableau III.
Etudes des données issues du dossier médical
Nous avons pu extraire les données des constantes disponibles sur les scopes de la réanimation via le logiciel ReaScopy pour 107 patients. L’analyse de significativité après analyse des données lors des 3 premiers jours de séjour entre les groupes de patients décédés en réanimation et survivants est exposée dans le tableau VI. Les résultats sur les données des 7 premiers jours de séjour sont détaillés en annexe (cf. Annexe 4). Des courbes illustrant les données de temps passé avec une tension artérielle diastolique inférieure à 50mmHg, de la DFH sur le signal de la fréquence cardiaque, de la température corporelle moyenne et du rapport de suppression sur le signal du BIS sont présentées sur la figure 3.
On retrouvait une significativité des N-peaks entre le groupe de patients décédés et le groupe de patients survivants sur les 3 premiers jours de séjour, et de la DFH sur les 2 premiers jours de séjour traduisant un signal de fréquence cardiaque plus complexe dans le groupe de patients survivants. Ceci est bien illustré sur la courbe B de la figure 3.
Pour la température, on ne retrouvait pas de différence significative entre les 2 groupes sur les 2 premiers jours de séjour. On retrouvait cependant un temps passé avec une température <36°C significativement plus long dans le groupe de patients décédés, ainsi qu’une température moyenne significativement plus basse dans le groupe de patients décédés au 3ème jour.
Pour la tension artérielle, on ne retrouvait pas de différence significative entre les 2 groupes, que ce soit pour la PAS, la PAD ou le temps passé avec une PAD inférieure à 50mmHg. Toutefois, on pouvait noter une tendance, avec un temps passé avec un PAD inférieure à 50mmHg d’allure plus long chez les patients décédés sur les courbes, au deuxième jour seulement (cf. Figure 3). On retrouvait une p-value limite, à 0,07, confirmant cette tendance, malgré tout non significative.
Etude de la performance des différents modèles
Nous avons réalisé des matrices de confusion pour chaque modèle, exprimant les valeurs de spécificité, sensibilité, valeur prédictive positive et négative ainsi que la précision globale du modèle. Elles sont exposées dans la figure 4. Une explication de la matrice de confusion établie sur celle du modèle 5 est disponible en annexe (Cf. Annexe 5). Les performances de chaque modèle sont résumées dans le Tableau VII.
Les courbes ROC avec leurs AUC sont présentées sur la figure 5. On retrouvait une AUC de la courbe ROC de l’IGS II à 0.8 ce qui correspond à une assez bonne performance de test.
Les modèles testés présentaient des performances supérieures à l’IGSII avec pour les modèles 4 et 5 des AUC > 90%, correspondant à d’excellentes performances pour le test.
Pour le modèle 5 on notait une spécificité supérieure à 90 %.
Tous les modèles réalisés avaient de meilleures performances que l’IGS II en termes d’AUC. Ils avaient également tous une meilleure spécificité.
Absence bilatérale des réflexes pupillaires et cornéens à la 72ème heure
L’absence bilatérale des réflexes pupillaires 72h après l’arrêt cardiaque est un des premiers facteurs pronostiques à avoir été étudié. Il a été validé par de nombreuses études, et est recommandé comme étant un des indicateurs les plus robustes par la plupart des sociétés savantes3,4.
La revue systématique ILCOR (International Liaison Committee on Resuscitation) de 2015 a retrouvé que l’absence bilatérale des réflexes pupillaires entre 72 et 108 heures après l’ACEH prédisait un mauvais devenir, avec un TFP de 1% (IC95% : 0-3%). Notre étude retrouvait des résultats similaires, avec aucun patient survivant si on notait une absence de réflexes pupillaires ou cornéens à la 72ème heure (Cf. Tableau V).
Les données de la littérature sont similaires avec les réflexes cornéens, avec une absence bilatérale des réflexes cornées entre 72 et 120 heures après l’ACEH prédisant un mauvais devenir avec un TFP de 2% (IC 95% : 0-7%).
Ces deux indicateurs sont les facteurs pronostiques les plus robustes étudiés et il est recommandé de les utiliser en premier afin d’établir le pronostic neurologique chez les patients restant comateux après 24h de traitement par température ciblée. Les dernières recommandations les considèrent comme étant les plus fiables car ils ont été investigués dans de nombreuses études, et ce par au moins 3 équipes de recherche différentes.
Nous ne les avons pas intégrés dans nos algorithmes, car, même s’ils ne doivent pas être utilisés seuls dans la prédiction d’un mauvais devenir, ils restent un des signes les plus fiables de mauvais pronostic. On peut donc penser que, quand les réflexes pupillaires ou cornéens sont absents à la 72ème heure, il n’y aura pas nécessité d’investigations supplémentaires attestant d’un mauvais pronostic avant de décider d’une LATA.
Toutefois, cet indicateur a une sensibilité médiocre (environ 20% pour le réflexe pupillaire et 30% pour le réflexe cornéen)12. Donc de nombreux patients conservant un réflexe pupillaire ou cornéen à la 7ème heure ont tout de même un mauvais devenir. Dans notre étude, 39% des patients décédés avaient un réflexe pupillaire ou cornéen présent à la 72ème heure. Dans ce cas, des éléments supplémentaires sont nécessaires afin d’établir le pronostic neurologique, et notre algorithme peut alors être intéressant.
Marqueur biologique : NSE
La protéine NSE (Neuron-Specific Enolase) est une enzyme glycolytique impliquée dans le métabolisme du glucose et est principalement présente dans cellules neurales et neuroendocrines. C’est le marqueur biologique qui a été le plus étudié pour la pronostication neurologique après ACEH. La difficulté avec cette méthode est de déterminer le seuil et le moment de prélèvement optimal afin d’obtenir un TFP le plus bas possible tout en gardant une bonne sensibilité. Historiquement, une des premières études portant sur les taux de NSE, avant l’avènement du contrôle cible de la température, retrouvait qu’un taux de NSE supérieur à 33μg/L entre 24 et 72 heures après l’ACEH était associé avec un mauvais devenir, avec un TFP de 0% (IC 95% : 0-3%)13. Des études plus récentes ont retrouvé des TFP élevés (jusqu’à 29%) en utilisant ce seuil14. Les données actuelles suggèrent qu’il est inhabituel qu’un patient ait un bon devenir en cas de taux de NSE supérieur à 80μg/L dans les premières 72 heures après l’ACEH14. Plusieurs autres études retrouvent des résultats similaires. Pascal Stammet et coll. ont retrouvé qu’aucun patient ayant un taux de NSE supérieur à 55μg/L à la 72ème heure (et supérieur à 76μg/L à la 48ème heure) après ACEH n’avait un bon devenir neurologique15. Sellner et coll. ont eux retrouvé un TFP de 10% chez les patients avec une température à 33°C en prenant un seuil de 41μg/L à la 48ème heure16. Dans notre étude, le taux de NSE était mesuré entre 48 et 72 heures après l’admission en réanimation. Aucun patient avec un taux de NSE supérieur à 84,2μg/ml avait un bon devenir neurologique (correspondant à un score CPC de 1-2, cf. Annexe 2). Aucun patient avec un taux de NSE supérieur à 41,8μg/L n’avait un très bon devenir neurologique (correspondant à un score CPC à 1). Ceci concorde avec les données de la littérature, et montre la nécessité d’un seuil élevé pour obtenir un TFP à 0%. Le taux de NSE minimal parmi les patients avec un mauvais devenir (correspondant à un score CPC ≥3 ou le décès) était de 10,9, témoignant d’une mauvaise sensibilité de cet indicateur.
Quand on utilise cet indicateur, il faut en connaitre les limites. Les standards de calibration peuvent varier d’un laboratoire à un autre, rendant la définition d’un seuil encore plus difficile. Les NSE sont présente dans les érythrocytes, on peut donc être confrontés à des faux positifs en cas d’hémolyse. Etant présentes également dans les cellules neuroendocrines, les tumeurs neuroendocrines (neuroblastomes, cancers bronchiques à petites cellules), peuvent aussi être source de faux positifs.
Pour ces raisons, les recommandations actuelles conseillent de ne pas utiliser le taux de NSE seul pour prédire un mauvais devenir neurologique3,4. Ils recommandent de l’utiliser associé à d’autres tests pronostiques à la 72ème heure après ACEH, et de considérer un taux élevé de NSE entre 48 et 72 heures comme facteur de mauvais pronostic. Il n’y a toutefois pas de seuil défini. Ils conseillent également de multiplier les prélèvements afin d’éviter les faux positifs.
Cet indicateur reste donc intéressant, d’autant plus qu’il est facile à obtenir en réanimation, mais combiné avec d’autres éléments pronostique. Nous l’avons donc inclus dans nos modèles 4 et 5.
Température corporelle
La thermorégulation a elle aussi déjà été étudiée en réanimation, notamment après lésion cérébrale17. Classiquement, on apprend que la thermorégulation se fait par l’hypothalamus. Or, de nombreux autres éléments entrent en jeu, au niveau périphérique mais aussi au niveau central, hypothalamique et cortical également18. On peut donc supposer qu’une lésion au niveau cérébral et notamment corticale puisse avoir des conséquences sur les capacités de thermorégulation de l’organisme.
Dans notre étude, on ne retrouvait pas de différence significative sur les données liées à la température corporelle sur les 2 premiers jours de séjour, ce qui correspond probablement à la durée de traitement par contrôle ciblé de la température à la phase initiale. On retrouvait cependant un temps avec une température corporelle inférieure à 36°C significativement plus long au 3ème jour dans le groupe de patients décédés. Ceci pourrait s’expliquer par une plus grande difficulté de réchauffement chez certains de ces patients, due à une perte de la capacité de thermorégulation, pouvant être en lien avec d’éventuelles lésions d’encéphalopathie anoxo-ischémique, au niveau cortical ou hypothalamique. On pourrait aussi penser qu’une atteinte du système nerveux autonome ait des répercussions sur la thermorégulation aussi, ne permettant pas la mise en oeuvre des mécanismes de compensation de l’hypothermie au niveau périphérique notamment (la vasoconstriction par exemple).
Bi-spectral Index
Le BIS a été étudié pour la surveillance et le pronostic neurologique après ACEH. Il est évoqué qu’une valeur basse, notamment lors de la phase de température ciblée pourrait être le témoin d’une souffrance cérébrale. Chez les patients sous sédation adaptée, la valeur de BIS attendue se situe entre 40 et 60, on pourrait donc penser qu’une valeur très basse témoigne d’une lésion cérébrale surajoutée. Mais cela est très dur à prouver de façon fiable, car on est toujours confronté au doute d’une éventuelle sédation trop profonde ou d’une sédation résiduelle. L’interprétation du BIS est également sujette à des artéfacts, au niveau de l’EMG notamment, rendant son interprétation moins fiable. Plusieurs études ont tout de même été réalisées sur le sujet. Dans l’étude rétrospective de Ward Eertmans et coll., on retrouve qu’un BIS moyen < 25 après 12h d’entrée en réanimation est associé à un mauvais pronostic neurologique (sur le score CPC) avec une sensibilité de 49% (IC 95% : 30-65%) et une spécificité de 97%(IC 95% 85-100%)21. Ils retrouvent également qu’un RS ≥3 23 heures après l’ACEH prédit un mauvais pronostic neurologique avec une sensibilité de 74% (IC 95% : 56–87%) et une spécificité de 92% (IC 95% 78-98%). Similairement, Seder et coll. retrouvaient dans leur étude une mortalité de 91% chez les patients avec un BIS inférieur à 10 dans les premiers jours de séjour.22 Ces études restent malheureusement peu robustes, car rétrospectives, avec des intervalles de confiance larges. L’utilité du BIS dans ce contexte n’est donc pas du tout admise à l’heure actuelle. Pour toutes ces raisons, cet indice n’est pas intégré aux recommandations actuelles4.
Dans cette étude, les seules différences significatives retrouvées sur l’analyse du BIS étaient une valeur minimale plus basse et un RS maximal plus élevé dans le groupe de patients décédés le premier jour uniquement. Ceci pourrait s’expliquer par la présence de patients en état de mort encéphalique ou de très mauvais pronostic ayant un BIS proche de 0, qui ne survivent pas à la phase initiale. Un BIS bas peut aussi être le témoin d’une cause neurologique à l’ACEH22 , elle-même associée à une mauvaise évolution. On voit sur la courbe des rapports de suppression que la différence entre les 2 groupes diminue au cours du séjour, probablement car les patients les plus graves, avec des RS plus élevés, décèdent. Toutefois, peu de patients dans notre étude ont bénéficié d’une surveillance par BIS (30%) et il se pourrait que l’on manque de puissance afin de démontrer une différence entre les deux groupes.
Nous avons choisi de ne pas inclure les données en lien avec le BIS dans nos algorithmes pour ces raisons, mais aussi car notre effectif était trop faible pour pouvoir tirer des conclusions fiables.
|
Table des matières
INTRODUCTION
MATERIEL ET METHODES
Design de l’étude
Recueil de données
Recueil des données médicales
Obtention des données de surveillance continue en réanimation.
Analyse des données
Analyse de la population et des données médicales
Analyse univariée
Analyse des données issues de la surveillance continue en réanimation
Algorithme d’intelligence artificielle
Elaboration des algorithmes
Analyse du pouvoir prédictif des algorithmes
RESULTATS
Caractéristiques de la population
Etudes des données issues du dossier médical
Etude de la performance des différents modèles
Evolution à distance
DISCUSSION
Choix des variables
Absence bilatérale des réflexes pupillaires et cornéens à la 72ème heure
Réponse motrice à la 72ème heure
Marqueur biologique : NSE
La dimension fractale d’Higuchi
Température corporelle
Tension artérielle
Bi-spectral Index
Approche multimodale
Utilisation de l’intelligence artificielle
Evolution à long terme
Limites de l’étude
CONCLUSION
BIBLIOGRAPHIE
Télécharger le rapport complet