Modélisation des données longitudinales (Etat de l’art)
Les données longitudinales sont des mesures d’une même variable, chez les mêmes patients, au cours du temps. Dans le cas des maladies neurodégénératives, il s’agit principalement de critères de jugement quantitatifs (scores), obtenus à l’aide de tests construits pour refléter l’évolution de la maladie (par exemple le score moteur de l’UHDRS dans la maladie de Huntington [54], le Mini Mental Status Examination (MMSE) dans la maladie d’Alzheimer [55], …). Les effets plancher et plafond associés à ces tests ne permettent pas de considérer les scores comme des données linéaires et continues lorsque la période d’observation est longue (par exemple l’observation de l’évolution de la maladie dès l’apparition des premiers symptômes jusqu’au décès du patient). Cependant, dans le cas d’une durée d’observation courte, comme dans le cas d’un essai clinique, l’hypothèse d’une évolution linéaire des scores est admise. Cette hypothèse permet d’interpréter plus facilement les résultats et de réduire le nombre de paramètres à estimer, ce qui est important dans les études de petits effectifs. La corrélation entre les mesures d’un même patient et la présence de données manquantes sont deux caractéristiques des données longitudinales. Le modèle à effets mixtes permet de considérer séparément les termes issus de la variabilité inter-patients de ceux issus de la variabilité intra patient. L’algorithme d’espérance-maximisation (ExpectationMaximization, EM) permet d’estimer le modèle en présence de données incomplètes et par extension lorsque les patients ne sont pas suivis au même moment [56]. Nous posons ici les bases d’un modèle linéaire à effets mixtes et montrons comment un modèle mixte linéaire par morceaux avec deux pentes permet d’estimer l’effet d’un traitement sur l’évolution d’une maladie.
Le modèle à effets mixtes linéaire par morceaux pour modéliser l’effet d’un traitement sur l’évolution de la maladie
Notations et modélisations
L’effet d’un traitement sur l’évolution d’un score continu peut se modéliser par un changement de pente. Le modèle linéaire par morceaux estime une première pente correspondant à la pente d’évolution pré-traitement et une seconde pente correspondant à la pente d’évolution post-traitement. Nous simplifions le modèle polynomial par morceaux proposé par Madsen et al. [58] pour obtenir le modèle linéaire par morceaux ci-dessous :
yij = (β0 + b0i) + (β1 + b1i) × tij + (β2 + b2i) × (tij − τ ) × 1(tij ≥ τ ) + εij (1.9)
où yij correspond à la jème observation du patient i au temps tij et τ représente le temps de début du traitement, commun à tous les patients. β = (β0,β1,β2) est le vecteur des effets fixes et bi = (b0i ,b1i ,b2i) est le vecteur des effets aléatoires spécifiques au patient i tel que bi ∼ N (0,D). Enfin, εij ∼ N (0,Σi) correspond à la variabilité des mesures. Les interprétations des paramètres β0, β1, b0 et b1 restent les mêmes que pour l’équation (1.2). Les paramètres β2 et b2 sont associés au différentiel de pentes pré- et post-traitement avec β2 le différentiel moyen et b2i l’effet individuel du patient i. La variance associée à b2 représente l’hétérogénéité de l’effet du traitement autour de l’effet moyen.
Application à MIG-HD
Dans l’essai clinique MIG-HD, les patients sont tous suivis avant et après traitement mais ne sont pas tous greffés au même moment. Les patients du groupe « greffe précoce » sont greffés après 13 mois de suivi tandis que les patients du groupe « greffe tardive » sont greffés après 33 mois de suivi.
Clustering des données quantitatives (Etat de l’art)
Le clustering est le terme générique désignant les méthodes d’apprentissage non supervisée permettant de construire des sous-groupes de données homogènes. Ces méthodes, où les sous-groupes ne sont pas pré-définis, se différencient des méthodes d’apprentissage supervisées qui visent à prédire des règles de classification à partir d’exemples de sousgroupes déjà définis. En général, les méthodes classiques de clustering s’appliquent sur des données transversales. Certaines études longitudinales de clustering s’intéressent aussi à des données transversales en résumant l’information par exemple par un coefficient de pente ou une durée de survie (méthode en deux étapes). D’autres, à l’inverse, vont utiliser les données longitudinales dans le clustering en y intégrant les mesures répétées. Parce qu’aucune de ces méthodes de clustering pour données longitudinales n’est satisfaisante dans notre cas, où l’on souhaite trouver des patients répondeurs à un traitement, nous avons proposé une nouvelle méthode.
Mesures de dissimilarité entre deux observations
Les algorithmes de clustering se basent sur des mesures de similarité (s) ou de dissimilarité (d) entre deux observations. Pour les algorithmes non paramétriques, d est une application, appelée distance, à valeurs dans l’ensemble des réels positifs (d: E×E −→ R+) où E ⊂ R p représente l’ensemble de nos observations. L’application d vérifie les propriétés :
• de symétrie : ∀(i,j) ∈ E2 ,d(i,j) = d(j,i);
• de séparation : ∀(i,j) ∈ E2 ,d(i,j) = 0 ⇔ i = j ;
• d’inégalité triangulaire : ∀(i,j,m) ∈ E3 ,d(i,j) ≤ d(i,m) + d(m,j).
Soit xi un vecteur de dimension p des caractéristiques de l’observation i où xi1,…,xip sont des valeurs quantitatives continues (scores). La distance entre deux observations i et j se calcule à partir de ces scores. La distance est d’autant plus faible que les scores sont proches.
La distance euclidienne, aussi appelée norme L2, est la distance la plus connue. Elle peut être assimilée à la distance parcourue à vol d’oiseau entre deux points A et B, tandis que la distance de Manhattan [61], ou norme L1, serait assimilée à la distance parcourue en marchant dans des rues suivant un quadrillage. La distance de Chebyshev, ou norme L+∞, correspond à la plus grande projection de B sur les axes de l’espace dont le centre serait défini par A (voir Figure 8 pour un exemple en dimension 2). Les distances euclidienne, de Manhattan et de Chebyshev sont des cas particuliers de la distance de Minkowski avec respectivement le paramètre de Minkowski r égal à 1, 2 et +∞. Lorsque p = 1 la distance de Minkowski est la valeur absolue de la différence de scores entre les deux observations quel que soit r. Les distances euclidienne, de Manhattan et de Chebyshev sont donc égales dans le cas p = 1.
|
Table des matières
Introduction
I Analyse de l’effet d’un traitement dans le cadre de données longitudinales et définition de sous-groupes répondeurs
1 Modélisation des données longitudinales (Etat de l’art)
1.1 Le modèle linéaire à effets mixtes
1.1.1 Notations et modélisations
1.1.2 Estimation des paramètres du modèle marginal
1.1.3 Estimation des effets aléatoires
1.2 Le modèle à effets mixtes linéaire par morceaux
1.2.1 Notations et modélisations
1.2.2 Application à MIG-HD
2 Clustering des données quantitatives (Etat de l’art)
2.1 Mesures de dissimilarité entre deux observations
2.2 Cas des données transversales
2.2.1 Algorithmes non paramétriques
2.2.2 Algorithmes paramétriques
2.3 Cas des donnés longitudinales
2.3.1 Un algorithme non paramétrique : clustering des données longitudinales par K-moyennes
2.3.2 Un algorithme paramétrique : clustering des données longitudinales par modèle mixte à classes latentes
2.4 Estimation du nombre de clusters
3 Méthode de clustering pour l’effet d’un traitement prenant en compte l’information pré-traitement dans le cadre de données longitudinales
3.1 Article « CLEB: a new method for treatment efficacy clustering in longitudinal data»
3.2 Simulations supplémentaires
3.2.1 Estimation de la différence d’effet entre les deux groupes
3.2.2 Estimation du nombre de clusters par le critère d’information bayésien (BIC)
3.2.3 Comparaison avec la méthode KML
3.2.4 Comparaison avec la méthode par régressions individuelles
3.3 Application à MIG-HD
II Intégration de nouveaux paramètres dans la conception des essais cliniques
4 Marqueurs pronostiques et marqueurs prédictifs (Etat de l’art)
4.1 Définition générale
4.2 Définition dans le cadre d’une maladie évolutive
4.3 Utilisation des marqueurs en soins courants
5 Intégration des marqueurs pronostiques dans les essais cliniques
5.1 Article « COMT Val158Met Polymorphisms Modulates Huntington’s Disease Progression »
5.2 Exemples d’intégration des marqueurs pronostiques dans les essais cliniques
6 Intégration des marqueurs prédictifs dans les essais cliniques
6.1 Les plans expérimentaux d’essai clinique basés sur un marqueur prédictif (Etat de l’art)
6.2 Impact des valeurs prédictives et pronostiques du marqueur sur les plans expérimentaux stratégiques : une étude de simulation
6.2.1 Objectif et notations
6.2.2 Nombre de sujets nécessaires
6.2.3 Conséquences d’un marqueur prédictif et pronostique sur la puissance de l’étude
6.2.4 Conséquences de l’utilisation de ces plans expérimentaux lorsque
le traitement expérimental est meilleur que le traitement standard, indépendamment du marqueur
6.2.5 Discussion
7 Intégration des mesures cognitives grâce à la prise en compte de l’effet retest
7.1 Définition de l’effet retest et problématique associée
7.2 Article « How to capitalize on the retest effect in future trials on Huntington’s disease? »
Conclusion
Discussion
Annexes
Télécharger le rapport complet