Sélection et analyse des ventes de médicaments pour la surveillance des gastroentérites

Télécharger le fichier pdf d’un mémoire de fin d’études

La surveillance syndromique

La surveillance syndromique (syndromic surveillance) est la surveillance de ces indicateurs non spécifiques, discernables au niveau de la population avant que les diagnostics confirmés soient faits (Mandl et coll. 2004). Elle ne repose donc pas sur le diagnostic au niveau d’un individu mais sur la détection de motifs aberrants dans des données populationnelles (Lewis et coll. 2002). La surveillance syndromique permet de détecter des épidémies grâce aux premiers symptômes de l’infection et à ses effets sur le comportement des personnes infectées. Elle permet, d’autre part, d’avoir en temps réel des chiffres et localisations concernant l’épidémie, de suivre l’efficacité des mesures de contrôle et de caractériser les populations atteintes (Bradley et coll. 2005; Rolka et coll. 2007). Elle est aussi utile pour suivre la tendance de certaines maladies sur le long terme (Rolfhamre et coll. 2006) et pour évaluer les besoins en santé publique (Mandl et coll. 2004). La surveillance syndromique est parfois désignée par les termes : systèmes d’alerte précoce (early warning systems), surveillance des indicateurs de santé (health indicator surveillance) ou surveillance prodromale (prodromal surveillance) (Henning 2004; Sebastiani et coll. 2004; Chretien et coll. 2008).
Si la menace bioterroriste a fait de la surveillance syndromique un domaine de recherche actif, l’intérêt pour ce type de systèmes a été renouvelé par la menace des maladies émergentes, telles que le SRAS apparu en Asie en 2003, et celle de la pandémie grippale : la crainte d’une pandémie de A/H5N1 en 2005 et la réalisation de la pandémie de A/H1N1 en 2009. Ainsi, la surveillance syndromique peut être mise en place pour détecter des épidémies d’origine malveillante (anthrax), des épidémies de pathogènes endémiques (grippe saisonnière) et des épidémies de pathogènes émergents (SRAS, pandémie grippale).
Les systèmes de surveillance syndromique se caractérisent par un degré d’automatisation élevé et par une acquisition et un traitement des données proches du temps réel (Mandl et coll. 2004). Les données utilisées sont, le plus souvent, collectées en routine pour d’autres buts (gestion administrative, marketing, …). Il existe toutefois quelques systèmes de surveillance syndromique reposant sur une entrée manuelle des données dans un logiciel dédié (Zelicoff et coll. 2001). Les analyses statistiques utilisées incluent en général des algorithmes permettant de détecter des élévations inattendues dans les données, signal d’une possible épidémie.
Comme abordé plus haut, les changements dans le comportement du patient liés à l’évolution de la maladie, peuvent laisser une empreinte plus ou moins précoce dans de multiples bases de données : achats en magasin (mouchoirs en papier, jus d’orange, soupe) (Fienberg et coll. 2005), achats de médicaments en vente libre (Magruder et coll. 2004), absentéisme scolaire ou professionnel (Besculides et coll. 2005), recherche d’information de santé sur Internet (Ginsberg et coll. 2008), appel téléphoniques à une ‘nurse hotline’ où des infirmières prodiguent des conseils (Rodman et coll. 1998), appels aux centres de secours (Mostashari et coll. 2003), motifs de consultation aux urgences (Begier et coll. 2003), hospitalisations (Simonsen et coll. 2000), mortalité (Viboud et coll. 2006)… La succession des comportements d’un malade et son impact sur ces différentes bases de données est illustrée Figure 1. Pour qu’une base de données soit utile à la surveillance syndromique, sa couverture géographique, démographique et temporelle doit être suffisante pour permettre la détection d’anomalies. Mandl et coll. notent aussi que les bases de données les plus intéressantes sont celles qui sont électroniques, permettent un regroupement robuste par syndromes et sont disponibles quasiment en temps réel (Mandl et coll. 2004).
Mettre en place un recueil de données est coûteux. D’autre part, des enquêtes ont montré que les personnels soignants étaient réticents à l’idée de tâches administratives supplémentaires (Committe on Quality of Health Care in America Institute of Medicine 2001). Ainsi, bien que les données syndromiques puissent être imparfaites, elles assurent la présence de données de surveillance de base tout en évitant les coûts liés à l’introduction de nouveaux logiciels sur des infrastructures existantes.

Méthodes statistiques pour la détection des épidémies

Dans ce chapitre, nous nous intéresserons à la mise en place d’une méthode statistique pour la détection des épidémies. Le rôle de ces méthodes dans le processus de surveillance (partie 2.1) et les objectifs possibles de leur utilisation (partie 2.2) seront présentés. Dans la partie 2.3, nous présenterons plusieurs de ces méthodes, en fonction du type de données auxquelles elles s’appliquent. Enfin dans la partie 2.4, nous détaillerons les mesures utiles à l’évaluation de ces méthodes.

Place dans le processus de surveillance

Selon les Centres de Contrôle des Maladies (CDC) américains, le recueil des données et leur analyse par un algorithme statistique de détection d’épidémies sont les deux premières étapes du processus de surveillance automatisé d’une maladie (Figure 2). Vient ensuite l’interprétation épidémiologique par des experts du domaine, et éventuellement, l’investigation épidémiologique sur le terrain. La méthode statistique de détection a donc pour fonction d’isoler les signaux suspects à investiguer, de façon réactive (donner l’alerte assez tôt pour permettre les mesures de contrôle), sensible (ne pas passer à côté de signaux) et spécifique (ne pas désigner à tort comme signal ce qui n’est que du bruit). Ces trois qualités sont importantes : un signal manqué ou une alerte tardive ne permettent pas la mise en place de mesures, et de trop nombreuses fausses alertes peuvent faire manquer un signal d’une réelle importance épidémiologique. La pertinence des données et leur analyse par un algorithme statistique approprié sont donc nécessaires.

Quelles sont les épidémies à détecter ?

On définit généralement une épidémie comme « un excès de cas significatif par rapport à ce qui était attendu dans une période et une population données » (Benenson 1995). La détection de ces anomalies par des méthodes statistiques repose sur l’analyse en temps réel de données de surveillance recueillies prospectivement. Pour beaucoup de ces méthodes, les données passées sont modélisées afin de construire des valeurs attendues et déterminer ce qui constitue un changement significatif (i.e. une anomalie) par rapport à ces valeurs.
Les notions d’épidémie et de valeurs attendues recouvrent en fait une myriade de réalités différentes. Le type de dynamique de la maladie (maladie transmissible ou non transmissible), les conditions environnementales (zone d’endémie ou maladie émergente), les échelles considérées (intensité de l’événement, de l’espace touché, de la durée) peuvent varier. Par ailleurs, l’utilisation de méthodes mathématiques ou statistiques pour la détection d’épidémies exige des définitions précises de ce qui doit être détecté. Il faut donc veiller à l’adéquation entre la question posée et la méthode proposée.
Ainsi, avant de mettre en place une méthode de détection sur des données de syndromes grippaux, l’on doit se demander notamment : le but est-il de détecter les épidémies de grippe saisonnière ou bien de détecter une maladie émergente, éventuellement d’origine malveillante ? Dans le premier cas, pour éviter la surévaluation des seuils de détection et donc la perte de sensibilité, on pourra modéliser explicitement les épidémies passées, en les pondérant pour minimiser leur effet (Farrington et coll. 1996), en les remplaçant par des valeurs non épidémiques (Choi et coll. 1981), en les excluant (Costagliola et coll. 1991) ou en intégrant dans le modèle un ajustement sur l’activité des virus grippaux, via par exemple, le nombre d’isolats de grippe (Mostashari et coll. 2003). Si l’on cherche à détecter uniquement les maladies émergentes ou les attaques bioterroristes, cet ajustement ne sera pas nécessaire. L’activité grippale saisonnière, si elle existe, constituera le niveau de base attendu au-delà duquel les épidémies de pathogènes émergents ou liées au bioterrorisme seront identifiés (Wang et coll. 2005). Une même série de données peut être analysée de plusieurs façons pour émettre des alertes spécifiques à chacun de ces risques. Ainsi, Mostashari et coll. ont analysé les syndromes grippaux des urgences de New-York pour surveiller la grippe saisonnière et les attaques bioterroristes, grâce à deux méthodes statistiques, la première incluant (l’autre non) un ajustement sur les épidémies saisonnières passées (Mostashari et coll. 2003).
Enfin, la nature même des données oriente aussi la façon dont on peut les modéliser. Par exemple, les syndromes grippaux contiennent des cas dus à diverses affections respiratoires mélangées à de vrais cas de grippe. Une approche comme celle décrite par Serfling paraît donc raisonnable dans un tel contexte : modéliser le niveau de base supposé dû à l’activité des autres pathogènes pour estimer le nombre de cas dus à la grippe elle-même (Serfling 1963) (voir aussi chapitre 2.3.1.3.3).
En résumé, le type d’épidémies à détecter, les connaissances à leur sujet et la nature des données orientent le choix de la méthode, des données historiques à utiliser ou exclure, des covariables à prendre en compte et des prétraitements éventuels à appliquer aux données. Il y a bien sûr d’autres critères à prendre en compte, notamment la disponibilité des données historiques, le bruit de la série d’observation, le pas de temps des données, leur niveau d’agrégation spatiale et la zone géographique couverte, par exemple. Les méthodes exposées dans le chapitre suivant peuvent s’appliquer aux données issues de la surveillance épidémiologique dite « traditionnelle » ou de la surveillance syndromique.

Données unidimensionnelles

L’analyse d’une seule source de données, qui ne présente pas d’information spatiale, peut être réalisées par différentes méthodes d’analyse de série temporelle.

Contrôle statistique des procédés

Les méthodes de contrôle statistique des procédés, ou « cartes de contrôle » (control charts), proviennent du champ industriel et sont particulièrement adaptées à la surveillance de données qui ont peu de recul dans le temps. Elles sont donc souvent employées au début de la mise en place d’une surveillance, ou pour une surveillance temporaire d’un évènement particulier. Elles ont été conçues pour émettre une alerte quand un procédé de fabrication sort des limites de contrôle et s’adaptent aisément à la détection des épidémies.

Shewhart control chart

La méthode de Shewhart est l’une des plus simple pour la surveillance d’une incidence ou d’un taux d’incidence. Notons tx le taux d’incidence au temps t. Le taux d’incidence moyen attendu est calculé sur une période historique qui ne contient pas d’épidémie. Il est assorti d’une « limite de contrôle » supérieure (UCL, upper control limit) placée, par exemple, trois écarts-types au-dessus : 3xUCLxs où xest la moyenne des taux d’incidence historiques et xsleur écart-type. Toutes les observations supérieures à cette limite seront considérées comme potentiellement épidémiques. Cette méthode a notamment été utilisée pour surveiller les évènements indésirables survenant à l’hôpital (Morton et coll. 2001; Morton et coll. 2009) ou l’incidence des hépatites A en population aux Etats-Unis (Williamson et coll. 1999).

Exponentially Weighted Moving Average (EWMA)

Contrairement aux méthodes précédentes, ce ne sont plus les observations brutes qui sont comparées à une limite de contrôle, mais un « lissage » de ces observations. Ce lissage est une moyenne mobile pondérée (EWMA) calculée, à chaque pas de temps, grâce à l’observation courante et aux observations précédentes. Si on nomme ty l’observation au temps t et ˆty la valeur lissée par EWMA au temps t, on a : 1ˆˆ(1)tt yyy où λ est un paramètre de lissage et 1ˆtyla valeur lissée par EWMA au temps t-1. Un poids plus important est ainsi donné aux observations les plus récentes, grâce au paramètre λ. La moyenne attendue0ˆy étant estimée sur des données historiques, la limite supérieure de contrôle, UCL, est donnée par : 20ˆ112tUCLyk où k est un nombre positif contrôlant la hauteur de la limite supérieure de contrôle. Ce lissage permet d’enlever une partie du bruit de la série pour se concentrer sur ses mouvements « plus profonds », afin de diminuer le nombre de faux positifs. Le degré de lissage peut être ajusté en faisant varier le paramètre λ entre 0 et 1.
Cette méthode a été appliquée pour suivre les évènements indésirables à l’hôpital (Morton et coll. 2001), les hépatites A (Williamson et coll. 1999), et pour détecter des épidémies de syndromes respiratoires et gastro-intestinaux pédiatriques grâce aux motifs de recours aux urgences (Ivanov et coll. 2003).

Modélisation temporelle

Lorsqu’une série de données est longue de plusieurs années, il est fréquent qu’elle présente une tendance « de fond » (augmentation par exemple), des périodicités (annuelles, hebdomadaires,…) ou une auto-corrélation. Une modélisation temporelle spécifique permet de prendre en compte les évolutions connues des données, et d’exploiter ainsi la série entière. Pour ce faire, il existe une grande variété de modèles, dont le principe est de prédire la valeur attendue pour l’observation courante, avec un intervalle de prédiction servant de seuil de détection.
Pour modéliser conjointement la tendance, les périodicités et l’auto-corrélation de la série de données il faut disposer de suffisamment de données historiques. Comme le notent Farrington et coll. ainsi que Rath et coll., la longueur de la période d’apprentissage à utiliser dans le modèle est une affaire de compromis (Farrington et coll. 1996; Rath et coll. 2003). En effet, ajouter des données permet de réduire les intervalles de confiance des valeurs attendues et de mieux comprendre la périodicité des données. Toutefois, utiliser des données historiques anciennes augmente la possibilité d’un biais : les séries d’observations épidémiologiques sont souvent soumises à des modifications du mode de recueil des données, de la structure de la population surveillée ou du comportement de la population face à l’offre de soin, difficiles à prendre en compte. Certaines revues de la littérature recommandent donc, sur la base de nombreuses expériences dont celles de Serfling (Serfling 1963), Choi (Choi et coll. 1981), Stroup (Stroup et coll. 1989) et Farrington (Farrington et coll. 1996), en accord avec la pratique actuelle du CDC (Rath et coll. 2003), d’ajuster le modèle d’estimation des valeurs attendues sur les cinq dernières années d’observation (Sebastiani et coll. 2004). Ci-dessous sont présentés quelques-uns des modèles les plus courants.

Modèles additifs généralisés

Un modèle additif généralisé (Generalized Additive Model, GAM) permet de décrire de façon souple l’évolution temporelle des observations, grâce à des fonctions de lissage (Morton et coll. 2009) (voir Figure 11). Selon le degré de lissage choisi, ce modèle peut ignorer ou prendre en compte les variations périodiques de la série. Il s’écrit : ()()tyftt.

Décomposition en ondelettes

Enfin, une dernière méthode de modélisation temporelle, la décomposition en ondelettes, vient du champ du traitement du signal. Elle permet de prédire l’évolution d’une série dont le motif temporel est complexe et difficilement représentable par un modèle de régression périodique. Elle a été appliquée à la détection des épidémies d’anthrax dans une série temporelle de ventes de médicaments (Goldenberg et coll. 2002). Dans ce papier, la série, préalablement lissée, est décomposée en cinq « résolutions », décrivant chacune la contribution d’une plage de fréquences (Figure 17). Cette décomposition permet d’obtenir des composantes plus aisément prédictibles que la série d’origine. Les prédictions des cinq résolutions sont ensuite sommées pour obtenir la valeur prédite de la série au temps suivant (Figure 18). Une limite supérieure de confiance accompagne cette prédiction et sert de seuil d’alerte pour la valeur observée (Figure 19).

Détecter une augmentation globale du niveau d’agrégation des cas

Cette approche consiste à calculer une statistique globale d’agrégation spatiale, à chaque temps d’observation, par exemple la statistique de test des « évènements en excès » (Tango 1995; Tango 2000), ou celle de Knox (Knox 1964; Kulldorff et coll. 1999). La série temporelle constituée par ces statistiques est analysée par une méthode de détection d’aberration, par exemple le CUSUM (Rogerson 1997; Jarpe 1999; Rogerson 2001). Ces méthodes permettent de déterminer l’existence d’un agrégat anormal de cas à l’intérieur de la zone surveillée, à un temps donné, mais pas sa localisation.
Si on considère par exemple une zone divisée en régions, ci le nombre de cas dans la région i, C le nombre de cas total, ni le nombre de cas attendus dans la région i, et λ une constante, la statistique de Tango (1995) (excess event test) s’écrit : (),ijijiijjijEETadcncn  avec22,exp4/ijijijadd , dij étant la distance euclidienne entre les régions i et j. Le choix de λ est lié à la taille des agrégats à détecter et est quelque part arbitraire. Un λ grand donne un test sensible aux agrégats géographiquement étendus, tandis qu’un λ petit donne un test plus sensible aux agrégats localisés. Une variante de cette statistique de test, permettant de détecter des agrégats de n’importe que taille a aussi été proposée (Tango 2000).

Contrôle statistique des procédés multivarié

La surveillance multivariée est motivée par la possibilité de détecter des épidémies de petite ampleur qui pourraient être manquées par les tests univariés, et par la possibilité d’exploiter la 46 matrice de corrélation entre les sources de données. Au lieu d’appliquer une méthode de contrôle statistique des procédés à chaque série, une statistique de test unique est calculée, en injectant les différents flux de données et leur matrice de corrélation dans une méthode de contrôle statistique des procédés multivariée (multivariate statistical process control, MSPC) (Rogerson et coll. 2004; Rolka et coll. 2007; Joner et coll. 2008). Contrairement à la surveillance parallèle, ces méthodes prennent en compte la corrélation entre les différentes séries temporelles. Le T² d’Hotelling, classique parmi ces méthodes, s’écrit par exemple : 21TXSX avec X le jeu de données multivarié sur l’intervalle de temps testé ; μ le vecteur des moyennes estimées sur des données historiques ; S une estimation de la matrice de covariance des séries, estimée sur les données historiques. De la même façon il existe une version multivariée de l’EWMA (Lowry et coll. 1992) et du CUSUM (Crosier 1988; Pignatiello et coll. 1990).
Reis et coll. ont comparé la surveillance parallèle et la surveillance multivariée sur des séries simulées de surveillance de deux hôpitaux (Reis et coll. 2003). L’approche multivariée avait une plus grande sensibilité pour détecter des épidémies distribuées de façon similaire entre les hôpitaux ; toutefois, lorsque les épidémies étaient localisées sur un seul hôpital, maintenir l’approche univariée donnait de meilleurs résultats (Reis et coll. 2003). Rogerson et coll. ont, eux aussi, comparé les performances d’une approche univariée et d’une approche mutivariée, toutes deux basées sur le CUSUM (Rogerson et coll. 2004). Ils ont, comme Reis et coll., trouvé que l’approche parallèle détectait mieux les épidémies touchant un petit nombre de régions. L’approche multivariée était meilleure lorsque l’épidémie touchait un plus grand nombre de régions (Rogerson et coll. 2004). Ainsi, l’approche univariée serait sensible à une aberration affectant une fraction limitée des séries sous surveillance, tandis que les méthodes multivariées permettraient de détecter plus rapidement des aberrations ayant lieu simultanément dans plusieurs séries de données.

Données complètement authentiques

Les données authentiques permettent la validation de l’algorithme en conditions réelles. Une difficulté fondamentale de cette approche est la spécification des épidémies à détecter. Des aberrations dans les données ne sont pas nécessairement causées par un agent infectieux et peuvent être d’une importance variable en terme de santé publique. Plusieurs façons de déterminer les épidémies à détecter ont été abordées.

Epidémies identifiées par avis d’experts

Stern et coll. et Siegrist et coll. ont fait appel au jugement d’épidémiologistes pour déterminer dans les données les changements suffisamment importants pour justifier une investigation épidémiologique (Stern et coll. 1999; Siegrist et coll. 2004).

Epidémies identifiées par un algorithme de référence

Les algorithmes de « référence » sont des algorithmes dont l’usage est répandu dans la communauté scientifique : pour la grippe ce sont par exemple les modèles de régression périodique (Watkins et coll. 2006). Ainsi Rath et coll. et Vidal et coll. ont utilisé un modèle de régression périodique pour identifier les épidémies d’intérêt dans une série de syndromes grippaux, afin d’évaluer une nouvelle méthode de détection d’épidémies (Rath et coll. 2003; Vidal et coll. en préparation). Lewis et coll. ont, quant à eux, utilisé des seuils constants pour définir des épidémies de références pour la méningite (Lewis et coll. 2001).

Epidémies identifiées par une source d’information externe

Le nombre d’isolats de grippe a parfois été utilisé pour identifier les épidémies de grippe servant de référence pour l’analyse de séries de syndromes grippaux : en Espagne, pour évaluer un modèle de chaîne de Markov cachée (Martinez-Beneito et coll. 2008) et à Hong-Kong pour comparer différents algorithmes de détection (Cowling et coll. 2006) (voir Figure 32).

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

1. Introduction : la surveillance des maladies infectieuses
1.1. La surveillance syndromique
1.2. La surveillance « traditionnelle »
1.3. Résumé et discussion
2. Méthodes statistiques pour la détection des épidémies
2.1. Place dans le processus de surveillance
2.2. Quelles sont les épidémies à détecter ?
2.3. Quelles méthodes pour quelles données ?
2.3.1. Données unidimensionnelles
2.3.1.1. Contrôle statistique des procédés
2.3.1.1.1. Shewhart control chart
2.3.1.1.2. Attribute U chart
2.3.1.1.3. Exponentially Weighted Moving Average (EWMA)
2.3.1.1.4. Cumulative Sums (CUSUM)
2.3.1.2. Utilisation des dérivées
2.3.1.3. Modélisation temporelle
2.3.1.3.1. Modèles additifs généralisés
2.3.1.3.2. Méthode des seuils historiques
2.3.1.3.3. Modèles de régression périodique
2.3.1.3.4. Décomposition en « saison-tendance »
2.3.1.3.5. Décomposition en ondelettes
2.3.1.4. Détection du changement d’état
2.3.1.4.1. Modèles de Markov Cachés
2.3.1.4.2. Bayesian change point model
2.3.1.5. Modélisation de la dynamique épidémique
2.3.2. Données spatialisées
2.3.2.1. Peu de zones
2.3.2.2. Beaucoup de zones
2.3.2.2.1. Détecter une augmentation globale du niveau d’agrégation des cas
2.3.2.2.2. Détecter et localiser les agrégats de cas
Statistique de balayage spatial (Spatial Scan Statistic)
Quelques alternatives au Spatial Scan Statisic
2.3.3. Flux de données multiples
2.3.3.1. Surveillance temporelle univariée
Méthodes de surveillance parallèle
Méthodes de consensus
Méthodes de vote
2.3.3.2. Contrôle statistique des procédés multivarié
2.3.3.3. Surveillance spatio-temporelle multivariée
Statistique de balayage spatial multivariée
Réseaux bayésiens
2.3.4. Résumé
2.4. Evaluation
2.4.1. Données de test
2.4.1.1. Données complètement authentiques
2.4.1.1.1. Epidémies identifiées par avis d’experts
2.4.1.1.2. Epidémies identifiées par un algorithme de référence
2.4.1.1.3. Epidémies identifiées par une source d’information externe
2.4.1.1.4. Limites
2.4.1.2. Données complètement simulées
2.4.1.3. Données semi-authentiques
2.4.2. Métriques d’évaluation
2.4.2.1. Sensibilité, valeur prédictive positive et rapidité
2.4.2.2. Sensibilité, spécificité et rapidité
2.4.2.3. Indices composites
2.4.2.3.1. Sensibilité et spécificité : la courbe ROC
2.4.2.3.2. Délai de détection et spécificité : la courbe AMOC
2.4.2.3.3. Sensibilité et délai de détection : le « sensitivity plot »
2.4.2.3.4. Aire sous la courbe ROC pondérée (AUWROC)
2.4.2.3.5. Volume sous la surface délai-ROC (VUTROCS)
2.4.2.4. Autres mesures
2.4.2.4.1. Précision géographique de détection (FROC)
2.4.2.4.2. Nombre de cas évités, nombre de vies sauvées
2.4.3. Résumé
3. Outil pour la détection et la quantification des épidémies par des modèles de régression périodique
3.1. Résumé
3.2. Article 1
3.3. Article 2
3.4. Discussion
4. Sélection et analyse des ventes de médicaments pour la surveillance des gastroentérites
4.1. Résumé
4.2. Article 3
5. Analyse des recherches sur Google pour la surveillance des maladies infectieuses
5.1. Résumé
5.2. Article 4
6. Discussion et perspectives
7. Références

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *