Télécharger le fichier pdf d’un mémoire de fin d’études
Analyse des risques
A l’origine, l’analyse des risques était conçue comme un outil devant aider à prendre les décisions adéquates concernant le risque de certains dangers carcinogènes. Depuis un certain nombre d’années, cette systématique de l’analyse des risques est également appliquée à d’autres dangers et situations (AFSCA, 2005). Le processus d’analyse des risques comprend trois éléments distincts : évaluation des risques, gestion des risques et communication sur les risques.
Evaluation des risques
L’évaluation des risques est une méthode permettant d’organiser systématiquement l’information scientifique et technique, y compris les incertitudes qui l’entourent, pour répondre à des questions précises sur les risques sanitaires. Elle nécessite l’évaluation des informations pertinentes et le choix des modèles à utiliser pour en tirer des conclusions (FAO, 2015).
Le modèle d’évaluation des risques a été discuté en 1995 au cours d’une Consultation FAO/OMC (FAO, 2007). La Consultation s’est mise d’accord sur un modèle d’évaluation des risques qui a été soumis à la Commission du Codex Alimentarius pour en examiner l’application. Elle a décrit la procédure d’évaluation des risques comme étant «l’évaluation scientifique des effets nocifs, connus et potentiels, résultant de l’exposition des personnes aux dangers d’origine alimentaire» (Tressou, 2005).
Les étapes de l’évaluation des risques sont les suivantes : l’identification du danger, la caractérisation du danger, l’évaluation de l’exposition et la caractérisation du risque (FAO, 2015 ; Gillespie et coll., 2011).
Identification du danger
L’identification du danger permet de déterminer les effets néfastes potentiels sur la santé humaine liés à l’exposition à un danger. Elle n’implique pas une extrapolation quantitative du risque pour les populations humaines exposées, mais plutôt une évaluation qualitative de la probabilité que l’effet se produise sur les populations exposées. Les données qualitatives peuvent être obtenues à partir d’études épidémiologiques et expérimentales (FAO, 2015) : résultats des essais de toxicité chez les animaux de laboratoire, mode d’action, mécanisme toxique ou pathologique et effets sur la santé (Gillespie et coll, 2011).
Pour un danger chimique, par ordre d’importance croissante, les études se classent ainsi : les études quantitatives des relations entre la structure et l’activité, les essais in vitro, les études toxicologiques chez l’animal et enfin les études épidémiologiques (Soubra, 2008).
La structure chimique, la solubilité, la stabilité, la sensibilité au pH, l’électrophilicité, la volatilité et la réactivité chimique d’une substance peuvent être des indicateurs de sa toxicité. Les relations entre la structure et l’activité peuvent être donc utiles pour accroître la force de la preuve de la toxicité de la substance lors de l’étape d’identification du danger. Lorsqu’une classe de composés est étudiée (par exemple les hydrocarbures polycycliques aromatiques, les polychlorobiphényles ou les dioxines), et que les données toxicologiques sont disponibles, il peut être utile d’utiliser la notion d’équivalence toxique pour prédire les dangers associés à l’exposition aux autres substances de la même classe. Cette méthode est surtout utile pour l’évaluation de la toxicité potentielle des mélanges complexes (Soubra, 2008).
Les tests in vitro (tests de génotoxicité) ont pour but de fournir un avertissement précoce du potentiel génotoxique. Ce dernier peut être un indicateur du potentiel cancérogène, mutagène ou tératogène de la substance étudiée. Cette information est très utile dans deux cas : lors du développement de nouveaux additifs, permettant ainsi d’éviter l’exécution des études de toxicité chronique pour des substances qui ne seront pas approuvées, et aussi pour l’évaluation des risques potentiels des toxiques naturels (Renwick, 1993). Les tests les plus courants sont :
– le test de mutation génique sur cellules procaryotes (test d’Ames) ;
– le test de mutation génique sur cellule de mammifère ;
– le test des micronoyaux des souris ;
– le test de la mesure de la synthèse non programmée de l’ADN ;
– le test des comètes (Graillot, 2012).
La plupart des données toxicologiques utilisées pour l’évaluation des risques proviennent d’études menées chez l’animal : il s’agit des méthodes in vivo. Ces études sont effectuées selon des protocoles d’essais normalisés et largement acceptés. Ces tests comprennent : l’étude de la toxicité orale aiguë, l’étude de la toxicité à court terme, l’étude de la toxicité subchronique, l’étude de la toxicité chronique et de la cancérogenèse, l’étude de la toxicité de la reproduction et l’étude de l’immunotoxicité (Soubra, 2008). La durée de l’expérimentation dépend de la toxicité (voir figure 1).
Caractérisation du danger
La caractérisation du danger est une appréciation quantitative des effets induits par le danger (FAO, 2015 ; Gillespie et coll., 2011). Elle consiste à :
– l’établissement de la relation dose-effet pour les effets adverses ou critiques (un effet critique est défini comme étant l’effet physiologique survenant à la plus faible dose) ;
– l’évaluation de la dose externe (administrée) contre la dose interne (absorbée) ;
– l’identification des espèces et des souches les plus sensibles ;
– l’identification des différences potentielles qualitatives et quantitatives entre les différentes espèces ;
– la caractérisation du mode d’action et les mécanismes de toxicité des effets adverses et des effets critiques ;
– l’extrapolation d’espèce et des doses (Soubra, 2008).
Pour cette dernière étape, l’approche adoptée pour réaliser l’extrapolation de l’exposition chez l’espèce humaine est la dérivation des Valeurs Toxicologiques de Référence (VTR). Celles-ci vont dépendre de la nature de l’effet toxique du danger (Bonvallot, 2007).
La VTR est la quantité d’une substance, exprimée sur la base du poids corporel, qu’un individu peut ingérer durant toute sa vie sans encourir de risque appréciable pour sa santé. Cette VTR est exprimée sur une base hebdomadaire ou journalière tolérable. Les VTR les plus couramment employées sont la Dose Journalière Admissible (DJA), la Dose Journalière Tolérable (DJT) ou encore la Dose Hebdomadaire Tolérable (DHT) (Soubra, 2008). Il faut préciser que la DJA, la DJT et la DHT ne sont pas utilisées pour les mêmes types de substances chimiques. La DJA est utilisée pour les additifs alimentaires et les composés ayant une fonction de protection des denrées alimentaires d’origine végétale ou animale (résidus de pesticides et de médicaments vétérinaires). La DJT et la DHT sont employées pour tout composé dont la présence est indésirable et n’ayant pas une fonction de protection des denrées alimentaires (métaux lourds, mycotoxines) (Bonvallot, 2007).
La caractérisation du danger va s’appuyer essentiellement sur la toxicologie expérimentale. Celle-ci permet de déterminer si le toxique a un effet seuil ou sans seuil et de l’estimer en mettant en oeuvre un ensemble de tests toxicologiques validés (Soubra, 2008).
Pour l’effet toxique avec seuil, il est reconnu qu’il existe un seuil d’exposition au dessous duquel aucun effet adverse n’est observé ou reproduit. Ce seuil n’est que la Dose Sans Effet Observable (DSEO) et est exprimé en mg/Kg de poids corporel /jour. Ce seuil va constituer le point de départ de l’extrapolation d’espèce et de dose pour la dérivation de la VTR (Kroes et coll., 1991). D’une façon générale, cette valeur est dérivée par application d’un facteur de sécurité à la DSEO la plus élevée qui est obtenue par comparaison entre les données tirées de l’ensemble des essais (Bonvallot, 2007). Ce qui va donner la DJA. L’application de ce facteur a pour objectif d’introduire une marge de sécurité qui prend en compte les incertitudes inhérentes à l’extrapolation des données obtenues en expérimentation animale, à l’homme d’une part et d’autre part la grande variabilité de l’espèce humaine.
Pour l’effet toxique sans seuil, l’extrapolation d’espèce et de dose par l’utilisation d’un facteur de sécurité est difficilement justifiable puisque les mécanismes cancérogènes et génotoxiques n’ont pas de VTR. Dans leur cas, il existe un risque à toutes les doses, même la plus faible. Deux solutions sont alors possibles :
– interdire l’utilisation commerciale de la substance en question ;
– établir un niveau de risque suffisamment faible pour qu’il puisse être considéré comme négligeable, insignifiant ou socialement acceptable : c’est le principe de « As Low As Reasonably Achievable » (ALARA).
C’est cette deuxième solution qui est à l’origine de l’évaluation quantitative des risques pour les substances cancérogènes (Soubra, 2008).
Evaluation de l’exposition
L’évaluation de l’exposition permet de quantifier quotidiennement ou périodiquement la présence du danger dans les aliments ciblés (Tressou, 2005). Par exemple, pour estimer les quantités d’une substance chimique absorbée avec les aliments, les données quantitatives sur la consommation des aliments en cause et celles sur la concentration de la substance à évaluer dans ces aliments sont nécessaires (Tressou, 2005). De plus sa répartition dans ces aliments doit être connue (FAO, 2015). Cette information ne peut être obtenue que par l’analyse d’échantillons représentatifs avec l’utilisation de méthodes suffisamment sensibles et fiables. Ainsi, des données fiables sur la consommation alimentaire sont essentielles lorsque l’évaluation de l’exposition se fonde sur la mesure des concentrations de substances chimiques dans les aliments (Ineris, 2003). Et finalement le choix d’un modèle de croisement entre ces différentes données est à prévoir. D’une manière générale, la formule employée est la suivante (Soubra, 2008) :
Exposition = consommation x contamination.
Les principales approches utilisées
Les méthodes varient selon la catégorie de danger et le mode de présentation des résultats des évaluations des risques (FAO, 2007).
Approche selon le type de danger
Les différences entre les méthodes d’évaluation des risques sont plus nettes pour les dangers chimiques que pour les dangers microbiologiques. Ceci tient en partie aux différences intrinsèques qui distinguent ces deux catégories de danger (Tressou, 2005 ; FAO, 2007).
Les dangers chimiques présents dans les aliments comprennent les additifs alimentaires, les contaminants environnementaux tels que le mercure et les dioxines, les substances toxiques naturellement présentes dans les aliments telles que les glyco-alcaloïdes dans les pommes de terre et les aflatoxines dans les arachides, ou encore les résidus de pesticides et de médicaments vétérinaires. Leurs effets négatifs pour la santé sont habituellement prédits pour une exposition à long terme aux agents chimiques (Tressou, 2005 ; FAO, 2007). Pour de nombreux dangers chimiques, il est possible de faire des choix quant à la quantité́ de substance chimique pouvant être contenue dans l’alimentation, par exemple concernant les additifs alimentaires, les résidus de médicaments vétérinaires et les résidus des pesticides utilisés sur les cultures. L’utilisation des substances chimiques peut faire l’objet d’une réglementation ou de restrictions (limites maximales ou interdiction), de sorte que leurs résidus au stade de la consommation ne représentent pas de risque pour la santé humaine (FAO, 2007).
Les dangers microbiens, en revanche, sont omniprésents dans la chaine alimentaire, malgré́ les efforts consentis pour les enrayer, ils sont souvent présents au stade de la consommation à des taux qui peuvent présenter des risques pour la santé humaine (Bonnard, 2001 ; FAO, 2007). Les évaluations des risques biologiques font appel à des modèles qualitatifs et quantitatifs pour décrire la situation de référence en matière de sécurité́ sanitaire des aliments et estimer le niveau de protection des consommateurs qu’il est possible d’atteindre au moment considéré (Bonnard, 2001 ; FAO, 2007).
Approche selon le mode de présentation des résultats
Les résultats de l’évaluation des risques sont classés selon leur aspect qualitatif ou quantitatif (Assidjo et coll., 2013). Sur le plan qualitatif, les résultats sont exprimés en termes descriptifs tels que « élevé́ », « moyen » ou « faible ». Sur le plan quantitatif, les résultats sont exprimés numériquement et ils peuvent comporter une description numérique de l’incertitude. Dans certains cas, des formats intermédiaires sont utilisés (évaluations des risques semi-quantitatives). Par exemple une approche semi-quantitative peut consister à attribuer une note à chaque étape de la filière et à exprimer les résultats par référence à une échelle des risques (FAO, 2007). L’évaluation quantitative des risques, quant à elle, peut être divisée en deux catégories : l’évaluation déterministe et l’évaluation stochastique (Assidjo et coll., 2013).
Approche probabiliste
Dans les approches stochastiques ou probabilistes, des preuves scientifiques sont utilisées pour établir des probabilités d’évènements individuels, qui sont combinées pour déterminer la probabilité d’un effet négatif sur la santé. Ceci nécessite une modélisation mathématique de la variabilité́ des phénomènes mis en jeu. (FAO, 2007).
Les modèles stochastiques sont alors employés pour créer et analyser les différentes hypothèses de risque. Les données relatives à l’exposition sont combinées avec des informations sur la relation dose-réponse pour produire des estimations probabilistes des risques. Cette approche est généralement considérée comme décrivant plus fidèlement la réalité. (FAO, 2007).
L’évaluation des risques permet, grâce à une approche structurée, d’évaluer le risque ainsi que les facteurs positifs ou négatifs qui l’influencent. Elle est réalisée par les scientifiques (Eufic, 2015). C’est un processus continu et le risque estimé doit être réévalué régulièrement. Elle sert de base au gestionnaire du risque pour une prise de décision à un moment donné (EDES, 2012).
Caractérisation du risque
La caractérisation du risque a pour objet d’estimer la probabilité d’effets indésirables sur la santé des populations humaines exposées (Ineris, 2003). Elle s’effectue en prenant en compte les résultats de l’identification du danger, de sa caractérisation et de l’évaluation de l’exposition. Elle est utilisée pour tirer des conclusions, éclairer les gestionnaires de risque sur le niveau de risque qui peut être considéré comme tolérable ou acceptable (Gillespie et coll., 2011).
Le risque pour les consommateurs est caractérisé par comparaison des données obtenues à l’issue de l’évaluation de l’exposition avec celles des limites réglementaires en vigueur (DJA, DJTP, DHT, DHTP, ALARA, etc.). La probabilité d’effets néfastes sur la santé est théoriquement égale à zéro lorsque l’exposition est inférieure à la limite réglementaire fixée (FAO, 2015).
Pour le cas d’un résultat d’évaluation de l’exposition par approche déterministe, le rapport entre la valeur trouvée et la VTR ne doit pas dépasser 10% (u-bordeaux, 2016). Lorsque ce rapport dépasse les 10%, le risque est considéré comme inacceptable.
Gestion des risques
La gestion des risques est un processus consistant à mettre en balance les différentes politiques possibles d’acceptation ou de réduction des risques évalués et à choisir et mettre en oeuvre les options appropriées. Elle est effectuée par les gestionnaires des risques (FAO, 2015 ; Pascal, 2012). Les décisions doivent être fondées sur une évaluation des risques et être proportionnées au risque évalué. Elles peuvent prendre en compte, le cas échéant, d’autres facteurs légitimes ayant une importance pour la protection de la santé du consommateur et la promotion de pratiques loyales dans le commerce des denrées alimentaires (Codex alimentarius, 2007).
Lors de l’examen des moyens de maîtrise des risques d’origine alimentaire pour la santé publique, la gestion des risques doit considérer les filières alimentaires dans leur ensemble. Il convient donc d’inclure la production primaire (y compris les aliments du bétail, les pratiques agronomiques et les conditions environnementales contribuant à la contamination des cultures et des animaux), la transformation des produits, le transport, le stockage, la distribution, la commercialisation, la préparation et la consommation. Cela est valable pour les produits importés.
Le processus de gestion des risques doit être transparent, cohérent et parfaitement documenté. Les décisions en matière de gestion des risques doivent être argumentées de manière à faciliter une compréhension plus large du processus de gestion des risques par toutes les parties intéressées (Codex alimentarius, 2007).
Communication sur les risques
La communication sur les risques consiste en des échanges interactifs d’informations et d’opinions sur les risques entre les évaluateurs du risque, les gestionnaires du risque, les consommateurs et toutes autres parties intéressées (Pascal, 2012). La communication sur les risques doit :
– promouvoir la prise de conscience et la compréhension des enjeux spécifiques pris en compte pendant l’analyse des risques ;
– promouvoir la cohérence et la transparence dans la formulation des options/recommandations de gestion des risques ;
– fournir une base scientifique solide pour la compréhension des décisions de gestion des risques proposées ;
– améliorer l’efficacité et l’efficience globales de l’analyse des risques ;
– renforcer les relations de travail entre les participants ;
– favoriser la compréhension du public afin de renforcer la confiance dans la sécurité de l’offre alimentaire ;
– promouvoir l’implication appropriée de toutes les parties intéressées ;
– échanger des informations relatives aux préoccupations des parties intéressées sur les risques associés aux aliments ;
– et respecter le souci légitime de préserver la confidentialité le cas échéant.
Nous avons passé en revue les généralités et les termes génériques relatifs à la sécurité sanitaire des aliments et l’évaluation des risques. Nous allons voir l’aspect pratique de l’évaluation des risques dans la partie expérimentale.
Réactifs et équipements
Les équipements utilisés sont :
– une balance analytique d’une précision de 0, 0001 g ;
– un homogénéisateur à grande vitesse (Waring Blender) ;
– un agitateur oscillant réglable ;
– des colonnes d’immunoaffinité (AFLAPREP) ;
– une chaîne de Chromatographie Liquide Haute Performance (CLHP) combinant un détecteur fluorimètrique de marque Waters de type 2475 et un module de type Waters modèle e2695 comportant une pompe quaternaire et un système d’injection automatique ;
– une colonne C18 à 150 x 3,9 mm et 3 μm en taille des particules ;
– un système de dérivation post-colonne par voie électrochimique (Kobracell®).
Les réactifs utilisés sont :
– de l’eau de qualité CLHP ;
– du tampon phosphate PBS de pH= 7,4 ;
– du chlorure de sodium (NaCl) ;
– du bromure de potassium (KBr) ;
– de l’acétonitrile pour CLHP ;
– du méthanol pour CLHP ;
– du cyclohexane ;
– de l’acide nitrique (HNO3) 4 M ;
– d’une solution mère d’aflatoxines (B1, B2, G1 et G2 avec un rapport de concentration de 4/1/4/1 respectivement) à 5000 ng/ml.
Méthode
Echantillonnage
Au préalable nous avons élaboré un questionnaire (voir annexes) pour enquêter sur l’origine et le circuit de distribution du « Guerté thiaf ». Un schéma évènementiel de contamination découlant de cette enquête a été effectué pour renforcer la crédibilité du plan d’échantillonnage.
Pour l’échantillonnage du « Guerté thiaf », les critères retenus sont les suivants :
– la localisation géographique du vendeur dans le marché ;
– le volume de vente de l’arachide précurseur du « Guerté thiaf » qu’est le « Kemb » dans le marché. En effet, nous avons supposé qu’il y a une corrélation positive entre le volume de vente du « Kemb » et celui du « Guerté thiaf » ;
– l’importance de la clientèle du vendeur dans le marché.
La méthode d’échantillonnage employée est de type aléatoire. Au total, cent (100) échantillons de « Guerté Thiaf » ont été prélevés au niveau des points de vente entourant les cinq (5) marchés les plus importants du département de Dakar selon les critères ci-dessus, soit vingt (20) échantillons par marché.
Les marchés sélectionnés sont : le marché de Tilène (commune de Médina), celui de Grand-Yoff (commune de Grand-Yoff), celui de Ouakam (commune de Ouakam), celui de Castors (commune de Grand-Yoff) et celui de « Case » (commune de Parcelles assainies).
Un code d’identification a été utilisé pour une traçabilité des échantillons prélevés.
Analyse des échantillons et traitement des données analytiques
Les échantillons sont analysés selon la norme NF EN 14123 par CLHP à avec une dérivation post-colonne et une détection par fluorimétrie. Les extraits sont purifiés avant injection à l’aide une méthode Enzyme Linked Immuno-Sorbent Assay (ELISA) sur des colonnes d’immunoaffinité (AFLAPREP).
L’analyse comporte les étapes suivantes : l’extraction, la purification, la lecture par la chaine CLHP et le traitement des données analytiques.
Les conditions chromatographiques sont les suivantes :
– Débit d’élution : 0,5 ml/mn ;
– Température de la colonne : 10°C ;
– Volume d’injection : 10 μl ;
– Temps d’analyse par échantillon : 15 mn ;
– Longueur d’onde d’excitation : 362 nm ;
– Longueur d’onde d’émission : 420 nm.
Avant chaque analyse d’échantillon, un étalonnage externe est effectué au préalable. Il consiste en la préparation de cinq standards d’aflatoxines avec des concentrations croissantes. Ces standards vont servir de référence par rapport aux échantillons devant être analysés. Cet étalonnage va permettre pour chaque journée d’analyse de tracer la courbe d’étalonnage des quatre aflatoxines. Chaque courbe se présente sous forme de droite de régression avec une équation de type : y = ax + b (voir annexes).
Pour chaque échantillon analysé, un certain nombre d’aflatoxines va apparaître au chromatogramme sous la forme d’un pic avec chacun son temps de rétention et sa surface.
La surface correspondant à chaque aflatoxine pour chaque échantillon analysé va être utilisée dans les calculs Excel avec les données de l’équation de la courbe d’étalonnage lui correspondant pour connaître la concentration massique Cm de chaque aflatoxine dans le volume d’injection.
A partir de là, nous déterminons la concentration (C) de chaque aflatoxine dans chaque échantillon analysé selon la formule suivante :
C = Cm x Ve x Vfinal / ms x Vfiltrat
C = concentration en aflatoxine en ppb ;
Cm= concentration massique en aflatoxine dans le volume d’injection en ng/ml;
Ve = volume du solvant d’extraction en ml ;
Vfinal = volume final obtenu après purification en ml ;
ms = prise d’essai en g ;
Vfiltrat = volume de filtrat utilisé pour la purification sur colonne d’immunoaffinité en ml.
|
Table des matières
A- PARTIE BIBLIOGRAPHIQUE
I- La situation au Sénégal
II- Analyse des risques
1- Evaluation des risques
1.1- Identification du danger
1.2- Caractérisation du danger
1.3- Evaluation de l’exposition
1.3.1- Les principales approches utilisées
1.3.1.1- Approche selon le type de danger
1.3.1.2- Approche selon le mode de présentation des résultats
a- Approche déterministe
b- Approche probabiliste
1.4- Caractérisation du risque
2- Gestion des risques
3- Communication sur les risques
B- PARTIE EXPÉRIMENTALE
I- Cadre d’étude
II- Matériels et méthode
1- Réactifs et équipements
2- Méthode
2.1- Echantillonnage
2.2- Analyse des échantillons et traitement des données analytiques
2.3- Evaluation des risques
2.3.1- Identification et caractérisation du danger
2.3.2- Evaluation de l’exposition
2.3.3- Caractérisation du risque
III- Résultats
1- Analyse des échantillons et traitement des données analytiques
2- Evaluation des risques
2.1- Identification et caractérisation du danger
2.2- Evaluation de l’exposition
2.3- Caractérisation du risque
IV- Discussion
CONCLUSION
RÉFÉRENCES BIBLIOGRAPHIQUES
Télécharger le rapport complet