L’acheminement de l’aliment jusqu’en élevage
Approche de l’erreur totale
Approche de l’erreur totale est une démarche harmonisée de validation applicable aux différentes procédures analytique quantitatives, et ce indépendamment du secteur d’activité Le bute principale de cette approche est non uniquement de recadrer les objectifs de la validation en fonction de la finalité de la méthode analytique, de valider telle qu’elle sera utilisée en routine, mais également d’offrir un outil pratique de décision en distinguant notamment les règles de diagnostic et les règles de décision En effet, cette démarche repose sur l’utilisation du profil d’exactitude, qui intègre de façon statistiquement correcte dans un seul graphique l’ensemble des éléments essentiels de la validation, à savoir le biais, la fidélité, le risque et les limites de quantifier le plus exactement possible chacune des quantités inconnues que le laboratoire aura à déterminer. Autrement dit, c’est que différence entre les résultats rendus (X) et la « vrai valeur» inconnue de l’échantillon, qui par ailleurs restera toujours inconnus, soit petite ou du moins inferieure a une limite d’acceptation, c’est-à-dire : eq:(1)
Une « bonne procédure analytique peut être qualifiée d’acceptable si la « garantie» ou la probabilité est suffisamment grande que la différence entre chaque valeur mesurée (x) d’un échantillon et sa « vrai valeur» (soit comprise dans les limites d’acceptation que l’analyste s’est fixée. La réalisation de ceci avec un risque connu peut se traduire par la relation suivante : eq:(2) Avec la proportion de mesures dans les limites d’acceptation, et la grandeur définissant les limites d’acceptation fixées à priori en fonction des contraintes du secteur d’activité. Le risque associé d’une procédure s’évalue par la proportion attendue de mesures en dehors des limites d’acceptation. Les paramètres l’exactitude, fidélité, la linéarité, etc. ne sont plus que des « statistique » ou« éléments de calcul » permettant de contribuer pour chiffrer la garantie. Ils aident à poser un diagnostic, c’est-à-dire nous renseigner sur un point particulier de la performance de la méthode étudiée, comme par exemple la linéarité ou le passage de l’ordonnes par 0.
Dès lors ces paramètre ne sont plus considères comme outils de décision mais plutôt outils de diagnostiques. L’outil de décision ou la règle de décision, à la fois pratique et visuelle, repose sur l’intégration du profil d’exactitude dans des limites d’acceptation (), dont l’intérêt a été démontré par la figure ci-dessous. Le profil d’exactitude, construit à partir des intervalles de tolérance représentants les futures mesures attendues, permet donc, de décider de la capacité ou non d’une procédure à fournir des résultats dans les limites d’acceptation La zone en verte montre l’intervalle de dosage dans lequel la procédure est capable de quantifier avec une exactitude connue et un risque fixe par l’analyste.
Organisation des essais de validation :
Les standards d’étalonnage (STDE) doivent être préparés selon le protocole qui sera appliqué en routine tant au niveau du mode opératoire que du nombre de niveau de concentration (Point d’étalonnage) et du nombre de répétions par niveau. Les standards de validation (STDV) doivent être préparés dans la matrice et être des échantillons indépendants(Variance intra-série) dans la mesure où c’est applicable. En effet, ils représentent, en phase de validation, les futurs échantillons que la procédure analytique aura à quantifier, chaque standard de validation est préparé et traité de façon indépendante comme un futur échantillon. Ce caractère d’indépendance est fondamental pour l’estimation correcte de la variance inter-séries. Dans la pratique, le plus souvent en utilise dans les laboratoires l’effet « jour », mais on pourrait utiliser aussi l’effet « operateur ». rappelons qu’il n’est pas nécessaire que ces jours soient consécutifs, pour autant qu’il n’y ait pas de rejets non documentés de résultats intermédiaire prévus au protocole. Il est également à noter que, suivant les contraintes analytiques, l’effet « jour » peut être remplacé par l’effet « série ».
Spécificité et interférences :
Avant la préparation des deux gammes standard d’étalonnage et standard de validation il faut vérifier la spécificité. Une procédure d’analyse est dite « spécifique » lorsqu’elle permet de garantir que le signal mesure provient seulement de la substance à analyser ou qu’elle permet de mesurer quantitativement un paramètre physicochimique ou un groupement fonctionnel d’une ou de plusieurs substance dans l’échantillon. Le critère de spécificité sont plutôt qualitatifs et ne pourront pas vraiment être calculés. En outre, il est assez évident qu’ils sont à l’ origine d’un manque de justesse et participeront quantitativement à ce qu’on appelle globalement l’erreur de mesure ou erreur totale. Il est facile de comprendre que la cause principale d’une « non-spécificité » est la présence d’interférences. Donc, le manque de spécificité ou les interférences sont une des causes d’erreur de justesse. En dehors d’une origine instrumentale, un nombre d’interférences sont dues à la présence d’autre constituant majoritaire dans l’échantillon : on parle alors d’effet de matrice. Pratiquement les interférences ont deux conséquences néfastes. Soit, elles entrainent une surestimation de la concentration de l’échantillon, car la réponse est plus élevée que ce qu’elle devrait être. Soit, elles causent une sous-estimation de la concentration, car le signal est partiellement masqué. Dans les deux cas, elles occasionnent donc un biais de justesse (erreur systématique). Dans le cas d’un dosage dans une matrice qu’on ne maitrise pas des composantes, la méthode graphique reste la meilleure solution pour démontrer l’absence d’interférences.
Limite de quantification :
Calculée à partir de la solution du système d’équations. Contribuant à la prise de décision sur la quantité minimale quantifiable de la méthode avec exactitude. Le calcul des limites de quantification et de détection est établi comme suit : D’après le profil et le calcul de la limite de quantification on peut conclure que la méthode de dosage de phosphore totale est valide dans le domaine de validité entre 0,005mg/ml et 0,04mg/ml ; vu que les intervalles de tolérance sont compris dans l’intervalle d’acceptabilité fixé à 25% pour une proportion β=80%. Donc en peut conclure que la méthode capable de fournir des résultats acceptables. Génération de profil d’exactitude par la fonction de réponse transformation logarithmique, racine carré, quadratique et linéaire pondérer : Par le même principe adopté pour la fonction de réponse droite linéaire on va calculer les paramètres de la régression linéaire après transformation mathématique des concentrations et des réponses, par les mêmes étapes d’approche de l’erreur totale déjà mentionner, les figures suivantes montrent le profil d’exactitude après transformation logarithmique, racine carré, quadratique et linéaire pondérer.
|
Table des matières
Introduction
Partie 1: Présentation de la Société ALF AL Maghreb
I. Présentation de la société :
1) Fiche techniques de la société :
II. Alimentation animale et processus de production :
1) Alimentation animal:
2) Contrôle qualité au laboratoire de la société
a) Les analyses physico-chimiques:
b) Les analyses bactériologiques :
c) Analyses de sérologie
3) Processus de fabrication :
a) Formulation et recherche de la meilleure recette :
b) La réception des matières premières au sein de l’entreprise
c) Le broyage et le prémélange
d) Le mélange
e) Fabrication des granules :
f) L’acheminement de l’aliment jusqu’en élevage :
Partie 2: Etude Bibliographique
I. Généralité sur la méthode analytique définition de la méthode analytique
1) Définition de la méthode analytique :
2) Description d’une méthode d’analyse :
3) Cycle de vie d’une méthode :
a) Sélection de la méthode :
b) Mise au point de la méthode :
c) Validation de la méthode :
d) Estimation de l’incertitude et vérification de l’aptitude :
e) Utilisation en routine :
f) Revalidation :
4) Définition et objectif de la validation :
1) Définition:
2) Objectif :
5) Les critères de la validation analytique :
6) Approche de l’erreur totale
II. Etapes de la validation analytique basée sur le concept de l’erreur totale
1) Organisation des essais de validation :
2) Fonction de réponse et sélection du modèle
3) Prédiction inverse :
4) Calcul de la fidélité :
5) Calcul de la justesse :
6) Calcul des intervalles de tolérance :
7) Construire le profil d’exactitude :
8) La limite de quantification :
III. La méthode des Ajouts Dosées :
Partie 3:Etude Expérimentale
I. Mode opératoire :
II. Validation analytique :
1) Spécificité et interférences :
2) Etude de la spécificité les interférences :
3) Réalisation des gammes STD d’étalonnage, STD de validation :
3) Réalisation des étapes du concept de l’erreur totale :
a) Fonction de réponse :
b) Calcul de la justesse :
c) Calcul de la fidélité :
d) Calcul des intervalles de tolérance :
e) Profil d’exactitude :
f) Calcul de la justesse après correction:
g) Calcul de la fidélité après correction :
h) Calcul des intervalles de tolérance après correction :
i) Profil d’exactitude après correction :
j) Limite de quantification :
4) Génération de profil d’exactitude par la fonction de réponse transformation logarithmique,racine carré, quadratique et linéaire pondérer:
Conclusion
Télécharger le rapport complet