Entre qualité et réglementations : objectifs et résultats au sein de bioMérieux

Télécharger le fichier pdf d’un mémoire de fin d’études

La Qualité au XXème siècle

Normes et statistiques

Les principes définis par Taylor vont rayonner à travers le monde ainsi que dans son propre pays, puisque qu’un autre américain du nom de Henry Ford s’en servira pour instaurer le travail à la chaîne et la production de ses voitures en série au début du XXème siècle. La production en série a permis de réduire les coûts de production en permettant de produire de grandes quantités à l’aide de pièces identiques. Elle spécialise aussi les ouvriers afin de fragmenter les tâches.
En France, le Laboratoire National d’Essais ou LNE fût crée en 1901. Ce laboratoire avait comme but de réaliser des essais physiques, chimiques et mécaniques. L’Etat, mais aussi des particuliers, peuvent lui confier des études et des contrôles. Ce laboratoire existe toujours mais s’appelle désormais Laboratoire National de métrologie et d’Essais. Il participe notamment à des missions de certifications pour des industriels. Le LNE est d’ailleurs la maison mère de l’organisme notifié de bioMérieux, GMED.
En 1905, la loi française sur la répression des fraudes punit la falsification sur la quantité ou qualité des produits alimentaires et services. Cette loi donne au gouvernement plus de pouvoir pour prendre des mesures selon les produits concernés. Les contrevenants risquaient une peine allant de 3 mois à un an d’emprisonnement et d’une amende allant de 100 à 5000 francs (405 à 20 285 €). L’article 3 alinéa 3 couvre notamment l’exercice de la pharmacie puisque sont concernés « Ceux qui exposeront, mettront en vente ou vendront des substances médicamenteuses falsifiées»[8].
Dans le domaine des statistiques, un ingénieur aux brasseries Guinness en Irlande nommé Student, ou de son vrai nom William Sealy Gosset, met au point une méthode statistique pour les petits échantillons appelée « loi t de Student ». Cette méthode évitait d’avoir à utiliser de grands échantillons lors de tests qualité. Il a donc permis aux industries de faire des économies. Toujours dans le milieu des mathématiques, Ronald Fisher inventa en 1920 l’analyse de la variance et l’a mise en œuvre pour étudier la culture de pomme de terre et de céréales. Les résultats de ses études en agronomie ont notamment été appliqués par des agriculteurs aux Etats-Unis pour les cultures de blé.
En 1918, est créée la Commission Permanente de Standardisation ou CPS. Cette commission avait pour objectif de départ de concevoir des standards pour les matériaux utilisés pour la guerre, notamment les métaux. Le CPS imprimera quelques brochures reprenant les pratiques de l’époque, mais sans imposer de règles issues de consensus. Cette commission serait tout de même à l’origine de la première norme française en 1920. Quelques années plus tard, cette organisation a dû mettre fin à son activité. En effet, le manque de moyens financiers, de communication et une attitude trop rigide lui furent reproché.
Dans le premier quart du XXème siècle on a donc un contrôle plus assidu par l’Etat, un essor des statistiques au service du moindre coût dans les industries mais également des standards et normes qui vont contraindre les industries à respecter un certain niveau de qualité.

Contrôle Qualité

En 1922 sort le livre The Control of Quality in manufacturing de G.S. Radford[9]. C’est dans cet ouvrage que pour la première fois il est question de la Qualité en tant que domaine à part entière. Il y est expliqué l’intérêt de la Qualité dès la conception mais aussi de l’amélioration et de l’augmentation des échanges entre tous les postes ayant un lien avec la Qualité. La traduction du « contrôle » Qualité de l’anglais est une traduction qui peut être qualifiée, avec le recul actuel, comme étant trop littérale. Le terme de « maîtrise » de la qualité serait plus approprié au vu de l’usage.
Quelques années plus tard, émerge donc le Contrôle Qualité (CQ) en tant que fonction chez Bell Telephone Laboratories. Cette fonction a pour rôle d’inspecter et de participer à l’amélioration de la production des éléments téléphoniques. Le physicien Walter Shewhart connu pour ses talents de statisticien, observe avec son équipe que les défauts sur les produits sont ponctuels et que le tri, coûteux et chronophage est donc obsolète. En conséquence, ils mettent au point une méthode qui permet de contrôler la qualité de la production mais en ne prélevant que quelques éléments plutôt que d’effectuer un tri sur la totalité de la production.
Shewhart va même aller plus loin, toujours en utilisant les statistiques il créa la première carte de contrôle 3 . Celle-ci permet de savoir, lorsqu’une valeur est en dehors des limites, que le système statistique a évolué et qu’il y a donc un problème lié à la machine ou au produit évalué. Ses travaux seront ensuite appliqués à la production de série. Il créa également la Maîtrise Statistique des Procédés ou MSP. La MSP est le principe selon lequel un processus ne produira jamais deux fois le même résultat. L’entourage de Shewhart, notamment ses élèves, sont encore connus aujourd’hui puisque dans ses rangs on retrouve : Edward Deming, célèbre pour sa roue4 et Joseph Juran, célèbre pour son application du principe de Pareto5 à la Qualité en 1934.
Pendant ces mêmes années, en France, est créée l’Association Française de Normalisation connue encore à l’heure actuelle sous le nom d’AFNOR. Cette association répondait au besoin de standardisation pour toutes les industries sur tout le territoire national mais permettait également d’être présents sur la scène internationale à l’International Standards Association (ISA). Aux Etats-Unis, au même moment, Joseph Juran présente sa première formation appelée « Quality Control » qu’il donnera également plus tard sous forme de cours à l’Université de New-York.
Toujours en France, le premier Salon de la Qualité française se déroule en 1933 à Paris et met en exergue la production, « l’excellence à la française », qui n’utilise pas encore le procédé de fabrication « en série » et qui est réputée pour son luxe[10] et donc sa production très artisanale. De nombreux stands sont présents au Grand Palais. Les stands réunissent des personnes discutant de meubles, de pétrole, de gastronomie, d’hygiène… et le Président français lui-même viendra y faire une apparition. Ce salon est le premier de ce genre dans le monde. En 1938, la France s’appuiera même sur un décret portant l’amélioration de la qualité de ses produits pour en assurer une meilleure exportation et donc une meilleure image commerciale[11] et renforcera la même année les pouvoirs de l’AFNOR. La marque « NF », Norme Française, fait son apparition en 1941 et l’activité de normalisation est gérée par le poste de Commissaire à la Normalisation. Encore une fois, la guerre fît se développer les normes en matière de qualité de l’armement. En effet, en 1940 le département de la défense des Etats-Unis définit des standards militaires pour s’assurer une certaine qualité de ses sous-traitants. De nouveau, Shewhart et d’autres statisticiens ont hautement participé à l’élaboration de critères d’acceptation et y relient des seuils d’inspection selon le niveau de ces critères. Il en est ressorti moins de produits défectueux et donc un gain de temps et d’argent significatif, essentiels en temps de guerre.
Par la suite, en 1942, Juran et Deming préparent ensemble un programme de formation à la Maîtrise de la Qualité, toujours en rapport avec la guerre puisque ces formations étaient dispensées dans les usines d’armement. Ces formations étaient basées essentiellement sur les statistiques.
C’est également une période durant laquelle de nombreuses associations, importantes dans le domaine de la Qualité, voient le jour. En 1946, l’American Society for Quality Control (ASQC) est créée et regroupe essentiellement des statisticiens. La même année, un équivalent de cette association voit le jour au Japon, la Nippon Kagaku Gijitsu Renmai ou Japanese Union of Scientists and Engineers (JUSE) en anglais sous l’égide de Kaoru Ishikawa, célèbre encore aujourd’hui pour son diagramme 6 . C’est au sein de l’association nipponne que Deming viendra donner des cours en 1950 à des dirigeants japonais.
A la fin de la guerre, apparaît pour la première fois l’esprit du management de la Qualité à travers un article du Dr. Feigenbaum « Quality as a management method »[12]. Les années qui suivent sont celles de la genèse et du développement de l’Assurance Qualité (AQ).

Assurance Qualité

Aux Etats-Unis la conquête spatiale bat son plein dans les années 60 et c’est notamment via la mission Apollo, que l’AQ, ou assurance de la qualité à l’époque, verra le jour. Le Japon est précurseur en matière de recherche constante de la Qualité. Le monde d’après-guerre devient de plus en plus concurrentiel et la qualité devient un argument de vente important aux yeux des clients. On passe d’une économie de marché à une économie concurrentielle.
Il est évident que l’AQ gagne en importance dans les entreprises tant le nombre de nouveautés explose dans ce milieu de XXème siècle. En effet, le concept d’Analyse des Modes de Défaillance, de leurs Effets et de leur Criticité ou plus communément appelé AMDEC7 est développé au sein la Navy américaine. L’impact du Japon dans le domaine de la Qualité continue dans ce monde d’après-guerre. Ishikawa redécouvre et diffuse le concept de la « Carte de Contrôle »8, pourtant développé un quart de siècle plus tôt, par Shewhart… Le Japon crée également dans les années 50 un prix prestigieux, le prix Deming, qui récompense les entreprises ayant prouvé de manière exemplaire l’utilisation du « Plan, Do, Check, Act » (PDCA), et ce, dans tous les aspects de l’entreprise. Au départ, seules les entreprises nippones peuvent y participer avant une ouverture à l’international. De plus, les Japonais initient le concept de Kaizen. Kaizen est la contraction de 2 mots japonais, « meilleur » et « changement »[13]. Ce sont les débuts du lean management. Ce système d’amélioration continue combine notamment la méthode des 5S 9 , la roue de Deming10 ou encore les 5 pourquoi11 et sera surtout utilisé chez Toyota dans un premier temps. C’est le Toyotisme. Cette méthodologie ne dépassera effectivement pas les frontières japonaises avant les années 80. Enfin, c’est encore une fois au Japon que le premier cercle de Qualité est constitué en 1962. Les cercles de Qualité sont des groupes de réflexion, et ils eurent tellement de succès que la JUSE créera le QC Circle Headquarters qui sera piloté par Ishikawa lui-même. A titre de comparaison, les premiers cercles de Qualité n’arrivent qu’en 1974 aux États-Unis et qu’en 1978 en France, soit respectivement 12 et 16 ans après les Japonais.
Aux Etats-Unis, dans les années 60, Philip B.Crosby entame la démarche « 0 défaut» dans le cadre du programme Apollo mais également de la réalisation des missiles Pershing. La philosophie du « 0 défaut » c’est « right the first time »12. Il se rend compte que les causes de défaut sont en grande majorité de nature humaine et qu’elles prennent leurs sources dans une mauvaise gestion du management qui entraîne un certain désintérêt des employés pour leurs tâches. Dans le domaine technologique, une loi imposera dans les années 70 le respect des critères d’Assurance Qualité pour la construction des centrales nucléaires aux Etats-Unis avec l’établissement de normes émises par l’American National Standard Institute.
L’entreprise Électricité De France (EDF), fera de même à partir de 1979 en se référant au code de l’Agence internationale de l’Energie Atomique.
Côté littéraire, en 1951, J.M. Juran écrit le « Quality control handbook »[14] qui a longtemps fait autorité. Feigenbaum sort l’ouvrage “Quality Control : principles, Practice and Administration”[15] qui élargit la démarche à la prévention et à la gestion des coûts. On voit que la Qualité est une nouvelle fois reliée à la sphère militaire puisqu’en 1959, la première norme d’AQ, la norme MIL-Q-9858, est établie par l’armée américaine. Cette dernière serait même à l’origine de la série de référentiels ISO 9000 ou encore des Bonnes Pratiques[16]. La JUSE sort également en 1962 un magazine mensuel et édite une « Bible » de la Qualité :Guide to quality control[17] de Kaoru Ishikawa, où sera représenté le célèbre diagramme de cause-effet13. L’ISO lancera en 1979 une étude sur les normes d’Assurance Qualité. Plus de 30 pays y participeront et la France y a joué un rôle dans la façon de structurer les normes. La première norme publiée par l’AFNOR arrivera, elle, en 1980.
L’explosion des associations/organisations relatives à la Qualité à travers le globe montre l’engouement autour de ce sujet. La JUSE et l’ASQC n’en étaient que les précurseurs. En effet, l’Europe crée en 1956 l’European Organisation for Quality Control (EOQC). Cette organisation comptait dans ses membres fondateurs : la France, l’Allemagne de l’Ouest, les Pays-Bas, l’Italie et le Royaume-Uni. Elle finira par prendre le nom d’European Organisation for Quality (EOQ) pour englober dans son nom la Qualité dans sa globalité, et compte 24 pays membres aujourd’hui. Au niveau national, l’Association Française pour le Contrôle Industriel de la Qualité (AFCIQ) est créée, elle regroupe des entreprises privées et publiques dans le but de promouvoir la Qualité sur le sol français et de favoriser la Qualité dans les PME. Dix ans plus tard, est créée l’Académie Internationale de la Qualité (AIQ) qui comprend des experts qui supervisent les activités de l’ASQC, de la JUSE et de l’EOQC. Leur but est de propager la Qualité à travers le monde. Leur slogan est aujourd’hui « Quality for Humanity »14. Toujours en France, en 1975, est créé le Service de la Qualité des Produits Industriels et de la Normalisation (SQALPI). Ce service a 3 ambitions[18] :
– Exercer la tutelle du système normatif et du LNE
– Favoriser la libre circulation des produits
– Et promouvoir la Qualité, la certification et l’accréditation
Vers la fin des années 70, l’Assurance Qualité est enfin passée dans le langage courant, elle est séparée du Contrôle Qualité et les premières normes nationales apparaissent laissant préfigurer l’évolution vers un nouveau concept : la Qualité Totale.

Qualité Totale

Ce concept, dont le Japon est le précurseur, se diffuse, à travers le globe. La Qualité Totale comprend à la fois le « 0 défaut », le Lean Management, l’implication et la reconnaissance du personnel ou encore la fidélisation du client dans ses objectifs et principes. Le coût des différentes pertes évitables reflète de la bonne application ou non des principes de la Qualité Totale. Plus les dépenses reliées aux pertes évitables sont élevées ou stables moins la mise en place de la Qualité Totale est efficace. Le service Qualité devient alors un service central dans le fonctionnement des entreprises, notamment pour réduire les coûts.
La France, via l’AFNOR, publie sa première norme en 1980, sur la gestion de la qualité et à la même époque arrivent les premières formations concernant la Qualité dans les universités françaises. La période est faste pour la Qualité française, puisqu’en 1983 une campagne de promotion est réalisée pour que les consommateurs puissent reconnaître les marques de qualité comme la marque NF15 de l’AFNOR ou encore le Label Rouge. L’Europe veut également entrer dans la danse, et en 1985 est signé l’Acte Unique Européen (AUE) qui a pour objectif la libre circulation des marchandises, des personnes, des services et des capitaux. Les normes sont au cœur de cette stratégie de marché commun. En 1987, arrivent les premières normes internationales de l’ISO, la série ISO 9000 qui harmonise un certain nombre de règles pour tous les types d’entreprises. En 1988 naît l’European Foundation for Quality Management ou EFQM, qui a comme objectif d’aider les entreprises à devenir plus compétitives via la Qualité et d’inciter les membres à jouer un rôle dans l’amélioration de celle-ci. La première notion de « Qualité Totale » apparaît en France en 1989 à l’occasion de la création d’un l’Institut Européen de la Qualité Totale qui délivre des formations diplômantes, et qui aujourd’hui possède 13 campus à travers la France. Au début des années 90, le coût des pertes dû aux différentes pertes/gaspillages (Muda16) est chiffré. L’estimation est autour de 10% du chiffre d’affaires des entreprises. Ce constat mènera aux premières assises de la Recherche en Qualité, au développement des marques NF ou encore à une politique communautaire de Qualité. C’est dans ce contexte qu’en 1993, le Premier Prix Français de la Qualité voit le jour, 42 ans après le prix Deming et 5 ans après le prix Américain. Le marquage CE arrive, lui, au milieu des années 90 en Europe.
Aux Etats-Unis au début des années 80, après avoir fait état de la meilleure qualité des produits japonais face aux produits occidentaux, Juran s’exclamera à la télévision « Si le Japon peut le faire pourquoi pas nous ? »[19]. Deming participe également à l’évolution de la Qualité en donnant des cours de statistiques appliquées aux entreprises au sein de celles-ci pour que les employés comprennent l’aspect essentiel de la reproductibilité et de leur rôle à jouer dans la qualité de leur produit. Il publie un ouvrage en 1982 Out of the crisis[20] et présente lors de ses cours les 14 étapes que les dirigeants doivent suivre pour avoir un management de la Qualité efficace17. Ces règles touchent l’intégralité de l’entreprise, tout le monde est concerné. En 1984, les Etats-Unis lancent leur mois National de la Qualité, une quinzaine d’année après le Japon. En 1988, le premier Prix national de Qualité est créé, 36 ans après le prix Deming japonais. En 1994, une étude, la « Worldwide Quality study », classe les nations selon l’image de la Qualité de celles-ci. Sans surprise, le Japon est 1er, les Etats unis 3ème et la France 5ème.
La fin du XXème montre la diffusion de la Qualité en dehors du Japon, qui reste pionnière dans ce domaine. De nombreuses associations, organisations, formations et prix promeuvent la Qualité dans toutes les strates de la société. La qualité est réellement devenue un argument central dans la décision d’achat des clients et le commerce est devenu de plus en plus concurrentiel dans ce domaine avec la mondialisation. Le Dr Juran prédit d’ailleurs le XXIème siècle comme étant celui de la Qualité.

Quel avenir pour la Qualité au XXIème siècle ?

Un quart du XXIème est passé, que peut-on observer et que peut-on déduire ? La Qualité est au service de l’excellence dans un monde toujours plus concurrentiel où les entreprises cherchent à se démarquer. En effet, l’explosion des fusions-acquisitions18 fait régner la loi du plus fort, où il faut choisir entre acheter ou se faire acheter. Dans ce contexte, il est compréhensible que le client soit d’autant plus important. Celui-ci, après avoir acheté des produits « standards » pendant des siècles, veut se démarquer, et une personnalisation à outrance est observée par les marques : stylos, voitures, chaussures et même jusqu’à la musique diffusée lors de ses achats[22].
L’histoire des marques prend également de l’importance, elles se sont mises à décréter que le prix ne faisait pas nécessairement la qualité mais que la marque oui. Les marques sont de plus en plus visibles. La qualité n’est plus une valeur absolue mais dépendante de celui qui regarde ou plutôt, dans ce contexte, qui achète.
C’est donc la perception de la qualité a changé. Le client veut plus. Il ne cherche plus seulement à ce le produit soit de qualité. Le consommateur veut également un Service Après-Vente (SAV) efficient, de l’innovation, des délais courts de fabrication et de livraison, un prix relativement faible… C’est dans ce cadre que le management de la Qualité montre toute son utilité car ce n’est plus un seul critère mais une multitude de critères dépendants de la clientèle qui détermine l’achat. Ce concept peut se résumer une phrase : « La Qualité implique une amélioration continue des prestations qui n’engendre pas forcément une augmentation des prix de revient ou de vente »[23]. Les clients ont désormais beaucoup plus à cœur de savoir à qui ils achètent.
L’éthique et la déontologie comme ligne conductrice d’une entreprise est désormais une qualité recherchée par beaucoup de clients. Dans une industrie de santé, ces critères ne sont pas seulement recherchés, ils sont nécessaires. Il n’est plus seulement question de satisfaire le client ponctuellement pour faire de la Qualité, il faut également prévoir une gestion durable de la qualité pour se faire. En bref, l’adaptabilité semble être la clef.
Pour une Qualité totale, il ne suffit plus d’écouter le client et seulement le client, il faut aussi prendre en compte toutes les parties intéressées : le personnel, la société civile ou encore les actionnaires et chercher à les satisfaire également. La Qualité n’est plus seulement la capacité d’une entreprise à satisfaire son client, mais elle doit également être capable de répondre à celles de la société par le biais des associations ou encore des syndicats par exemple.
Les projets de Qualité sont maintenant des projets de longue haleine car ils impliquent souvent la stratégie du groupe et nécessitent une bonne connaissance de son environnement concurrentiel. De plus, il s’agit aussi de motiver le personnel impliqué et plus seulement d’écrire ce qu’il faut faire. Il faut expliquer pourquoi c’est important d’agir. Les entreprises doivent pouvoir répondre à la question « à quoi ça sert ? » lorsqu’ils implémentent une nouvelle solution Qualité en leur sein. Les entreprises doivent également combattre au quotidien la mauvaise réputation des services gérant la Qualité qui se mêleraient de tout et ne s’occuperaient de rien. La fonction de la Qualité dans nos sociétés modernes est ainsi beaucoup plus large que la définition première de la qualité qui était de faire « du bon travail ».

Charte de projet

La charte de projet est un outil visuel de la Qualité. Il permet de montrer à chacun des participants :
– le contexte
– le(s) problème(s) rencontré(s)
– l’objectif
– ce qui est attendu en donnée de sortie
– les grandes étapes
– les participants ainsi que leur rôle
– les soutiens ou sponsors du projet
– et enfin un calendrier prévisionnel
Cet outil sert à définir et présenter ce qui est attendu du projet de manière succincte et efficace à l’équipe concernée. La charte sert d’introduction à un projet, mais également d’outil de suivi pour chaque réunion de projet, pour en rappeler les enjeux tant au niveau des objectifs finaux que des délais qui doivent être tenus. Cette charte expose également les soutiens ou sponsors du projet. Ces derniers assoient une certaine légitimité au projet ainsi qu’au responsable.
Pour réaliser une bonne charte de projet il faut :
– qu’elle tienne en une page ou diapositive
– que toutes les parties prenantes soient représentées
– qu’elle soit facilement ajustable si besoin car des modifications avant la validation finale peuvent survenir
– que les informations importantes soient vite repérées
– que les objectifs définis soient ambitieux mais réalistes
– que l’ensemble forme un tout qui soit harmonieux et clair
Cas pratique de bioMérieux : dans cet exemple un certain nombre d’outils qui seront présentés dans cette partie ont été utilisés. À la suite de remontées par les employés du service Qualité Europe Moyen-Orient et Afrique (EMEA), un projet d’Amélioration Continue a été mis en place. À l’initiation de ce projet, une charte de projet a ainsi été présentée puis validée par les employés concernés21.

QQOQCCP

Un autre outils de définition est le QQOQCCP. QQOQCCP est l’abréviation de 7 questions : Qui ? Quand ? Où ? Quoi ? Comment ? Combien ? Pourquoi ? C’est une méthode de résolution de problème par questionnement. Cette méthode permet de présenter de façon quasi-exhaustive l’environnement d’un événement indésirable et de lister les informations connues en relation avec celui-ci.
Exemple :
Problème découvert : Une particule bleue est retrouvée sur un comprimé blanc en fin de ligne par un opérateur X.
Qui ? L’opérateur X
Quoi ? Une particule bleue ; Un comprimé blanc Où ? En fin de ligne de production
Quand ? La date de l’évènement
Comment ? Par observation visuelle de l’opérateur Combien ? Sur 1 comprimé
Pourquoi ? Indéterminé ; Trouver la cause racine du problème
Au fur et à mesure, il faudra préciser chacune des questions en allant de plus en plus loin dans le questionnement. Par exemple, sur le « Qui ? » : pourrait être concerné tout le personnel en amont du problème ou encore dans le « Quand ? » : rechercher si l’évènement est déjà arrivé ou non et si oui indiqué les dates concernées.
Cet outil peut aussi servir à présenter un projet en amont de la proposition de solutions. Dans ce cas, le « Qui ? » sera l’équipe du projet, le « Où ? » le ou le(s) services concernés, le « Combien ? » sera les coûts du projet… C’est donc un outil de résolution de problème mais également un outil de définition de projets.

Diagramme de Pareto

Vilfredo Pareto, économiste italien du XIXème, remarque que la répartition des richesses en  Angleterre était inéquitable et que la majorité était aux mains des quelques proches de Sa Majesté et que seule une petite partie des biens revenait au plus grand nombre. C’est cette observation que Joseph Juran s’appropriera pour en sortir un principe qui s’applique à la Qualité. Le concept s’appuie sur la loi du 80/20 qui admet que 20% des causes produisent 80% des effets ou encore que 20% des clients créent 80% du chiffre d’affaires. De cette loi découle un outil de tri qui permet de savoir sur quels actions, produits, clients… il faut se pencher en priorité. Cet outil s’appelle le diagramme de Pareto. En voici un exemple dans la Figure 2 ci-dessous :
Pour lire un diagramme de Pareto, il faut ranger dans un ordre décroissant les informations, ici le nombre de réclamation. Ensuite il faut afficher les pourcentages cumulés, ici de réclamations. Dans ce diagramme, nous pouvons observer que seuls 3 produits (B, E et C) produisent 80% des réclamations. Ce sont donc sur ceux-ci qu’il faudra axer des actions en priorité.

VOC

VOC ou Voice Of the Customer est un outil pour évaluer la satisfaction du client et adapter les spécifications du produit. S’il est plutôt évident qu’un produit qui ne correspond pas aux attentes ne se vend pas, il l’est également d’un produit issu de la « sur-qualité ». En effet, un produit doit répondre à cette question « est-ce dans les spécifications de mon client ? » et cela tout au long du process. Les étapes où la réponse à cette question est « non » et qui ne sont pas dans le domaine de la qualité « réglementaire », sont une perte de ressources et donc un coût plus important pour l’entreprise. Tout cela, pour un résultat qui ne sera pas perceptible ou qui ne plaira pas au client. L’analyse des VOC permet donc de meilleurs investissements et de meilleurs choix stratégiques et marketing pour l’entreprise.
La VOC peut prendre différentes formes :
– un questionnaire dans lequel les clients peuvent s’exprimer sur le produit ou le service reçu
– un entretien où l’entreprise peut discuter des besoins et attentes du client vis-à-vis de son produit
– un groupe de discussion où l’on peut organiser les informations selon les segments commerciaux
Ces trois exemples de VOC sont actifs, c’est l’entreprise qui va vers son client. Il existe cependant une forme qui est plutôt passive :
– le service après-vente, c’est le client qui entreprend lui-même les démarches
Nous les voyons souvent sous le nom « d’enquête de satisfaction » et il est possible de constater l’importance pour les entreprises quand celles-ci font gagner des bons d’achat ou des cadeaux en échange de ces informations. Les points de mécontentements mais également les points positifs permettent tous deux, lorsqu’ils sont exprimés, de participer à l’amélioration continue du produit ou service.

8M – Ishikawa

Kaoru Ishikawa a beaucoup apporté au concept de la Qualité 22 . Il a notamment conceptualisé sous la forme d’un diagramme (Voir Figure 3 Diagramme d’Ishikawa) les catégories de causes menant à un effet. Initialement, seuls « 5M » étaient représentés sur le diagramme d’Ishikawa :
– Matière : ici on parle du produit, il faut connaître sa nature, sa composition, ses références, les exigences du client concernant : sa qualité, ses standards, son transport, son conditionnement mais également la documentation qui l’accompagne
– Méthodes : soit le processus d’une activité. Chaque étape doit être connue pour identifier une source de problème plus facilement
– Milieu : ou environnement, il faut comprendre par ce terme la gestion des flux, l’organisation des postes de travail ou les paramètres qui influent sur le produit ou un élément du process
– Moyens : ici, on entend les équipements et il s’agit d’y observer les réglages, le nettoyage ou encore la maintenance associée
– Main d’œuvre : c’est-à-dire toutes les interactions humaines et les bonnes pratiques reliées Ensuite est apparu le concept de « 6M », auquel s’est ajouté la Mesure. Pour cette notion, on entend surtout les erreurs, l’étalonnage ou encore les écarts pouvant être mesurés au cours du process.
Enfin, deux derniers « M » ont été ajoutés :
– Moyens financiers : le coût est un paramètre important car le budget qui est alloué pour la maintenance ou encore pour l’achat d’une machine peut être une explication pour un problème donné
– Management : l’influence de ce facteur est plus difficile à évaluer car c’est une notion immatérielle, qui est plus du domaine du ressenti. Pourtant c’est un facteur qui influe de manière parfois très importante sur le personnel de l’entreprise et donc sur leur travail
Cet outil n’apporte pas de solutions directes mais permet de se poser les bonnes questions et de bien définir l’environnement d’un problème. Son concept est encore très utilisé à l’heure actuelle.

Les 5 Pourquoi

La méthode des 5 Pourquoi ou 5P est un outil de résolution de problème. En théorie, cette méthode permet de remonter du problème jusqu’à la cause racine. Reprenons l’exemple des particules bleues sur le comprimé blanc23 :
Problème : Une particule bleue a été retrouvée sur un comprimé blanc en fin de ligne
Pourquoi une particule bleue a été retrouvée ? Parce qu’elle a passé les machines précédentes
Pourquoi a-t-elle passé les machines précédentes ? parce que la matière passe les tamis
Pourquoi la matière passe le tamis ? Parce que la matière retrouvée est du latex et que cette matière se déforme
Pourquoi retrouve-t-on du latex ? Parce que les opérateurs portent 2 paires de gants et ne voient pas lorsqu’ils en perdent un morceau
Pourquoi les opérateurs portent 2 paires de gants ? Parce que c’est plus confortable
La cause racine est donc l’inconfort provoqué par le port d’une seule paire de gant ressenti par les opérateurs au niveau des tamis. Une solution serait d’acheter des gants plus confortables et de former les opérateurs à ne porter qu’une seule paire de gant et à vérifier, à intervalle déterminé, l’intégrité de leurs gants. On peut également agir à un autre niveau, mettre une caméra qui détecterai une autre couleur que le blanc en fin de tamis ou une autre matière que de la poudre. Avec cette méthode, il est donc possible de non seulement agir sur la cause racine mais également d’améliorer la détectabilité du problème à d’autres niveaux.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction
I. Histoire de la Qualité
A. Avant le XXème siècle
1. L’Antiquité (-3500 avant J.C. – IVème siècle après J.C.)
2. Le Moyen-Age (Vème – XVème siècle après J.C.)
3. Les Temps Modernes (XVIème siècle – XVIIIème siècle)
4. Le XIXème siècle
B. La Qualité au XXème siècle
1. Normes et statistiques
2. Contrôle Qualité
3. Assurance Qualité
4. Qualité Totale
C. Quel avenir pour la qualité au XXIème siècle ?
II. Outils de la Qualité
A. Définir
1. Charte de projet
2. QQOQCCP
3. Diagramme de Pareto
4. VOC
5. 8M – Ishikawa
6. Les 5 Pourquoi
B. Mesurer
1. SIPOC
2. VOE
3. Gemba
C. Analyser
1. AMDEC
2. Temps de cycle
3. L’analyse PESTEL
4. VSM
5. Muda et valeur ajoutée
6. Solution ELCOMORE
D. Innover
1. VSD
2. RACI
E. Implémenter
1. Le management visuel
2. Le 5S
3. SMED
F. Contrôler
1. +QDCI
2. Audits
III. Entre qualité et réglementations : objectifs et résultats au sein de bioMérieux
A. Présentation de l’entreprise
1. Histoire
2. Organisation
3. Quelques produits
B. Norme ISO 9001 et son application à bioMérieux
1. Introduction et chapitres 1 à 3
2. Chapitre 4 – « Contexte de l’organisme »
3. Chapitre 5 – « Leadership »
4. Chapitre 6 – « Planification »
5. Chapitre 7 – « Support »
6. Chapitre 8 – « Réalisation des activités opérationnelles »
a. Planification et maîtrise opérationnelles
b. Exigences relatives aux produits et services
c. Conception et développement de produits et services
d. Maîtrise des processus, produits et services fournis par des prestataires externes
e. Production et prestation de service
f. Libération des produits et services
g. Maîtrise des éléments de sortie non conformes
7. Chapitre 9 – « Evaluation des performances »
8. Chapitre 10 – « Amélioration »
C. Cas pratique : mise en place et obtention de la Certification ISO 9001 dans la filiale égyptienne de bioMérieux
1. Chronologie
a. Phase 1 – Mise en œuvre du SMQ
b. Phase 2 – Pérennité
c. Phase 3 – Audit à blanc
d. Phase 4 – Audit de certification
2. Difficultés
3. Réussites
Conclusion
Bibliographie

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *