Qu’est-ce que la méthodologie Six Sigma

Qu’est-ce que la méthodologie Six Sigma

Nous entendons souvent que la méthodologie SS est une philosophie d’entreprise et ce n’est pas totalement faux. Il y a deux grands volets à cette méthodologie pour qu’elle soit efficace. Un volet technique qui vise la gestion de projets d’amélioration de la qualité. C’est dans cet espace que nous trouvons la séquence RDMAAC. Ainsi qu’un volet qui touche l’organisation de l’entreprise pour favoriser son amélioration continue. Dans ce dernier, nous voulons une structure hiérarchique du personnel pour prendre en charge et supporter l’amélioration continue à tous les niveaux de l’entreprise. À travers cette structure, nous s’assurons que les initiatives d’améliorations soient supportées et encouragées par la direction et en adéquation avec les objectifs, les stratégies, les missions et la vision de l’entreprise. Voici une définition proposée par la littérature: « Définir la démarche Six Sigma en des termes simples n’est pas possible, car elle englobe une méthodologie de résolution de problème tout en optimisant la gestion du changement. Six Sigma accomplit ce but en utilisant une boîte à outils statistique et mathématique et défini une séquence d’application pour les utiliser et pour produire des résultats significatifs rapidement (Raisinghani et al., 2005) ».

Nous voyons clairement ces deux volets dans la définition ci-dessus, car l’optimisation de la gestion du changement passe par l’organisation de l’entreprise et la résolution de problème passe par le coffre à outils statistiques et la séquence d’utilisation RDMAAC. Pour que les outils et concepts statistiques soient utilisés efficacement, ils doivent faire partie d’un modèle de gestion basé sur l’amélioration continue (Douglas, 2010). L’objectif fondamental de la méthodologie Six Sigma c’est l’implantation d’une stratégie de mesures qui met l’accent sur l’amélioration des processus et la réduction de la variabilité (Jiju, 2004), car la prémisse principale de cette démarche est que nous pouvons améliorer ce que nous pouvons mesurer. Autrement dit, l’entreprise doit se doter d’indicateurs de performance pour mesurer les variables qui sont susceptibles d’affecter la qualité de ce qu’il offre. Ces indicateurs doivent être liés avec ce que le client désire obtenir et doivent aussi être maintenus avec des seuils, des balises et des objectifs d’amélioration pour s’assurer que le client reste ou, encore mieux, soit davantage satisfait.

La variabilité est l’étendue autour d’une valeur cible d’un indicateur de performance. Le but de cette méthodologie est de réduire le plus possible cette étendue de sorte que notre produit ou service atteigne les valeurs cibles des indicateurs de performance le plus fréquemment possible. De cette façon, les clients reçoivent de la qualité et par conséquent, moins de dépense est occasionnée par l’entreprise pour la livrer. Ultimement, Six Sigma signifie que l’entreprise vise à produire moins de 3.4 défauts par million d’opportunités. Un défaut est défini comme n’importe quoi qui mène à l’insatisfaction de la clientèle (Jiju, 2004).

Historique 

En 1922 Walter Shewhart a introduit les limites de contrôle de valeur trois sigmas pour la variation des biens produits. Ce qui correspond à 99.973% de pièces de qualité ou encore 2600 défauts par million d’opportunités (DPMO). Shewhart explique qu’une intervention sur le processus est nécessaire lors que nous dépassons cette limite. Cette limite de qualité était suffisante pour la plupart des organisations jusqu’au début des années 80. C’est avec l’arrivée des composantes électroniques miniatures que cette limite n’était plus acceptable. Ces composantes produites en énorme quantité étaient destinées à être introduites comme sous assemblage dans les télévisions, les radios, etc. De plus, l’ouverture des marchés mondiaux a permis aux Américains de comprendre que le Japon pouvait produire ces mêmes pièces avec un niveau de qualité supérieure à un moindre coût (Raisinghani et al., 2005). Autrement dit, le Japon devenait un fournisseur plus intéressant. Heureusement pour Motorola, ils ont réagi en revoyant le système de gestion de la qualité. Au départ, c’est eux qui ont fondé la méthodologie en lui attribuant un nom et en classifiant les outils par phase de projet DMAAC. Toutefois, ce travail aurait été impossible sans la contribution des auteurs qui ont pensé à ces outils. Un des pères de la science de la qualité, Joseph M. Juran, a qualifié cette méthodologie comme peu originale. Il n’y a rien de nouveau, c’est simplement enrobé de différentes couleurs. Le terme Six Sigma renvoie au calcul du niveau d’aptitude d’un procédé et j’en ai été l’inventeur en 1926 (Paton, 2002). En fait, ce qui a été de nouveau avec cette méthodologie ça a été d’y mettre un peu d’ordre. D’expliciter une séquence d’utilisation et une classification des outils dans des phases de projets d’améliorations. De plus, l’orientation que l’entreprise entière doit prendre vers l’amélioration continue en instaurant des rôles aux employés sont des concepts qui ont été éclaircis. Par contre, la grande majorité des outils contenue dans la méthode est un rassemblement du corpus littéraire du domaine de la qualité depuis la Première Guerre mondiale. Quoi qu’il en soit, c’est en 1986 que Bob Galvin (président chez Motorola) a décidé d’accroitre le niveau de qualité de ses produits en ayant comme objectif 99.9997% de non-défaut. Ce qui correspond à une probabilité de six longueurs d’écart type de chaque côté de la moyenne d’une fonction de densité gaussienne centrée réduite. Il a fondé dans l’entreprise un système de mesure des performances pour les différentes hiérarchies pour contrôler les objectifs. À ce moment, Dr. Mikel Harry faisait des recherches pour la compagnie pour redéfinir et propager dans l’entreprise l’amélioration continue (Harry, 2004). Ce dernier aura été l’architecte de la démarche sous la supervision de Bob Galvin. Les succès de Motorola ont attiré l’attention d’autres compagnies qui les enviaient et ainsi, la démarche s’est propagée durant les années 90 dans d’autres grandes compagnies qui ont connu des succès comme General Electric par exemple.

Spécificités

Depuis la fin de la Deuxième Guerre mondiale plusieurs gurus du domaine de la qualité on mit des noms sur leur méthode de gestion de la qualité. Entre 1951 et 1956, Feigenbaum aurait été le premier à utiliser le terme « total quality control » (TQC). Sa définition inclut la gestion de la qualité dans le développement du produit, la maintenance et les efforts d’améliorations. Il pense que la qualité doit être prise en compte à partir du développement du produit jusqu’à la réception de ce même produit dans les mains du client (Angel, Frank et Barrie, 1998). Un peu plus tard, Ishikawa parle plutôt de « company wide quality control » (CWQC). Ce qui étend les concepts de gestion de la qualité à l’entreprise entière, car cet auteur croit que tous les départements doivent travailler ensemble pour réussir à satisfaire leur clientèle. Sa définition prend en charge le développement, le design, la production, le marketing ainsi que les services offerts aux clients (Ishikawa, 1990). D’autres gurus comme Deming et Juran qui ont fortement contribué à l’expansion des concepts avec leurs voyages au Japon avaient aussi leurs définitions. Toutes les définitions des grands penseurs sur le sujet sont considérées comme des variantes du « total quality management » (TQM) (Angel, Frank et Barrie, 1998). En ce sens, il est difficile de comprendre de manière limpide ce qu’est le TQM. Une définition internationale universelle a été admise par ISO en 1994 : Le TQM  est une stratégie globale de management à long terme dans laquelle tous les membres de l’organisme participent à l’intérêt de l’organisme lui-même, de ses membres, de ses clients et de la société considérée dans son ensemble (Organization, 1994).

Le TQM a formellement fait son entrée durant les années 80 un peu avant ou presque en même temps que SS, mais il repose sur des concepts et définitions différentes établies, et retravailler depuis au moins vingt ans auparavant. Toutefois, même si le TQM et le SS reposent sur des principes comparables SS se distingue de plusieurs façons :

• Dr Rick L. Edgeman explique qu’il peut sembler difficile de dire clairement que ceci est TQM et cela est Six Sigma. Par contre, la rigueur de la structure de la démarche dont laquelle est doté Six Sigma est un aspect important qui sépare les deux approches. De plus, une autre caractéristique est l’habilité de Six Sigma d’intégrer, de coordonner logiquement les outils, techniques et stratégies qui sont couramment utilisés de manière isolée dans le progrès de DMAAC (Jiju, 2009). Six Sigma n’est pas un remplacement de la méthode TQM, mais accent davantage sur la structure de la démarche (Pepper et Spedding, 2010).
• Dr Roger Hoerl pour sa part explique que Six Sigma emprunte beaucoup à TQM, mais corrige aussi plusieurs lacunes comme le manque d’orientation financière, le manque de ressources dédiées, une sélection de projets sans coordination et l’utilisation de n’importe qui est disponible pour faire les projets (Jiju, 2009). Selon un autre auteur, dans la même veine, Six Sigma égale TQM avec un plus grand accent sur le client, plus d’outils d’analyse, plus axée sur les résultats financiers et intégrant la gestion de projets (Mehrjerdi, 2011).
• Amitiva Mitra, quant à elle, explique que normalement dans les projets Six Sigma il y a un chef d’équipe disons un Black Belt ou encore un Champion qui sert de lien avec le conseil d’administration ce qui n’était pas nécessairement le cas avec TQM. La chance de l’engagement des patrons, de la complétion et la bonne implantation des projets est améliorée avec Six Sigma (Jiju, 2009). Une grande partie du succès de SS correspond à son agilité d’ajouter une couche de communication entre les différents paliers de l’entreprise (Abdolshah et al., 2009).

En 1997, une étude a été réalisée auprès des firmes de consultation pour statuer sur l’efficacité du TQM. Au mieux, le tiers des entreprises aux États-Unis et en Europe ayant adopté un programme TQM ont obtenu un résultat tangible significatif (Andersson, Eriksson et Torstensson, 2006). Selon eux, les échecs de la démarche seraient, en grande partie, causés par la définition trop vague de ses concepts. Selon ce que nous venons de citer, SS semble être une évolution du TQM même si les deux approches viennent sensiblement du même moment dans l’histoire.

Axée sur les résultats financiers 

La démarche SS se base sur des mesures à partir desquelles, il est possible de tirer des estimations. Nous avons besoin de suffisamment de données pour décrire les phénomènes avec précision (Douglas, 2010). Cette prémisse nous permet alors d’utiliser tout l’aspect calculatoire de SS. Un projet utilisant cette démarche est complètement justifiable avec les théories financières de la gestion de projet. C’est à-dire que lors qu’une initiative est trouvée, nous pouvons justifier la raison d’être du projet par des économies potentielles pour l’entreprise et la rigueur de la démarche exige que l’on estime, dans la phase de définition, les bénéfices escomptés avant de commencer un projet. De nombreuses compagnies (manufacturières, services, petites et grandes) autour du globe ont implanté SS et ont atteint de remarquable améliorations de leur part de marché, la satisfaction de la clientèle, la fiabilité de leurs produits, la qualité de leur service, etc. avec d’impressionnantes économies financières (Jiju, 2009). D’ailleurs, cette rigueur financière est une des forces de la méthodologie, car le but est de laisser, le moins possible, d’éléments au hasard, mais plutôt d’avoir une bonne estimation des risques que nous prenons.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

INTRODUCTION
CHAPITRE 1 CONTEXTE ET REVUE LITTÉRAIRE
1.1 Performance
1.1.1 Performance moyenne
1.1.2 Méfaits de la variabilité
1.2 Qu’est-ce que la méthodologie Six Sigma
1.2.1 Historique
1.2.2 Spécificités
1.2.2.1 Axée sur les résultats financiers
1.2.2.2 Axée sur la réduction de la variabilité
1.2.3 Évolution vers le Lean Six Sigma
1.2.4 Distinction entre l’entreprise manufacturière et de service
1.2.5 Structure hiérarchique typique
1.3 Critique envers la méthodologie Six Sigma
1.3.1 La science et les besoins de l’industrie
1.3.2 Les rôles, le savoir et les enjeux éducationnels
1.3.3 La démarche et les enjeux organisationnels
1.4 Synthèse des enjeux et orientation du travail
1.5 Méthodologie
CHAPITRE 2 ÉVALUATION DES OUTILS ET DES CONNAISSANCES REQUISES
2.1 Reconnaître
2.2 Définir
2.3 Mesurer
2.3.1 Analyse d’un système de mesure (R & R)
2.3.2 Le théorème de la limite centrale (TCL)
2.3.3 Test de normalités
2.3.4 Analyse d’aptitude d’un procédé
2.3.4.1 Le calcul du niveau sigma
2.3.5 Les indices d’aptitudes
2.4 Analyser
2.4.1 Le design d’expérience
2.4.1.1 Déterminer les facteurs à l’étude
2.4.1.2 Préparation de la matrice des essais
2.4.1.3 La collecte des données
2.4.1.4 L’analyse des données
2.4.2 Analyse de la variance (ANOVA)
2.4.2.1 Les conditions d’applications lié à l’analyse de la variance
2.4.3 La stratification
2.4.4 Analyse multi varié graphique
2.4.5 Analyse de la régression
2.4.6 Les tests d’hypothèses
2.4.7 L’échantillonnage
2.5 Améliorer
2.6 Contrôler
2.6.1 Les cartes de contrôle
2.7 Synthèse des outils statistiques
CHAPITRE 3 SÉLECTION D’OUTILS DE REMPLACEMENT
3.1 Type d’opérations et démarche d’analyse
3.2 Sélection, analyse et conception des outils
3.2.1 Les outils graphiques de base
3.2.1.1 Boîte à moustache
3.2.1.2 Graphique à barres
3.2.1.3 Le graphique secteur
3.2.1.4 Histogramme
3.2.1.5 Diagramme de Pareto
3.2.2 L’analyse d’un système de mesure (R et R)
3.2.3 Le théorème central limite (TCL)
3.2.4 Test de normalités
3.2.5 Analyse d’aptitude d’un procédé
3.2.6 Les indices d’aptitudes
3.2.7 L’analyse de la variance (ANOVA)
3.2.8 Analyse multi varié graphique
3.2.9 Analyse de la régression
3.2.10 Les tests d’hypothèses
3.2.11 L’échantillonnage
3.2.12 Les cartes de contrôle
3.3 Synthèse de la sélection des outils
CHAPITRE 4 COMPARAISON DES COFFRES À OUTILS
4.1 Évaluation du coffre à outils simplifiés
4.1.1 Pondération des critères
4.1.2 Pondération des alternatives pour chaque critère
4.1.3 Équilibre de la préférence
4.1.4 Commentaires des experts
4.2 Sondage sur l’impression des étudiants
4.3 Évaluation des logiciels de soutien à la démarche
4.4 Comparaison des méthodologies par des études de cas
4.4.1 Étude de cas 1 : design d’expérience
4.4.1.1 Résolution classique du problème avec Statistica 8.0
4.4.1.2 Résolution selon le coffre à outils simplifié
4.4.2 Étude de cas 2 : contrôle de procédé
4.4.2.1 Résolution classique du problème avec Statistica 8.0
4.4.2.2 Résolution selon le coffre à outils simplifié
4.4.3 Étude de cas 3 : régression multiple
4.4.3.1 Résolution classique du problème avec Statistica 8.0
4.4.3.2 Résolution selon le coffre à outils simplifié
4.4.4 Étude de cas 4 : ANAVAR
4.4.4.1 Résolution classique du problème avec Statistica 8.0
4.4.4.2 Résolution selon le coffre à outils simplifié
4.5 Discussions sur les résultats et perspectives
CONCLUSION

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *