L’amélioration continue est un sujet d’actualité dans les entreprises. Que ce soit dans l’entreprise manufacturière ou de services, l’organisation est soucieuse de conserver ou d’accroître son avantage concurrentiel par l’entremise d’une organisation efficace. Depuis une centaine d’années, les principes du génie industriel n’ont pas cessé d’évoluer. Cette évolution a permis l’émergence de principes, techniques et philosophies pour devenir de plus en plus globale dans leurs approches. Aux deux pôles, nous avons le Taylorisme et aujourd’hui le Lean Six Sigma.
Avec l’arrivée de la production de masse, l’organisation du travail est devenue une discipline à part. Il était important de déterminer une cadence de travail pour suivre le rythme de la demande. Nous avons commencé par décortiquer le travail en tâches pour étudier les temps de production et déterminer des temps standards d’opérations. Par souci d’efficacité, tenter de réduire les mouvements inutiles pour utiliser les ressources humaines à leurs capacités complètes. Le Taylorisme a ouvert la porte à l’étude scientifique du travail. Cette philosophie s’applique essentiellement aux chaines de montage et d’assemblage. D’ailleurs, Charles Chaplin en 1936 illustre bien ce principe de production dans son film « les temps modernes ».
Plus tard, nous avons voulu affiner ces méthodes en tentant d’augmenter la qualité du produit ou du service rendu aux clients tout en gardant les coûts de production à leur minimum. Cet objectif nécessite une approche plus globale, car ce n’est pas seulement la chaine de montage qui doit être prise en compte dans l’étude. De plus, par la diversité des industries d’aujourd’hui, la qualité peut se mesurer de bien des façons différentes.
Performance
Performance moyenne
Les statistiques descriptives sont utilisées de manière intensive dans les entreprises. Il ne m’est jamais arrivé jusqu’à maintenant d’assister à une rencontre ayant comme sujet l’amélioration continue et qu’aucune valeur d’indicateur de performance ne soit présentée. La valeur la plus répandue est, évidemment, la moyenne. Mais la moyenne est aussi souvent mal utilisée, car elle doit être liée à la dispersion qui lui est associée. À l’extrême, si une entreprise mesure l’épaisseur de deux feuilles d’acier qu’elle produit : la première mesure 1.25 po et la seconde mesure 1.5 po. Il est vrai que la moyenne de ces deux mesures vaut mathématiquement 1.375 po, mais aucune feuille dans cet échantillon n’a réellement cette épaisseur. Un client désireux d’acheter cette dernière dimension ne l’obtiendra pas même si en moyenne c’est ce que l’entreprise produit. Nous voyons souvent des erreurs de gestion basée sur l’utilisation des moyennes. Celle qui a marqué l’industrie est certainement le flop de la compagnie Ford avec son modèle Edsel à la fin des années 50. Leur méthodologie à été d’interviewer 800 personnes et de faire la moyenne des caractéristiques voulues des consommateurs. Ils croyaient concevoir une voiture qui intéresserait tout le monde, mais finalement ça n’a intéressé personne (Stocken, 2011). Ce dernier exemple est certainement le plus convaincant que l’illustration d’une moyenne n’est pas suffisante pour prendre des décisions. Il est important de comprendre la dispersion autour de celle-ci.
Méfaits de la variabilité
C’est souvent ce qui peut coûter cher à une entreprise, car le client s’attend à un produit ou un service qui satisfait certains critères. La variabilité dans l’acheminement, la production, d’un bien ou d’un service vers le client peut faire en sorte que ses tolérances ne seront pas respectées. La variabilité dans la réponse des processus est reconnue comme le « démon » de l’entreprise et doit être surmontée ou du moins être prise en compte (Douglas, 2010). Nous comprenons alors qu’un client insatisfait demande plus d’attention. Dans le cas d’un service, il faudra peut-être lui rendre à nouveau ou du moins consacré du temps supplémentaire pour satisfaire les critères. Ce qui engendre des coûts pour l’entreprise et de la frustration pour le client. Dans le cas d’un produit dont les processus de fabrication sont variables, les produits finis ne seront pas tous de la même qualité. Encore une fois, un client désireux d’acheter un produit fait en série qui n’est pas identique à ses attentes ne sera pas satisfait. L’entreprise devra consacrer du temps supplémentaire pour travailler sur la pièce à nouveau. Deming disait souvent que s’il avait une chose à dire aux gestionnaires, il leur dirait de mettre l’accent sur la réduction de la variabilité (Douglas, 2010). En réduisant la variabilité, c’est immanquable, on accroit les profits.
Qu’est-ce que la méthodologie Six Sigma
Nous entendons souvent que la méthodologie SS est une philosophie d’entreprise et ce n’est pas totalement faux. Il y a deux grands volets à cette méthodologie pour qu’elle soit efficace. Un volet technique qui vise la gestion de projets d’amélioration de la qualité. C’est dans cet espace que nous trouvons la séquence RDMAAC. Ainsi qu’un volet qui touche l’organisation de l’entreprise pour favoriser son amélioration continue. Dans ce dernier, nous voulons une structure hiérarchique du personnel pour prendre en charge et supporter l’amélioration continue à tous les niveaux de l’entreprise. À travers cette structure, nous s’assurons que les initiatives d’améliorations soient supportées et encouragées par la direction et en adéquation avec les objectifs, les stratégies, les missions et la vision de l’entreprise. Voici une définition proposée par la littérature: « Définir la démarche Six Sigma en des termes simples n’est pas possible, car elle englobe une méthodologie de résolution de problème tout en optimisant la gestion du changement. Six Sigma accomplit ce but en utilisant une boîte à outils statistique et mathématique et défini une séquence d’application pour les utiliser et pour produire des résultats significatifs rapidement (Raisinghani et al., 2005) ».
Nous voyons clairement ces deux volets dans la définition ci-dessus, car l’optimisation de la gestion du changement passe par l’organisation de l’entreprise et la résolution de problème passe par le coffre à outils statistiques et la séquence d’utilisation RDMAAC. Pour que les outils et concepts statistiques soient utilisés efficacement, ils doivent faire partie d’un modèle de gestion basé sur l’amélioration continue (Douglas, 2010).
L’objectif fondamental de la méthodologie Six Sigma c’est l’implantation d’une stratégie de mesures qui met l’accent sur l’amélioration des processus et la réduction de la variabilité (Jiju, 2004), car la prémisse principale de cette démarche est que nous pouvons améliorer ce que nous pouvons mesurer. Autrement dit, l’entreprise doit se doter d’indicateurs de performance pour mesurer les variables qui sont susceptibles d’affecter la qualité de ce qu’il offre. Ces indicateurs doivent être liés avec ce que le client désire obtenir et doivent aussi être maintenus avec des seuils, des balises et des objectifs d’amélioration pour s’assurer que le client reste ou, encore mieux, soit davantage satisfait.
La variabilité est l’étendue autour d’une valeur cible d’un indicateur de performance. Le but de cette méthodologie est de réduire le plus possible cette étendue de sorte que notre produit ou service atteigne les valeurs cibles des indicateurs de performance le plus fréquemment possible. De cette façon, les clients reçoivent de la qualité et par conséquent, moins de dépense est occasionnée par l’entreprise pour la livrer. Ultimement, Six Sigma signifie que l’entreprise vise à produire moins de 3.4 défauts par million d’opportunités. Un défaut est défini comme n’importe quoi qui mène à l’insatisfaction de la clientèle (Jiju, 2004).
|
Table des matières
INTRODUCTION
CHAPITRE 1 CONTEXTE ET REVUE LITTÉRAIRE
1.1 Performance
1.1.1 Performance moyenne
1.1.2 Méfaits de la variabilité
1.2 Qu’est-ce que la méthodologie Six Sigma
1.2.1 Historique
1.2.2 Spécificités
1.2.2.1 Axée sur les résultats financiers
1.2.2.2 Axée sur la réduction de la variabilité
1.2.3 Évolution vers le Lean Six Sigma
1.2.4 Distinction entre l’entreprise manufacturière et de service
1.2.5 Structure hiérarchique typique
1.3 Critique envers la méthodologie Six Sigma
1.3.1 La science et les besoins de l’industrie
1.3.2 Les rôles, le savoir et les enjeux éducationnels
1.3.3 La démarche et les enjeux organisationnels
1.4 Synthèse des enjeux et orientation du travail
1.5 Méthodologie
CHAPITRE 2 ÉVALUATION DES OUTILS ET DES CONNAISSANCES REQUISES
2.1 Reconnaître
2.2 Définir
2.3 Mesurer
2.3.1 Analyse d’un système de mesure (R & R)
2.3.2 Le théorème de la limite centrale (TCL)
2.3.3 Test de normalités
2.3.4 Analyse d’aptitude d’un procédé
2.3.4.1 Le calcul du niveau sigma
2.3.5 Les indices d’aptitudes
2.4 Analyser
2.4.1 Le design d’expérience
2.4.1.1 Déterminer les facteurs à l’étude
2.4.1.2 Préparation de la matrice des essais
2.4.1.3 La collecte des données
2.4.1.4 L’analyse des données
2.4.2 Analyse de la variance (ANOVA)
2.4.2.1 Les conditions d’applications lié à l’analyse de la variance
2.4.3 La stratification
2.4.4 Analyse multi varié graphique
2.4.5 Analyse de la régression
2.4.6 Les tests d’hypothèses
2.4.7 L’échantillonnage
2.5 Améliorer
2.6 Contrôler
2.6.1 Les cartes de contrôle
2.7 Synthèse des outils statistiques
CHAPITRE 3 SÉLECTION D’OUTILS DE REMPLACEMENT
3.1 Type d’opérations et démarche d’analyse
3.2 Sélection, analyse et conception des outils
3.2.1 Les outils graphiques de base
3.2.1.1 Boîte à moustache
3.2.1.2 Graphique à barres
3.2.1.3 Le graphique secteur
3.2.1.4 Histogramme
3.2.1.5 Diagramme de Pareto
3.2.2 L’analyse d’un système de mesure (R et R)
3.2.3 Le théorème central limite (TCL)
3.2.4 Test de normalités
3.2.5 Analyse d’aptitude d’un procédé
3.2.6 Les indices d’aptitudes
3.2.7 L’analyse de la variance (ANOVA)
3.2.8 Analyse multi varié graphique
3.2.9 Analyse de la régression
3.2.10 Les tests d’hypothèses
3.2.11 L’échantillonnage
3.2.12 Les cartes de contrôle
3.3 Synthèse de la sélection des outils
CHAPITRE 4 COMPARAISON DES COFFRES À OUTILS
4.1 Évaluation du coffre à outils simplifiés
4.1.1 Pondération des critères
4.1.2 Pondération des alternatives pour chaque critère
4.1.3 Équilibre de la préférence
4.1.4 Commentaires des experts
4.2 Sondage sur l’impression des étudiants
4.3 Évaluation des logiciels de soutien à la démarche
4.4 Comparaison des méthodologies par des études de cas
4.4.1 Étude de cas 1 : design d’expérience
4.4.1.1 Résolution classique du problème avec Statistica 8.0
4.4.1.2 Résolution selon le coffre à outils simplifié
4.4.2 Étude de cas 2 : contrôle de procédé
4.4.2.1 Résolution classique du problème avec Statistica 8.0
4.4.2.2 Résolution selon le coffre à outils simplifié
4.4.3 Étude de cas 3 : régression multiple
4.4.3.1 Résolution classique du problème avec Statistica 8.0
4.4.3.2 Résolution selon le coffre à outils simplifié
4.4.4 Étude de cas 4 : ANAVAR
4.4.4.1 Résolution classique du problème avec Statistica 8.0
4.4.4.2 Résolution selon le coffre à outils simplifié
4.5 Discussions sur les résultats et perspectives
CONCLUSION