Les enjeux économiques en constante évolution amènent à produire toujours plus. La moindre défaillance sur un processus est néfaste dans un environnement où le rendement est primordial. Il est donc nécessaire de s’assurer en permanence du bon fonctionnement du processus vis-à-vis des objectifs qui lui ont été assignés. Les informations délivrées par les mesures des capteurs permettent de traduire le comportement d’un système donné. La qualité des ces mesures est un élément essentiel pour permettre la surveillance et l’évaluation des performances d’un processus. Elle peut être accrue en améliorant la précision de l’instrumentation et en multipliant le nombre de capteurs. Pour des raisons techniques ou financières, cette solution, où une même grandeur est mesurée par plusieurs capteurs est réservée aux industries de haute technologie ou à celle présentant de hauts risques.
Le diagnostic peut être vu comme une tentative pour expliquer un comportement anormal du système en analysant ses caractéristiques pertinentes. C’est un raisonnement menant à l’identification de la cause d’une anomalie à partir des informations révélées par des observations (mesure, signe, symptôme). Effectuer le diagnostic de fonctionnement sur un système consiste donc à détecter et localiser les défauts internes (affectant le processus lui même), les défauts externes (affectant les actionneurs, et les capteurs), puis à estimer les caractéristiques principales des défauts mis en évidence (leurs amplitudes). Il s’agit de mettre en place des fonctions permettant de détecter et de localiser les composants défaillants incapables de remplir totalement les missions pour lesquelles ils ont été choisis. En effet, ils contribuent, par une détection rapide et précoce, à faire gagner des points de disponibilité et de production aux capitaux investis dans l’outil de production. Afin d’atteindre ces objectifs, il est nécessaire de pouvoir modéliser le comportement du système selon sa nature (continu, ou discret) et le niveau d’abstraction souhaité. Il existe plusieurs approches pour aborder et traiter cette question. Deux grandes familles se distinguent, celles qui se basent sur les modèles des processus et les autres qui s’appuient sur l’analyse des données.
Les procédés industriels modernes sont toujours équipés de systèmes de contrôle. Ils permettent la régulation du processus autour de l’objectif désiré et d’assurer son bon fonctionnement. Les données collectées sur leur fonctionnement sont stockées dans une base de données. Leur traitement permet d’élaborer des méthodes de modélisation, et d’observation du comportement du système. L’analyse en composantes principales (ACP) s’avère être l’outil le plus utilisé pour extraire les caractéristiques de ces données. L’ACP permet de générer un modèle du processus basé sur la connaissance issue du système sans avoir une forme canonique et explicite d’un modèle entrées/sorties. Elle consiste à étudier les relations linéaires entre les variables à surveiller. Comme c’est une opération de projection linéaire, seules les dépendances linéaires entre les variables peuvent être représentées. Les systèmes réels sont non linéaires. Leur prise en charge par l’ACP classique n’est pas du tout adaptée. C’est pourquoi, beaucoup d’études sur son extension ont vu le jour. Parmi elles, l’ACP couplée aux méthodes à noyaux. Ces dernières exploitent la théorie des noyaux. L’idée principale consiste à transformer les données via une application non linéaire, dans un espace de dimension élevée, où l’ACP classique est appliquée. Dans ce mémoire, l’ACP à noyaux est utilisée pour la modélisation et le diagnostic de fonctionnement des processus non-linéaires.
Un autre facteur important caractérise les processus industriels. Il s’agit de leur dynamique. En effet, leur comportements et leurs caratéristiques statistiques changent dans le temps. La surveillance de ces processus à partir d’un modèle statique, construit sur l’historique de données, pauvre en information, ne serait pas fiable. Afin de remédier à ce problème, il apparait alors nécessaire de rechercher une version adaptative du modèle ACP et du modèle ACP à noyau, qui tienne compte de cette dynamique. La surveillance et le diagnostic de défauts des systèmes dynamiques font partie du travail élaboré dans cette thèse.
Introduction au diagnostic
La complexité des systèmes industriels s’accroît continuellement. Elle est en rapport avec la technologie employée, aux processus de management et de gestion de la production, utilisé, et surtout avec la quantité énorme d’informations exploitées. L’objectif reste bien sûr la recherche du meilleur fonctionnement possible, le plus performant et répondant aux exigences techniques de la production mais aussi aux impératifs de sûreté et de sécurité pour les équipements et les personnes. Cet aspect, devenu un élément fondamental dans la conduite des systèmes de production, est rajouté de plus en plus dans le schéma global de l’automatisation des processus. On parle aujourd’hui d’automatisation intégrée. Ce rajout se décline en deux couches, l’une concerne la surveillance des systèmes (Détection et localisation de défauts) et la seconde de niveau supérieur, traite de la supervision (Décision). Cette intégration n’est pas encore généralisée. L’intervention des opérateurs dans les salles de contrôle continue et continuera certainement même avec des systèmes de surveillance beaucoup plus élaborés. Mais l’avantage de l’intégration de ces systèmes de supervision est leur capacité d’analyse d’un nombre important d’informations et l’aide qu’il procure à l’opérateur pour la prise de décision.
Modélisation à base de l’analyse en composantes principales (ACP)
L’Analyse en Composantes Principales (ACP) est également connue sous le nom de la décomposition de Karhunen-Loève (KL) ou la décomposition orthogonale. Elle joue un rôle fondamental dans l’analyse statistique. Elle a été introduite par Karl Pearson en 1901 pour décrire et résumer l’information contenue dans un ensemble de données. Par la suite, dans les années 1930, elle a été de nouveau développée par Harold Hotelling comme une méthode d’analyse des relations existantes entre les variables. L’idée de base consiste à remplacer l’ensemble des variables inter corrélées par un nombre réduit de variables de synthèse qui retiennent l’essentiel de l’information. Cette nouvelle représentation réduite, facilite l’interprétation du contenu de ces variables. En fait, d’un point de vue géométrique, l’ACP peut être vue comme une méthode de rotation des données afin de permettre à l’observateur de mieux comprendre les relations entre les données.
L’ACP est une transformation algébrique, qui permet de mettre en évidence des composantes, en tenant compte de la variance totale de toutes les variables à étudier. Cette transformation effectue un changement de base qui permet de projeter des variables liées entre elles (inter-corrélées) dans un nouvel espace orthonormé où un autre nombre réduit, de variables décorrélées, est obtenu. Ces nouvelles variables, appelées composantes principales, expliquent au mieux la variabilité des données originales. En plus de sa principale utilisation comme un outil de réduction de dimension, l’analyse en composantes principales est reconnue comme un outil statistique performant et très puissant dans de divers domaines d’application, tel que, la reconnaissance des formes (pattern recognition), la visualisation, la détection des valeurs aberrantes, la classification, et notamment la surveillance et le diagnostic des processus industriels.
Depuis un certain nombre d’années, de nombreux travaux ont proposé d’utiliser l’ACP comme un outil de modélisation de processus à partir duquel, un modèle ACP peut être obtenu (Kresta et al., 1991, MacGregor et Kourti 1995, Jolliffe 2002). Bien que généralement classée parmi les méthodes sans modèle, comme cela a été exposé dans le chapitre précédent, l’ACP élabore implicitement un modèle à partir de données expérimentales prélevées sur le système lorsque il est considéré en bon fonctionnement. En effet, les directions ou les composantes principales, fournissent les coefficients et la structure du modèle ACP. Ainsi, ce dernier permet d’estimer les variables ou les paramètres du processus à surveiller. L’objectif principal de cette méthode est de décomposer les données prélevées sur le fonctionnement d’un processus en deux parties : la première, décrivant la dynamique du processus, en tenant compte d’une perte d’information minimale, la seconde représentant les bruits. Mathématiquement, l’ACP est une transformation algébrique. Elle transforme une matrice de données en un nouvel ensemble de variables indépendantes appelées composantes principales, en effectuant une transformation linéaire. Les vecteurs de transformation peuvent être obtenus par décomposition en valeurs et en vecteurs propres de la matrice de covariance, ou la matrice de corrélation de données. Une étape cruciale dans la méthode ACP, concerne la sélection du nombre de composantes principales qui doivent conserver l’information des données originales. Il existe dans la littérature, différentes méthodes pour déterminer ce nombre de composantes principales, qui permet de définir la dimension optimale du modèle ACP (Jackson, 1991, Valle et al., 1999, Jolliffe, 2002, Dunia et al. 1998).
Le modèle ACP est exploité dans la détection des disfonctionnements, en comparant le comportement observé sur le processus et celui estimé par le modèle. L’ACP est largement utilisée à la fois pour la détection de défauts de capteurs (Dunia et al., 1996, Lee et al., 2004), comme pour la détection de changements de modes de fonctionnement (Kano et al., 2001), ainsi que pour la surveillance et le diagnostic des processus continus (McAuley and MacGregor, 1991). Une limitation importante liée à la méthode ACP dans sa version classique, est l’invariance du modèle (statique), alors que la nature de la plupart des processus industriels est dynamique. Leurs comportements et/ou leurs caractéristiques statistiques changent dans le temps (time-varying behavior), et ne sont pas préalablement connus ou entièrement compris, en raison des incertitudes sur le système, et des changements dans les conditions de fonctionnement (exemple, dans le vol d’un avion, la masse diminuera lentement en relation avec la consommation de carburant, d’où la nécessité d’une loi de commande qui s’adapte avec ces conditions changeantes ), . . . etc. Par conséquent, le suivi et la surveillance en temps réel de ce type de processus avec un modèle ACP statique, construit à partir d’un historique de données prélevées sur seulement une partie de la plage globale du fonctionnement normal du processus, ne seront pas fiables. Ils engendreraient des interprétations erronées de l’état actuel du système, et augmenteraient le taux de fausses alarmes, ou de non détection de défauts. Ce problème peut être résolu à travers une mise à jour continue de tous les paramètres qui définissent la dynamique du système. Il apparait ainsi nécessaire de rechercher pour les cas qui nous intéressent, une version adaptative du modèle ACP, qui tienne compte de cette dynamique. Cette dernière se traduit généralement pour les variables du processus, par : un changement de la moyenne, de la variance, et de la structure de corrélation entre les variables, qui peut induire un changement du nombre de composantes principales. L’utilisation d’un algorithme récursif pour la mise à jour du modèle ACP statique est une alternative dans les approches dynamiques de modélisation. Plusieurs travaux lui sont consacrés dans la littérature et qui permettent l’utilisation de l’analyse en composantes principales récursive pour la surveillance et le diagnostic des processus dynamiques (Li et al. 2000, Wang et al. 2005, Choi et al. 2006, Kruger et al. 2009).
Principe de l’analyse en composantes principales
L’Analyse en Composantes Principales a comme objectif général d’étudier les structures de liaisons linéaires entre les variables qui définissent le système étudié. Dans le cas où ces variables sont fortement corrélées, cela signifie que les informations contenues dans ces dernières sont fortement redondantes. De ce fait, l’ACP consiste à déterminer un nombre réduit de nouvelles variables indépendantes, appelées composantes principales (PCs), et représentant la variation la plus pertinente des données initiales. Ces nouvelles variables réduites, fournissent les coefficients et la structure du modèle ACP. En effet, l’identification de ce modèle débute par la construction d’une matrice contenant un ensemble de données d’entrées/sorties, recueillies sur le système en fonctionnement normal (données saines).
La représentation réduite des données est d’un intérêt indispensable de la méthode ACP. Son objectif est de choisir un sous-espace de dimension réduite qui fournisse le maximum d’information sur les données initiales. Tandis que les vecteurs propres donnent les directions de variance maximale, que nous appelons les axes factoriels du sous-espace choisi. Sur ces directions se projettent les données, obtenant ce que nous appelons les composantes principales tj , sachant que leur variance est égale à leur valeur propre. La direction de l’espace matérialisée par le vecteur propre p1 associée à la plus grande valeur propre λ1 est la plus riche en information. Dans le cas contraire, la direction du vecteur propre pm associée à la plus petite valeur propre λm est celle qui capture le minimum d’information.
L’analyse en composantes principales consiste donc à passer des m variables d’origine à m nouvelles variables combinaisons linéaires de celles d’origine, chacune avec une importance mesurée par sa variance, égale à sa valeur propre. En effet, la réduction de la dimension est réalisée à travers les (l) premières composantes principales ayant les plus grandes variances. Par conséquent, le sous-espace vectoriel réduit ℜ l (avec l ≤ m) portant la variance maximale, est engendré par les (l) premiers vecteurs propres associés aux l plus grandes valeurs propres de la matrice de variance-covariance Σ.
Dans le cas où les valeurs propres de la matrice Σ sont égales à zéro, cela signifie que les relations entre les différentes composantes xi sont fortement linéairement corrélées. Et comme en pratique, la présence de bruit de mesure dans les données est inévitable, des valeurs propres égales à zéro sont rarement rencontrées. Ainsi, des petites valeurs propres de la matrice Σ qui définissent le sous-espace résiduel P˜, indiquent l’existence de relations quasi-linéaires entre les variables. Li et Qin (2001) ont montré que l’ACP fournit un modèle sans biais, uniquement dans le cas très particulier où les variables sont entachées d’erreurs de mesure de même variance. Donc, il est nécessaire de déterminer le nombre de composantes principales (l), représentant le nombre de vecteurs propres correspondant aux valeurs propres dominantes, définissant le sousespace principale Pˆ. Ici, on entrevoit le rôle important de ce paramètre dans la détermination des relations de redondances entre les variables, ainsi que dans le choix de la dimension optimale du modèle ACP. Les principales méthodes d’identification du nombre de composantes principales vont être présentées dans la partie suivante.
Identification du modèle ACP
L’objectif majeur de la méthode ACP est de produire une représentation réduite et optimale de l’information. L’idée étant de remplacer m variable de la matrice de données X par un autre nombre réduit l de nouvelles variables appelées composantes principales (PCs). En fait, le nombre de composantes principales dépend de la corrélation existante entre les variables. La détermination du nombre de composantes principales l à conserver est donc une étape primordiale dans la méthode ACP. Elle permet de définir la dimension réduite du nouvel sous-espace obtenu qui porte de l’information. Un choix optimal de ce nombre, permet au modèle de capturer et de retenir le maximum possible de variation de données en laissant les changements non corrélés de ces dernières et les bruits dans la partie résiduelle.
Plusieurs méthodes ont été proposées permettant le choix du nombre de composantes principales à retenir dans le sous-espace réduit. La plupart de ces méthodes sont heuristiques et donnent un nombre de composantes subjectif qui privilégient l’approximation de données x(k). La difficulté inhérente à l’utilisation de ces méthodes, est l’absence d’un minimum du critère utilisé afin de déterminer le nombre de composantes principales. Ceci rend la solution non unique et ambigüe. Dans ce cadre on peut citer par exemple la méthode du pourcentage cumulé de la variance totale (CPV) (Malinowski, 1991), ainsi que la méthode de validation croisée (PRESS) (Wold, 1978).
Dans le cas d’application de la méthode ACP au diagnostic, on ne cherche pas seulement à déterminer une meilleure approximation des données, mais on cherche aussi un modèle qui assure la détection et la localisation de défauts. Cependant le nombre de composantes principales a un impact significatif direct sur la richesse du modèle ACP, et indirect sur les procédures de détection et localisation de défauts. En effet, dans le cas où peu de composantes sont retenues dans le sous-espace principal, certaines d’entre elles qui portent de l’information seront projetées dans le sous-espace résiduel. Le modèle ACP sera, alors pauvre en information. Il ne sera pas précis, et la variance des données ne sera pas maximale. Ce qui produit ainsi des erreurs de modélisation entachant les résidus et provoquant des fausses alarmes. Dans le cas contraire, si on utilise beaucoup de composantes, on risque de conserver celles correspondantes aux valeurs propres plus faibles, porteuses de bruit. Et donc, plus de composantes retenues dans le sousespace principal, réduit la dimension de l’espace résiduel, et ce qui peut évidemment causer la non détection de certains défauts. Dans ce contexte, et d’après la littérature, on distingue deux approches. Dans la première approche, développée par Tamura et Tsujita (2007), pour chaque défaut, on cherche le nombre de composantes principales afin d’obtenir le modèle ACP le plus sensible à ce défaut. Cependant cette méthode nécessite une connaissance à priori sur les défauts. Dans la seconde approche, Qin et Dunia (1998) ont proposé une technique basée sur la minimisation de la variance de l’erreur de reconstruction (VER). Ce critère permet de prendre en compte la notion de redondance entre les variables. L’erreur de reconstruction correspond à la différence entre une variable et son estimation obtenue en utilisant l’ensemble des autres variables et du modèle ACP. Ce critère permet de déterminer à la fois le nombre de composantes principales l et les variables possédant une projection significative dans l’espace résiduel. Plusieurs études comparatives ont été menées entre ces différentes méthodes et ont conclut que le critère (VER) est le plus pertinent (Valle, Li, and Qin 1999).
|
Table des matières
1 Introduction
1.1 Introduction
1.1.1 Objectif de la supervision
1.1.2 Terminologie
1.2 Surveillance et diagnostic
1.3 Typologie de défauts
1.3.1 Défauts capteurs
1.3.2 Défauts actionneurs
1.3.3 Défauts composants (Défauts système)
1.3.4 Caractérisation de défauts
1.4 Différentes méthodes de diagnostic
1.4.1 Les approches analytiques
1.4.2 Les approches à base de connaissances
1.4.3 Les approches à base de traitement de données (Data-Driven Approaches)
1.5 Les performances d’un système de diagnostic
1.6 Conclusion
2 Modélisation à base de l’analyse en composantes principales (ACP)
2.1 Introduction
2.2 Principe de l’analyse en composantes principales
2.3 Identification du modèle ACP
2.3.1 Pourcentage cumulé de la variance totale (PCV)
2.3.2 Critère de validation croisée
2.3.3 Minimisation de la variance d’erreur de reconstruction (VER)
2.4 Analyse en Composantes Principales Adaptative (APCA)
2.4.1 Les concepts de l’adaptation
2.4.2 L’ACP à base de fenêtre glissante (Moving Window PCA, MWPCA)
2.4.3 L’ACP Récursive (RPCA)
2.4.4 L’ACP à base de fenêtre glissante rapide (Fast Moving Window PCA)
2.4.5 L’ACP Incrémentale (IPCA)
2.5 Conclusion
3 Analyse en composantes principales non linéaire à noyau (Kernel PCA)
3.1 Introduction
3.2 Principe de l’ACP non linéaire
3.3 ACP non linéaire à noyau (kernel PCA)
3.3.1 Principe de la méthode ACP à noyau
3.3.2 L’astuce du noyau (kernel trick)
3.3.3 Les fonctions noyaux
3.3.4 Modèle ACP à noyau (KPCA)
3.3.5 Centrage des données dans l’espace à noyau
3.4 Reconstruction de données (Problème de Pré-image)
3.5 ACP à noyau adaptative (Adaptive KPCA, AKPCA)
3.5.1 ACP à noyau à base de fenêtre glissante (MWKPCA)
3.5.2 ACP à noyau récursive (RKPCA)
3.5.3 ACP à noyau neuronale (NKPCA)
3.6 Conclusion
4 Détection et localisation de défauts
4.1 Introduction
4.2 Détection de défauts
4.2.1 L’erreur de Prédiction Quadratique, SPE
4.2.2 Statistique T
2 de Hotelling
4.2.3 Indice combiné
4.3 Détection de défauts dans l’espace à noyau
4.3.1 Indice SPE dans H
4.3.2 Indice T
2 dans H
4.3.3 Indice combiné dans H
4.4 Procédure de surveillance des systèmes dynamiques
4.5 Localisation de défauts
4.5.1 Localisation par calcul des contributions
4.5.2 Localisation par contributions à base de reconstruction (RBC)
4.5.3 Localisation par ACP partielle
4.6 Localisation dans le cas du noyau par RBC-KPCA
4.6.1 Algorithme itératif du point fixe
4.6.2 Méthode d’optimisation de Newton
4.7 Conclusion
5 Application
5.1 Exemple illustratif
5.2 Application au processus de Tennessee Eastman (TE)
5.2.1 Description du TE
5.2.2 Résultats de simulation
6 Conclusion