Systèmes de surveillance dans un processus de supervision
La surveillance est la base d’une excellente sûreté de fonctionnement des processus technologiques. Elle constitue une interface entre l’opérateur et l’installation physique, son rôle est de fournir les informations sur l’état de fonctionnement (correct ou erroné) des dispositifs surveillés ainsi que valider les informations issues des capteurs et localiser les composants défaillants.
La surveillance se réalise à l’aide des algorithmes conçus pour traiter les données brutes (issues des automatismes et des opérateurs) et les données mesurées (issues des capteurs) dans l’objectif de produire des données dont l’efficacité a été prouvée par le système. Il s’agit des données valides.
Les algorithmes de diagnostic permettent aussi, en fonction de la nature des défaillances localisées et de leur importance, la reconfiguration des systèmes. Ils sont tous basés sur le principe de la redondance des sources d’information.
On distingue deux types de redondance:
Redondance matérielle (physique): Il s’agit d’une procédure de surveillance des appareils de mesure . Le principe consiste à mesurer une même grandeur caractéristique du processus à l’aide de plusieurs capteurs identiques. Pour la détection de pannes simples, il est nécessaire de doubler les capteurs. Par contre, la localisation des défaillances se fait grâce à un vote majoritaire entre au moins trois capteurs. Cette façon de procéder à été largement utilisée dans l’industrie, grâce à sa fiabilité et à sa simplicité de mise en œuvre. Cependant elle se révèle très coûteuse et alourdit considérablement les installations déjà très complexes. De plus pour des raisons architecturales et matérielles, la redondance des capteurs n’est pas toujours possible à réaliser. Mais l’inconvénient majeur de ce type de méthode réside dans son champ d’application limité aux seules défaillances capteurs.
Redondance analytique: La redondance analytique est un complément de la redondance physique. Elle consiste à exploiter les contraintes liant les différentes variables du système afin d’obtenir des relations ne contenant que les variables connues (mesurées). Ces relations sont appelées ”Relations de Redondance Analytique (RRA)”.
Principe de détection et d’isolation des défaillances (FDI)
En général, le diagnostic se réalise selon les étapes suivantes :
Première étape (Acquisition de données): Cette étape à pour objectif de rassembler toutes les données sur le processus physique à diagnostiquer, que cela soit des données réelles issues des capteurs, ou bien des paramètres réels de chacun de ces composants. Cette étape fournit les informations sur le comportement réel du procédé.
Deuxième étape (Détection): Dans cette étape, on s’intéresse à la détection en surveillant le fonctionnement réel du processus, en testant la cohérence entre les données issues du modèle et celles délivrées par les capteurs (observations). Si ces dernières ne vérifient pas le comportement de référence donné par son modèle, on en déduit que le fonctionnement réel du système n’est pas son fonctionnement normal. Une relation de redondance exprime le fait que le résultat d’une fonction de variables connues (son résidu) doit être nul. Cette relation est vérifiée si le comportement du système suit exactement le modèle : le résidu est alors strictement nul. En pratique, le résidu est en général différent de zéro. Deux hypothèses se présentent alors :
– H0 : Le résidu est différent de zéro à cause des bruits de mesures (modèle imparfait des relations de connaissances) ou des erreurs de modélisation, sachant que le fonctionnement du système est normal.
– H1 : Le résidu est différent de zéro à cause d’une défaillance de l’un de ces composants. Le rôle des méthodes de décision est de détecter la défaillance (préciser dans quelle hypothèse se situe le système étudié (H0 ou H1)). Dans la littérature, il existe plusieurs méthodes statistiques de décision, dont le but est de déclencher une alarme dans le système une fois la panne présente et ceci dans un minimum de temps et avec un minimum de fausses alarmes. Une présentation sommaire des méthodes statistiques de décision sera donnée plus loin.
Troisième étape (Identification): Cette étape se déclenche une fois qu’une alarme est envoyée par l’étape précédente. Ici, on cherche à identifier les causes précises de cette anomalie grâce à des signatures répertoriées par les experts, et validées après expertise et réparation des dysfonctionnements. Les informations ainsi obtenues sont fournies au service de maintenance.
Méthodes de surveillance
En fonction du type de connaissance utilisée pour vérifier la cohérence entre les observations réelles et de référence, on distingue deux types de méthodes: les méthodes avec modèle et les méthodes sans modèles que nous appellerons dans le présent document méthode à base de signal. Cette appellation est utilisée ici afin de distinguer les méthodes à base de modèle, où le modèle est fourni sous forme d’équation algébrique ou différentielle. L’approche à base de signal consiste à surveiller le système sans connaître son modèle analytique déduit par des lois physiques ou par identification. Elle repose sur des descripteurs qui caractérisent le fonctionnement du système observé dans différents modes de fonctionnement (normal, existence de pannes (pannes capteurs, pannes composants …)). Son algorithme de surveillance consiste à reconnaître en temps réel l’appartenance de ces descripteurs aux formes acquises dans une procédure d’apprentissage . La méthode de diagnostic par reconnaissance des formes est parmi les méthodes la plus utilisée. Elle est utilisée dans le cas des systèmes complexes, pour lesquels un modèle est difficile à obtenir. Les uniques informations disponibles sont issues des différents signaux. Le but de la reconnaissance des formes a priori est la classification automatique des formes dans des modes. Les principales limites de cette approche se situent au niveau de l’étape d’apprentissage des différents modes de fonctionnement nécessaire pour un diagnostic précis. Cette difficulté est plus importante dans le cas des processus rencontrés en génie des procédés en raison de leur caractère non stationnaire. Le modèle peut aussi être fourni par un expert sous forme de règles de type if, else, then; …etc.
Même si des tentatives de générer ces règles sous forme automatique, l’obtention de ce type de modèle est assujetti à des problèmes de subjectivisme et de combinatoire. D’autres part le caractère non linéaire et complexe (dû au couplage de différentes énergies) des procédés énergétiques, compliquent l’utilisation en temps réel de ces méthodes.
Méthodes à base du signal
Les méthodes à base de signal, comme leur nom l’indique, ne disposent pas de modèle décrivant le comportement normal et le(s) comportement(s) défaillant(s) du système. Dans la littérature, on trouve les méthodes à base d’Intelligence Artificielle. Près de 70 % de toutes les installations d’IA au sein de l’industrie lourde se composent de systèmes experts; les autres sont formés de réseaux neuronaux, reconnaissance des formes (RDF) et de systèmes à logique floue.
Les systèmes experts servent à recueillir les connaissances et à émuler les techniques de résolution de problèmes provenant des meilleurs opérateurs humains et ce, dans des domaines circonscrits et bien définis. Les réseaux neuronaux sont des réseaux de traitement de l’information qui règlent leur réponse sur la valeur de la donnée d’entrée. La plupart des applications font appel à la modélisation de prévision, à la classification et à la reconnaissance d’éléments récurrents. Les systèmes à logique floue sont des outils perfectionnés de résolution de problèmes qui font appel à l’heuristique (art de bien deviner) et qui peuvent traiter des données d’entrée ambiguës.
Réseaux de neurones
Les réseaux de neurones sont un outil d’analyse statistique permettant de construire un modèle de comportement à partir d’un certain nombre d’exemples (constitués d’un certain nombre de variables descriptives) de ce comportement. Par exemple, en faisant apprendre à un réseau de neurones des descriptions d’emprunteurs d’argent (situation de famille, profession, etc.), avec leur comportement passé vis-à-vis du remboursement, on peut construire un modèle du risque associé aux descriptions des clients.
Si maintenant on demande des prédictions à ce modèle sur des nouveaux dossiers, on constate que le réseau de neurones prédit correctement si l’emprunteur sera bon, ou bien mauvais payeur dans 80 à 95% des cas. Il s’agit ici de ce que l’on appelle segmentation ou classification.
Le réseau de neurones, ”ignorant” au départ, réalise un ”apprentissage” à partir de ces exemples et devient, par modifications successives, un modèle rendant compte du comportement observé en fonction des variables descriptives.
La construction du modèle est automatique et directe à partir des données, elle ne nécessite pas d’intermédiaire rare ou coûteux comme un expert.
Il est possible, par exemple, d’apprendre à associer des relevés de mesures sur une machine-outil à ses pannes : le prédicteur obtenu réalise une maintenance préventive en indiquant la possibilité de panne dès que les mesures prennent des valeurs qu’il estime suspectes (ou un diagnostic à partir des derniers relevés si on est arrivé trop tard). Ceci s’est beaucoup fait, par exemple pour le diagnostic vibratoire des machines tournantes . L’utilisation des réseaux de neurones s’est largement répondu ces dernières années par l’obtention de modèles dans le domaine chimique. Toutefois, leur limite reste liée à l’étape de l’apprentissage sur les procédés.
Reconnaissance des formes (RdF)
La méthode à base de reconnaissances des formes (RdF) est la plus utilisée dans le domaine de la supervision à base de signal. Elle est utilisée surtout quand les observations sont de type numérique (issues des capteurs), mais les modèles mathématiques correspondants à chaque mode de fonctionnement du système ne sont pas construits à cause de la complexité physique du système.
Le diagnostic par RdF, se présente comme une solution alternative à l’approche par modèle puisque les modes de fonctionnement sont modélisés, pas de manière analytique, mais en utilisant uniquement un ensemble des mesures de ces modes, générant ainsi des domaines de fonctionnement .
La RdF est la science qui se base sur la définition d’algorithmes permettant de classer des objets ou des formes en le comparant à des formes types . Ses applications interviennent dans des domaines tels que la connaissance vocale, la reconnaissance de caractères, l’automatisation industrielle, le diagnostic médical et la classification des documents. Deux types de RdF sont à distingués :
la RdF structurelle qui se base sur une représentation des formes à l’aide de grammaires, la RdF statistique qui s’appuie sur une représentation purement numérique des formes.
Dans le domaine industriel, la RdF statistique est la plus utilisée, dont on définit la forme par un ensemble de n paramètres, appelés aussi caractères. L’espace est constitué à l’aide d’une base dont chaque élément est associé à un caractère, cet espace est appelé espace de représentation. Une forme est représentée par un point dans l’espace de dimension n. A cause du bruit, à chaque forme type, on associe une zone géométrique et par conséquent une classe Wi , tel que xi représente la valeur du ième caractère ou composant de vecteur forme x. Le problème de la reconnaissance des formes est de trouver les frontières qui séparent les classes.
|
Table des matières
1 Introduction générale
2 Diagnostic dans les systèmes de supervision
2.1 Introduction
2.2 Systèmes de surveillance dans un processus de supervision
2.3 Pré requis
2.4 Principe de détection et d’isolation des défaillances (FDI)
2.5 Méthodes de surveillance
2.5.1 Méthodes à base de modèle
2.5.1.1 Estimation des paramètres
2.5.1.2 Estimation d’état (observateur)
2.5.1.3 Redondance analytique
2.5.1.4 Approche structurelle
2.5.1.5 Méthode G.D.E
2.5.1.6 Conclusion
2.5.2 Méthodes à base du signal
2.5.2.1 Réseaux de neurones
2.5.2.2 Reconnaissance des formes (RdF)
2.5.2.3 Conclusion
2.6 Procédures de décisions
2.6.1 Problématique de la décision dans un système de diagnostic
2.6.2 Procédures statistiques de décision
2.6.2.1 Diagnostic hors ligne
2.6.2.2 Diagnostic en ligne
2.7 Problématique de la localisation de défaillances
2.8 Conclusions
3 Méthodes ensemblistes. Analyses par intervalles
3.1 Introduction
3.2 Principe des méthodes ensemblistes pour le diagnostic
3.2.1 Comparaison entre les approches ensemblistes et les approches probabilistes
3.3 Méthodes d’analyse par intervalles
3.3.1 Idée du calcul par intervalles
3.3.2 Estimation d’état
3.3.3 Application des enveloppes à la détection de défauts
3.3.4 Enveloppes à erreur bornée
3.3.5 Fenêtres temporelles glissantes
3.3.6 Pourquoi l’approche à base des suites de bandes temporelles
3.3.7 Système linéaire
3.3.8 Système non linéaire
3.3.9 Conclusion
3.4 Méthode à base de suites de bandes temporelles
3.4.1 Mise en œuvre
3.4.2 Rappel des opérations primitives entre les SBTs
3.4.2.1 Primitive somme
3.4.2.2 Primitive multiplication
3.4.2.3 Primitive intégration
3.4.2.4 Composition de suites de bandes temporelles
3.4.2.5 Décalage de bandes temporelles
3.4.2.6 Préconditions
3.4.3 Instant de détection de l’apparition et de la disparition des pannes
3.4.4 Algorithme d’application de la méthode SBT
3.4.5 Limites et avantages de la méthode SBTs
3.5 Exemple de la mise en œuvre sur des systèmes présents en génie de procédés
3.6 Conclusion
4 Application à une installation pilote de génération de vapeur
4.1 Contexte et cadre de l’application
4.2 Description physique du processus
4.2.1 Caractéristiques techniques des instruments de mesures utilisés
4.3 Système de monitoring existant
4.4 Scénarios de simulations de fautes sur le processus
4.5 Calcul des relations de redondance analytique
4.6 Table de signatures théorique des pannes
4.7 Application
4.7.1 Description des pannes
4.7.2 Calcul des paramètres essentiels à l’application de la méthode des SBTs
4.7.3 Calcul des paramètres essentiels à l’application de l’algorithme de Cusum
4.7.4 Résultats de la méthode à base des SBTs
4.7.5 Résultats de la méthode de Cusum
4.8 Analyse
4.9 Synthèse
4.10 Conclusion
5 Conclusion générale
Bibliographie
Télécharger le rapport complet