Télécharger le fichier pdf d’un mémoire de fin d’études
La méthode d’estimation paramétrique
Basée sur le suivi des paramètres du système, cette méthode est bien adaptée aux défauts multiplicatifs (des défauts ayant une incidence sur les paramètres du système), lorsque la structure du modèle est bien connue et lorsque les paramètres ont un sens physique. Dans le cas contraire, le lien entre la modification des paramètres du modèle et les composants devient difficile et la localisation compliquée. Comme tout problème d’estimation de paramètres, si le procédé est mal excitée, l’estimation ne converge pas ou converge mal amenant à des résultats qui ne sont pas interprétables. Ces méthodes trouvent plutôt leur application à des procédés à faible nombre de variables pour lesquels des modèles relativement précis peuvent être définis.
Pour les installations plus complexes, comportant un très grand nombre de variables et qui, de plus, doivent opérer avec différents modes de fonctionnement, l’utilisation des algorithmes d’estimation est très difficile [Montmain, 97].
La méthode à base d’observateurs (ou banc d’observateurs)
Elle est basée sur l’estimation des variables inconnues. La méthode développe un ensemble d’observateurs, chacun sensible à un ensemble de défauts et insensible aux autres. Un banc d’observateurs est alors conçu de façon à décrire une forme sur les résidus (residual pattern). Ces résidus issus des observateurs qui caractérisent chaque défaut (signature de défaut) permettent ainsi la localisation. Selon [Venkatasubramanian et al. 03a] cette méthode n’est pas adaptée aux procédés complexes (p.ex. procédés chimiques) en raison des difficultés de modélisation.
Les filtres de Kalman
Il s’agit d’un algorithme récursif d’estimation d’état qui trouve de nombreuses applications dans l’industrie chimique et l’industrie des procédés [Venkatasubramanian et al. 03a] comme nous l’avons évoquée précédement dans le cadre du suivi et de la détection au sein des modes opératoires MOt [Bhagwat et al., 03a], [Bhagwat et al., 03b]. Un filtre de Kalman représenté par un modèle d’espace d’état est équivalent à un estimateur optimal pour un système stochastique linéaire représenté par un modèle d’entrée-sortie.
La méthode d’espace de parité
L’essence de la méthode est la vérification de la parité (cohérence) des modèles du procédé avec les mesures issues de capteurs et des entrées connues (consignes, signal de commande, etc…). Cette méthode est très générale puisqu’elle impose peu de conditions sur le modèle. En particulier, il peut être non linéaire. Sous conditions idéales (absence de bruit de mesures, modèles précis, pas de défauts) de comportement normal en régime permanent le résidu ou la valeur des équations de parité valent zéro. L’idée de cette approche est le réarrangement de la structure du modèle de façon à permettre l’isolation du défaut. La figure 2.11 illustre le schéma de base où p(t) et q(t) sont des défauts additifs sur les entrées et les mesures. Pour les défauts issus de grosses dérives sur les paramètres du procédé cette méthode n’est pas appropriée.
Les méthodes qualitatives basées sur un raisonnement causal
Considérations générales
Les systèmes de surveillance et de diagnostic basés sur des modèles quantitatifs, et d’une certaine manière les approches de classification, ont une capacité explicative quasiment inexistante, ce qui ne répond pas à l’objectif d’assistance à l’opérateur en cas de fonctionnement anormal du procédé. Ils sont conçus surtout pour la phase de détection. La communauté de l’IA propose un raisonnement qualitatif basé sur une modélisation causale qui offre un support explicatif et adductif nécessaire au diagnostic et notamment à la tâche de localisation. En effet, le diagnostic est typiquement un processus causal puisqu’il consiste à établir des hypothèses sur les composants défaillants qui sont l’origine du dysfonctionnement observé.
Le raisonnement qualitatif et les modèles causaux permettent de surmonter les difficultés liées aux procédés complexes évoquées précédemment. Ils s’appuient sur une décomposition du procédé en un nombre de sous-modèles élémentaires. De ce fait, il est possible de focaliser le raisonnement sur des relations spécifiques pour la localisation de défauts.
Une structure causale est une description qualitative de l’effet ou de l’influence qu’ont les entités du système (p.ex. variables, défauts) les unes sur les autres. Elle peut être représentée par un graphe direct (digraphe). Quand les nœuds du graphe représentent les variables du système et les arcs symbolisent les relations normales et déterministes9 entre elles, le graphe causal et souvent appelé graphe d’influence [Gentil et al., 04].
Le diagnostic basé sur un graphe d’influence consiste à rechercher la variable source dont la déviation est suffisante pour expliquer toutes les déviations détectées sur d’autres variables [Travé-Massuyès et al., 97]. L’algorithme de diagnostic est, en général, une procédure de recherche avant/arrière depuis la variable incohérente (détection). La recherche arrière limite l’espace de défaut en enlevant les observations normales en amont sur le chemin causal. Ainsi chaque déviation primaire génère une hypothèse qui conduit à une recherche avant utilisant les états des variables et les fonctions attachées aux arcs. La phase de localisation consiste à chercher quel composant du système ne fonctionne pas correctement en utilisant la connaissance sur la structure du système, ses défaillances potentielles et les observations disponibles. Le résultat du diagnostic peut être un arc pointant soit sur la variable source (panne de composant) soit sur une perturbation non mesurable qui affecte directement cette variable. Un grand avantage des approches causales est que, en général, la connaissance de comportements (modèles) de défaut n’est pas nécessaire pour la localisation.
Deux types principaux de structure causale sont proposés:
i) Le digraphe représente la calculabilité issue de la connaissance des relations mathématiques (équations différentielles ou à différences). Il peut être obtenu à travers un mécanisme d’ordonnancement causal10 [Iwasaki & Simon, 86], [Pons & Través-Massuyès, 97] ou bien par la théorie de graphe bipartie [Blanke et al., 03][Gehin et al., 00].
ii) Le digraphe représente une connaissance fonctionnelle du procédé; les nœuds sont liés aux variables considérées significatives par la surveillance et les arcs sont liées aux phénomènes physiques (p.ex. bilan de matière) [De Kleer, 86].
Ainsi, le premier type lie la causalité aux équations décrivant le système (analyse globale) tandis que le deuxième axe lie la causalité à la structure du système (analyse locale).
Issu d’une connaissance profonde des mécanismes physiques, nous avons également le bondgraph, modèle de base de nombreuses approches de diagnostic comme le graphe causal temporel de [Mostermann & Biswas, 99], [Mostermann, 01]. Le diagnostic (suivi et localisation) de défauts abrupts y est traité. Historiquement l’approche a été plus particulièrement envisagée pour la modélisation de la dynamique de systèmes mécaniques et électroniques.
La construction d’un graphe causal est un processus assez complexe qui demande une connaissance structurelle et fonctionnelle de l’installation. La connaissance experte est également prise en compte pour la définition des besoins de surveillance. [Heim et al., 03] énumère un certain nombre de consignes pour la construction d’un graphe causal dans un contexte de système complexe: i) identification du système physique, ii) division en soussystèmes, iii) définition et affectation d’une configuration à chaque sous-système, iv) identification d’un ensemble de relations physiques, v) connexion des relations aux composants physiques, vi) détermination de causalité, vii) réduction (élimination de variables non mesurables), viii) approximation (élimination de relations négligeables) et ix) quantification (identification des paramètres de la fonction de transfert).
Le contexte de la représentation causale et les besoins du diagnostic conduisent à différents types de relations qui étiquettent les arcs et induisent la démarche de suivi et le mécanisme de propagation d’influence. Le type de graphe causal le plus simple est le graphe orienté signé (SDG11) qui décrit les variables dans un espace qualitatif restreint {-,0,+} liées par des arcs qui modélisent le signe des influences {-,+}. La faiblesse de représentation qui induit des ambiguïtés est résolue à travers l’augmentation de l’espace qualitatif crisp ou flou. Biotech [Bousson et al., 98] est un système conçu pour la surveillance et l’aide à la conduite de procédés chimiques complexes (fermentation) qui s’appuie sur une connaissance experte des relations d’influence entre les variables définies dans un domaine symbolique élargi {pp, p, m, f, ff}, sur un graphe causal. Cependant, ces approches souffrent du manque d’information temporelle, ce qui empêche leur utilisation pour le diagnostic de comportements dynamiques. Toutefois, un diagnostic basé sur le SDG, proposé par [Scenna, 00a] dans le cadre de procédés batch, surmonte cette limitation. Mais cela est fait en détriment d’une complexité combinatoire significative qui résulte de la proposition d’une nouvelle structure de SDG à chaque changement de tendance des variables concernées. Des nombreux travaux sont basés sur des modèles causaux. Dans [Travé-Massuyès et al., 97], les principales approches sont passées en revue et un historique de l’utilisation des représentations causales est présenté. Nous allons nous focaliser sur certaines approches liées à notre problématique de modélisation et de surveillance des systèmes dynamiques hybrides complexes.
L’approche de Gomaa
Dans le cadre de la supervision de systèmes dynamiques hybrides, une modélisation qualitative par graphe causal est proposée dans [Gomaa & Gentil, 96] à travers une représentation basée sur les réseaux de Petri continus causaux hybrides (RdPC2H). Les liens causaux (transitions) entre les variables continues (les places) sont représentés à travers des fonctions de transfert qualitatives (FTQ) [Ferray-Beaumont & Gentil, 89] [Montmain, 92] basées sur les informations de gain (K), retard (r) et constante de temps (tr) (les transitions) (fig. 2.13).
L’évolution des variables d’entrée ainsi que la réponse qualitative (RQ) à une FTQ sont approximées par une fonction affine par morceaux via une procédure de segmentation. Chaque segment est appelé épisode. La vitesse de franchissement d’une transition (évolution du marquage) est une fonction du temps constante par morceaux, dépendant des épisodes détectés, sur l’évolution du marquage de la place amont et des paramètres de la FTQ. Le modèle RdPC2H est alors intégré au superviseur modélisé par un RdP à travers une interface événementielle, formant une structure similaire aux modèles de réseau de Petri Hybrides [Alla & David, 98] et à l’approche de surveillance de [Andreu et al., 98]. Cette approche met en évidence certains aspects liés à notre problématique: la préoccupation d’un suivi qualitatif causal au niveau des variables continues (qui caractérisent les opérations unitaires citées dans le premier chapitre) et l’intégration des aspects continus et discrets dans un modèle homogène basé sur les RdP. La problématique est cependant restreinte à la simulation et la surveillance et le diagnostic ne sont pas évoqués.
L’approche de Ca~En (CAusal ENgine)
Dans le cadre du projet européen ESPRIT TIGER, le simulateur qualitatif Ca~En [Travé- Massuyès & Milne, 97] a été développé. Il s’agit d’un système de diagnostic à base de modèle dédié à des procédés de dynamiques complexes et intégré au système de supervision de turbines à gaz TIGER. Il permet deux niveaux de représentation de la connaissance : un niveau local et un niveau global. Le niveau local présente la description causale effective à travers des relations d’influence décrites par des équations à différence linéaire de premier ordre. A chaque pas de simulation les variables mesurées sont propagées sur le graphe causal à travers ces équations en produisant pour chaque variable une valeur prédite donnée sur un intervalle. Le niveau global concerne un ensemble de contraintes globales entre les variables (pouvant être des relations non linéaires) qui effectue un affinement des intervalles sur la valeur prédite produite au niveau local.
La traduction d’une connaissance analytique vers des relations d’influence est réalisée par un mécanisme d’ordonnancement causal Causalito [Pons & Través-Massuyès, 97]. L’influence de deux variables ou plus sur une variable est traitée par le théorème de superposition. La connaissance imprécise est prise en compte à travers la définition d’intervalles sur les paramètres des relations associées aux influences, ce qui permet la génération d’enveloppes de prédiction mises à jour à chaque période d’échantillonnage. La vérification de cohérence entre l’observation (mesure) et l’intervalle propagé par la variable en amont est la base du mécanisme de détection montrée sur la figure 2.14.
Les approches fondées sur une modélisation orientée composants
Les approches fondées sur la proposition de Sampath
Meera Sampath a proposé dans [Sampath et al., 95] [Sampath et al., 96] une approche de modélisation et d’analyse des systèmes complexes basée sur une représentation discrète du système pour la détection et le diagnostic qui est devenue une référence dans la littérature. La complexité, notamment au sens d’un nombre élevé de composants et des états fonctionnels discrets, et la prise en compte supplémentaire des variables continues à un niveau d’abstraction supérieur (description discrète en états qualitatifs issue d’une abstraction), forment le contexte de modélisation avec une orientation composant. La prise en compte de l’information issue des capteurs est faite à travers une procédure relationnelle globale entre les partitions qualitatives des variables mesurées et les états fonctionnels du modèle global.
Suite à la construction du modèle, un ‘diagnoser’ (ou moteur de diagnostic) qui répond au critère de diagnosticabilité est proposé (une machine à état fini conçue à partir du modèle). Dans son approche, un système est dit diagnosticable s’il est possible de détecter dans un délai fini l’occurrence d’événements de défaut à travers les événements observés. En effet, le critère de diagnosticabilité implique que chaque événement de défaut conduise à des observations suffisamment discriminantes pour permettre l’identification unique du type de défaut dans un délai fini. L’ensemble d’observations doit être suffisamment riche pour cette discrimination.
Pour rendre le système diagnosticable, l’auteur propose deux procédures : une étude pour introduire des capteurs supplémentaires et la synthèse de contrôleurs fondée sur la théorie de Ramadge-Wonham (RW) de façon à restreindre le comportement du système. Cette dernière est traitée à travers la proposition d’un diagnostic intitulé diagnostic actif [Sampath et al., 97].
Le modèle discret représente le comportement normal et de défaut du système G. Les défauts sont modélisés comme des événements non observables et l’objectif est inférer sur les occurrences passées de ces défauts en se basant sur les événements observés Σobs (commandes ou signaux de capteurs). Le ‘diagnoser’ prédit l’état du système suite à l’occurrence de tout événement observable. Les états du ‘diagnoser’ possèdent une information de défaut (étiquettes d’état) et l’occurrence d’un défaut est détectée à travers l’inspection de ces états. La figure 3.1 illustre cette approche de diagnostic. Nous avons alors la définition suivante: Gi=(Xi, Σi, δi, xoi où Gi est le modèle discret du composant i (p.ex. contrôleur, actionneur, capteur), Xi est l’espace d’état, Σi l’ensemble d’événements σ, δi la fonction de transition et xoi l’état initial de Gi. Les modèles individuels Gi sont regroupés dans un modèle de représentation global du système G par une opération de composition synchrone standard basée sur des machines à états [Lafortune & Chen, 91]
|
Table des matières
NTRODUCTION GENERALE
CHAPITRE 1 Contexte général
1.1. Terminologie de référence et définitions adoptées
1.2. La problématique de surveillance et de diagnostic
1.2.1. Considérations initiales
1.2.2. La taille de l’installation et la complexité des relations
1.2.3. Les phases transitoires
1.2.4. Les écarts marginaux
1.3. Conclusions
CHAPITRE 2 Diagnostic : méthodes et modèles
2.1. Les approches relationnelles
2.2. Les méthodes de traitement de données
2.2.1. Le diagnostic par Analyse Qualitative de Tendance (AQT)
2.2.2. Le diagnostic par reconnaissance de formes
2.2.2.1. Le principe de base :
2.2.2.2. Les outils LAMDA et SALSA
2.2.2.3. D’autres approches
2.2.3. L’apprentissage
2.2.4. Conclusions sur les méthodes de traitement de données
2.3. Les méthodes à base de modèles
2.3.1. Considérations générales
2.3.2. Approches basées sur la cohérence
2.3.2.1. Principe de base
2.3.2.2. L’utilisation d’une connaissance de défaut
2.3.3. Les approches à base de modèles quantitatifs (FDI)
2.3.3.1. Principe de base
2.3.3.2. La méthode d’estimation paramétrique
2.3.3.3. La méthode à base d’observateurs (ou banc d’observateurs)
2.3.3.4. Les filtres de Kalman
2.3.3.5. La méthode d’espace de parité
2.3.4. Les méthodes qualitatives basées sur un raisonnement causal
2.3.4.1. Considérations générales
2.3.4.2. L’approche de Gomaa
2.3.4.3. L’approche de Ca~En (CAusal ENgine)
2.3.4.4. L’approche de Evsukoff
2.3.4.5. Conclusion
2.4. Conclusions
CHAPITRE 3 Les approches de diagnostic à base de modèles discrets
3.1. Les approches fondées sur une modélisation orientée composants
3.1.1. Les approches fondées sur la proposition de Sampath
3.1.2. La technique model-checking
3.1.3. Conclusion partielle
3.1.4. L’approche hybride de supervision et surveillance de Andreu
3.2. Les approches de signature temporelle
3.2.1. Chronique
3.2.2. Scénario et session
3.2.3. Templates
3.2.4. Conclusion partielle
3.3. Les approches basées sur l’abstraction de la dynamique continue
3.3.1. Les approches orientées Diagnostic
3.3.1.1. La méthode de diagnostic de Lunze
3.3.1.2. Les approches basées sur un raisonnement temporel explicite
3.3.1.3. D’autres approches
3.3.2. Les approches orientées supervision
3.3.3. Conclusion partielle
3.4. Les approches basées sur un raisonnement flou et la théorie de possibilité
3.5. Conclusions
CHAPITRE 4 Notre proposition
4.1. Niveau d’abstraction de la dynamique continue
4.2. Le niveau structurel d’influence
4.3. Niveau de configuration
4.4. La surveillance et diagnostic
CHAPITRE 5 Le processus d’abstraction de la dynamique continue
5.1. Une vision générale des méthodes d’abstraction et de partitionnement
5.1.1. Présentation de quelques méthodes d’abstraction
5.1.2. La prise en compte de l’incertitude
5.1.2.1. Les approches avec un raisonnement à base d’intervalles
5.1.2.2. Les travaux liés au projet AQUA
5.1.2.3. Les approches avec un raisonnement temporel
5.1.2.4. L’utilisation des ensembles flous et la théorie de possibilité
5.2. Notre problématique de l’abstraction et le partitionnement
5.2.1. Le partitionnement flou et le raisonnement possibiliste
5.2.1.1. Principe
5.2.1.2. La définition des dates floues
5.2.1.3. La notion d’événement
5.2.1.4. L’analyse temporelle de transition d’état
5.2.1.5. L’interprétation possibiliste d’état qualitatif
5.2.1.6. Analyse temporelle d’incertitude liée à la définition du partitionnement
5.2.2. Les relations de cohérence temporelle entre variables
5.2.2.1. Au niveau MOt
5.2.2.2. Au niveau phase
5.2.2.3. Analyse d’ambiguïté d’état sur ?e(vm1?vv2) au sein d’une phase
5.3. Conclusions
CHAPITRE 6 Le modèle RdPTF pour la surveillance au niveau MOt
6.1. Le modèle RdPTF
6.1.1. Définition
6.1.2. Principe de base de représentation et d’évolution du RdPTF
6.1.3. Exemple de représentation par RdPTFR
6.2. L’évolution du modèle RdPTF
6.2.1. L’évolution du marquage
6.2.2. Le mécanisme de recalage et le modèle RdPTF estimation
6.2.3. Le mécanisme de suivi et de détection locale
6.3. Le RdPTF et la représentation de cohérence temporelle
6.3.1. Scénario de défaut et diagnostic déductif
6.3.2. La surveillance sur la conduite de l’opérateur
6.4. Considérations complémentaires
6.5. Conclusions
CHAPITRE 7 La surveillance et le diagnostic au niveau phase
7.1. Le modèle RdPTF?
7.1.1. Définition
7.1.2. Exemple
7.2. Le mécanisme de la détection et du diagnostic au niveau phase
7.2.1. Le mécanisme de base
7.2.1.1. L’obtention des indices d’écart
7.2.1.2. L’inférence de base pour la décision de localisation
7.2.2. L’affinement du mécanisme
7.3. Structure d’influence et partitionnement flou
7.4. Le RdPTF des modèles de référence et de suivi et la représentation de la cohérence d’évolution globale
7.5. Le RdPTF du modèle de prédiction, la représentation de la relation locale d’influence et le diagnostic
7.5.1. Mécanisme de recalage temporel d’influence (rc?)
7.5.1.1. Le principe de la méthode
7.5.1.2. La démarche
7.5.1.3. La définition
7.5.1.4. L’analyse sur l’exemple
7.5.2. L’évolution du RdPTF? complet et le diagnostic
7.5.3. Analyse complémentaire globale
7.6. La modélisation de comportement de défaut
7.7. Considérations générales et Conclusions
CONCLUSION ET PERSPECTIVES
Bibliographie
Télécharger le rapport complet