Formulations des systèmes dynamiques non linéaires de défaut

Télécharger le fichier pdf d’un mémoire de fin d’études

Caractéristique de l’erreur d’observation de l’observateur

Dans cette section, deux théorèmes concernant l’erreur d’observation de l’observateur sont présentés. Ils sont à la base du développement de la méthode d’isolation et d’identification de défaut. L’observateur considéré est décrit par les équations suivantes : & = f (xˆ,θ ob ,u) + kC(x − xˆ) xˆ e = x − xˆ = ch e(2.1)
Ou encore : &= f (xˆ,θob,u) + k( y − yˆ) xˆ yCx ε= yh− yˆhˆ=ˆ(2.2) où: x est l’état du système (1.1). xˆ(t) est l’état de l’observateur. e(t) est l’erreur d’observation de l’observateur. ε (t) est un scalaire représentant l’erreur d’observation de sortie. θ ob est le vecteur de paramètres de l’observateur qui est égal au vecteur de paramètres nominaux avant l’occurrence de défaut : θ ob  = θ 0 , t < t f On suppose qu’avant t f , l’état xˆ(t) de l’observateur (2.1) a convergé vers l’état du système x . Ainsi : e(t f ) = 0 , ε (t f ) = 0 (2.3)
A l’instant t f , un paramètre du système (1.1) change en raison de l’occurrence de défaut. Tous les observateurs des intervalles des différents paramètres sont initialisés à des valeurs présélectionnées à l’intérieur de chacun des intervalles. On définit par : ∆ −θ ob ) (2.4)

Le filtre de paramètre

Soit p paramètres: θ0 ,θ1 ,…,θ j ,…,θ p−1 du vecteur θ du système qui peuvent être assujettis à un défaut. On divise le domaine admissible de chaque paramètre en un certain nombre d’intervalles. Par exemple, le paramètre θ j est divisé en q intervalles, leurs bornes sont dénotées par:
θ (j0) ,θ (j1) ,…,θ (ji) ,…,θ (jq)
Les bornes du ième intervalle sont θ (ji−1) et θ (ji) .

Construction du filtre de paramètre

Après vérification de tous les intervalles pour savoir s’ils contiennent la valeur du paramètre défectueux, le défaut est isolé. Dans ce but, un filtre de paramètre est construit pour un intervalle donné. Chaque intervalle de paramètre a un filtre de paramètre qui est différent des autres. Pour faciliter l’explication, seul le filtre de paramètre du ième intervalle du j ème paramètre est considéré. Ce filtre de paramètre est composé :
• d’un observateur d’isolation ( xˆ(ij ) )
• deux modèles de seuil qui produisent deux états des seuils, ( xa (ij ) , xb (ij ) )
• deux observateurs d’états des seuils qui produisent deux seuils dynamiques ( xˆa (ij ) , xˆb (ij ) )
Mécanisme d’isolation du défaut
Filtre de défaut
L’ensemble de tous les filtres d’un même paramètre (un filtre pour un intervalle) s’appelle le filtre de défaut de ce paramètre. Nous allons maintenant étudier le principe du filtre de défaut. Pour faciliter l’explication, seul le filtre de défaut du j ème paramètre sera étudié. Deux cas sont possibles :
Cas 1 : Le défaut n’est pas sur le j ème  paramètre.
Après l’occurrence du défaut, tous les intervalles du j ème paramètre ne contiennent pas la valeur du paramètre défectueux et donc tous les filtres de paramètres envoient un signal de ‘non contenance’ à un instant donné après t f . Quand tous les filtres du j ème paramètre ont envoyé les signaux de ‘non contenance’, le filtre du défaut envoie un signal d’‘exclusion’ pour indiquer que le défaut n’est pas sur le j ème paramètre.
Cas 2 : Le défaut est sur le j ème  paramètre.
Après l’occurrence du défaut, la valeur du paramètre défectueux sera dans un des intervalles du j ème paramètre. Le filtre de paramètre associé à cet intervalle ne peut pas envoyer le signal de ‘non contenance’, donc le filtre du défaut du j ème paramètre ne peut pas envoyer un signal d’‘exclusion’.
Isolation de défaut
Après la détection d’un défaut, si les p −1 filtres de défaut ont envoyé des signaux d’‘exclusion’, le défaut est isolé. Le filtre de défaut qui n’a pas envoyé le signal d’‘exclusion’ correspond au paramètre défectueux. Le filtre de paramètre qui n’envoie pas le signal de ‘non contenance’, permet de déterminer l’intervalle où se trouve le défaut.
Caractéristiques de la méthode
Vitesse d’isolation de la méthode
Après l’occurrence du défaut, pour tous les filtres de paramètres (excepté celui contenant le défaut), la valeur absolue de l’erreur d’observation croîtra immédiatement avec la vitesse initiale
suivante : ε&(t f ) = ch e&(t f ) = ch ( f (x(t f ),θ f ,u) − f (x(t f ),θ ob ,u)) .
D’après la remarque 2.1, pour le filtre qui ne correspond pas au paramètre défectueux, cette vitesse initiale est grande. D’autre part, les seuils ε a(ij ) (t) et ε b(ij ) (t) sont des fonctions monotones des différences de paramètres  ∆θ ja(ij)  et − ∆θ bj(ij) , de plus lim ε a(ij ) (t) = 0  et ∆θ aj(ij ) →0 -49- b(ij) j lim ε b(ij ) (t) = 0 . Ainsi, du point de vue théorique, si les constantes ∆θ ja(ij)  et ∆θ bj(ij)  sont ∆θ bj(ij ) →0 assez petites, ε a(ij ) (t) , ε b(ij ) (t) et la distance [min{ε a(ij ) (t),ε b(ij ) (t)}, max{ε a(ij ) (t),ε b(ij ) (t)}] le sont aussi. L’erreur ε (ij ) (t) sortira rapidement du secteur limité par les seuils ε a(ij ) (t) et ε b(ij ) (t) après l’occurrence du défaut, donc l’isolation de défaut est rapide.
Identification du paramètre défectueux
La méthode d’isolation présentée isole le défaut et fournit également l’estimation de la valeur du paramètre défectueux. Cette valeur θˆjf correspond à θ obj(ij ) de l’observateur d’isolation du filtre de paramètre dont l’intervalle contient la valeur du paramètre défectueux. La méthode fournit également les bornes du paramètre estimé θ ja( ij ) et θ bj( ij ) . Le fait que, cette méthode utilise ces bornes comme conditions initiales, permet d’estimer le paramètre défectueux d’une manière très rapide par rapport aux méthodes classiques.
Condition d’isolation
On sait qu’un défaut sur le paramètre θs , peut être isolé si et seulement si pour n’importe quel paramètre θ j ( j ≠ s ) et dans n’importe quel intervalle (par exemple le i ème intervalle), la courbe d’erreur ε (ij) (t) sort du secteur limité par les seuils. Par conséquent, les faibles amplitudes des seuils ε a(ij ) (t) , ε b(ij ) (t) , et la grande amplitude de l’erreur ε (ij) (t) rendent l’isolation aisée.
Si la situation de la remarque 2.1 n’est pas satisfaite, l’amplitude de ε (ij ) (t) sera faible. Dans ce cas, il va falloir attribuer des petites valeurs à ∆θ ja(ij)  et ∆θ . Le paramètre sera divisé en plusieurs petits intervalles ce qui augmentera le nombre de filtres de paramètre et donc la procédure d’isolation nécessitera beaucoup plus de temps de calcul en ligne. Pour pallier ce problème, nous proposons une version améliorée de la méthode dans le prochain chapitre en utilisant des seuils adaptatifs.
Partition du domaine du paramètre
Selon ce qui a été mentionné plus haut, afin d’obtenir de bons résultats d’isolation et d’identification de défaut, la subdivision du paramètre en un certain nombre d’intervalles doit être bien faite. Autrement dit, la taille des intervalles doit être petite. D’autre part, plus le nombre d’intervalles est important plus le temps de calcul l’est aussi. Ainsi, un compromis doit être fait entre le nombre d’intervalles et la qualité de l’isolation et de l’identification du défaut. Cette subdivision dépend du modèle dynamique du système, un bon choix peut être fait à l’aide des simulations de ce modèle.
Isolation et identification de défauts avec des seuils adaptatifs
Dans le chapitre précédent, nous avons mentionné que quand le défaut est isolé, l’estimation de la valeur du paramètre défectueux et de ses bornes supérieure et inférieure sont déterminées. Ces deux bornes sont celles de l’intervalle qui contient la valeur du paramètre défectueux. Si l’intervalle n’est pas assez petit, l’estimation de la valeur du paramètre défectueux ne sera pas assez précise. Il a été aussi mentionné que si la remarque 2.1 n’est pas satisfaite, l’amplitude de ε (ij ) (t) ne sera pas grande, donc des intervalles de petites tailles sont nécessaires pour l’isolation.
Pour ces deux raisons, les domaines des paramètres devraient être divisés en plus petits intervalles. Ceci implique une augmentation du nombre de filtres de paramètres et par conséquent un temps de calcul plus important. Pour pallier ces problèmes, nous proposons dans ce chapitre une nouvelle version basée sur l’utilisation des seuils adaptatifs.
Après l’occurrence d’un défaut, dans chaque filtre de paramètre, on fait fonctionner l’observateur d’isolation comme un observateur adaptatif qui identifie en ligne le paramètre du système. En même temps, on fait fonctionner les deux observateurs d’états des seuils en tant qu’observateurs adaptatifs qui identifient en ligne les paramètres des deux modèles de seuil. Soit au total trois observateurs adaptatifs qui ont un même gain d’identification. Le choix de ces gains doit garantir que les procédures d’identification soient sans dépassement (monotone en fonction du temps). Dans ce chapitre, l’observateur d’isolation, les observateurs des seuils et les seuils employés dans le chapitre 2 sont les mêmes sauf qu’ils sont adaptatifs. Toutes les notations et les hypothèses faites dans le chapitre précédent sont les mêmes sauf dans quelques cas particuliers que nous mentionnerons.
Isolation de défaut
Selon la discussion ci-dessus, si nous utilisons les observateurs adaptatifs à la place de ceux utilisés dans le chapitre 2, le théorème 2.1 peut être remplacé par le théorème 3.1, et le théorème 2.2 restera valable. Ainsi nous pouvons construire des filtres de défaut en remplaçant les observateurs par les observateurs adaptatifs. Dans ce cas, la procédure d’isolation est la même que celle présentée dans le chapitre 1.
Estimation des paramètres
Lorsque le défaut est isolé, le filtre de défaut adaptatif qui n’a pas envoyé le signal d’‘exclusion’ est lié au paramètre défectueux. De plus l’intervalle de paramètre dont le filtre de paramètre adaptatif n’a pas envoyé le signal de ‘non contenance’, contient la valeur du paramètre défectueux.
Nous utilisons la valeur du paramètre θˆobj(ij ) (t) de l’observateur adaptatif d’isolation, dont l’intervalle contient la valeur du paramètre défectueux comme estimation de la valeur de ce paramètre : θ j(t) = θ jˆ f ˆob(ij ) (t) (3.27)
Alors les bornes d’erreur de l’estimation du paramètre peuvent être données par :
eθ (t) = θ f − θˆ f (t) ∈[δθˆb(ij ) (t),δθˆa(ij ) (t)] (3.28)
θ j(t) ≅ θ j(t f ) = θ j+ ∆ ˆ fˆob(ij )0ob(ij ) e (t) ≅ θ − θ (t ) ∈[−∆θ , ∆θ ] (3.29)
La procédure d’isolation nous permet de localiser le défaut et donc l’intervalle où il se trouve. Ceci nous permet de lancer la procédure d’identification avec des conditions initiales connues à savoir les bornes de l’intervalle où le défaut est localisé. Cette méthode utilise, un domaine de paramètre réduit pour l’identification de cette valeur (la taille de l’intervalle). C’est un précieux avantage, qui permet d’identifier rapidement cette valeur, contrairement aux autres approches. La détermination des bornes et l’estimation rapide de la valeur du paramètre défectueux sont très utiles pour la reconfiguration du contrôleur du système de FTC.
Après l’isolation du défaut, l’estimation du paramètre deviendra de plus en plus précise avec l’opération d’identification. Les bornes d’erreur de l’estimation du paramètre dans (3.28) sont données par (3.16), on peut avoir : lim[δθ j(t),δθ j t →∞ˆb(ij ) ˆa(ij ) (t)] = [0 − ,0 + ] (3.30)
Ainsi, les erreurs entre les bornes et la valeur du paramètre défectueux deviennent de plus en plus
petites.  En  utilisant ˆb(ij ) (t)  et ˆa(ij ) (t) ,  les  bornes  du  paramètre ces  bornes  d’erreur  δθ jδθ j défectueux sont : θ j∈[θ j(t) + δθ j(t),θ j(t) + δθ j(t)] fˆob(ij )ˆb(ij )ˆob(ij )ˆa(ij )
Remarque : Effet de l’approche adaptative sur l’isolation
Comme la procédure d’isolation fonctionne d’une façon adaptative, les deux seuils dynamiques convergeront vers zéro, donc ε (ij ) (t) sortira du secteur limité par les deux seuils adaptatifs un certain instant après l’occurrence du défaut, même si son amplitude n’est pas grande importante.
Ainsi, l’isolation sera faite correctement.
Seuils des procédures d’identification des paramètres
Dans la démonstration du théorème 3.1, nous avons utilisé les deux hypothèses suivantes :
• les trois procédures d’identification ont la même constante de temps : cob(ij )  = coba(ij )  = cobb(ij )  = c(ij ) (3.31)
• les dynamiques non linéaires des trois observateurs correspondant aux différents paramètres θˆobj(ij ) (t) , θˆobaj(ij ) (t) et θˆobbj(ij ) (t) sont supposées les mêmes, ainsi on a :
Φ a(ij ) (t,τ ) = Φb(ij ) (t,τ ) = Φ(ij ) (t,τ ) (3.32)
B a(ij ) (τ ) = Bb(ij ) (τ ) = B(ij ) (τ ) (3.33)
Isolation et identification de défauts sans seuils
Dans les deux derniers chapitres, des intervalles de paramètre avec des seuils dynamiques sont utilisés pour l’isolation et l’identification de défaut. A cause de l’utilisation des seuils dynamiques, pour q intervalles, 5q observateurs sont nécessaires. D’autant plus, l’utilisation des seuils adaptatifs rend difficile la monotonicité des erreurs d’observation des observateurs et des seuils.
Dans ce chapitre, en éliminant les seuils, nous proposons une nouvelle version de la méthode proposée dans les chapitres précédents dans laquelle nous n’avons besoin que de ( q +1) observateurs pour q intervalles [49]. Avec cette nouvelle version, nous avons les mêmes performances d’isolation et d’identification de défaut comme celle proposée dans les chapitres précédents. Dans ce chapitre, les structures du système non linéaire et de l’observateur sont les mêmes que celles présentées dans les chapitres précédents. Seules les notations concernant les intervalles vont changer.
Filtre de paramètre
Etude préliminaire
On considère l’observateur suivant : x&ˆ = e = ε = f (xˆ,θ ob ,u) + kC(x − xˆ) x − xˆ (4.1)
On suppose qu’avant t f , l’état xˆ(t) de l’observateur a convergé vers l’état x(t) du système, ainsi e(t f ) = 0 et ε (t f ) = 0 .
Simulation pour l’influence des gains d’identification
Pour illustrer l’effet des gains d’identification sur la différence de paramètre dans l’équation (4.14), nous proposons un autre exemple. Dans celui-ci, on considère que la valeur du paramètre défectueux est µm = 0.3 et K s garde sa valeur nominale.
Cas 1 : Pour les 6 intervalles de K s   nous utilisons 7 observateurs adaptatifs. Afin d’alléger l’explication on considère le cas des 2 premiers intervalles, les 2 gains d’identification sont kθa(1,2)  = kθb(2,2)  = 0.002 , alors que le gain d’un autre observateur adaptatif du deuxième intervalle est kθa(2,2) = 0.005 . Par conséquent dans le deuxième intervalle kθb(2,2) ≠ kθa(2,2) . La figure 4.15 montre les résultats des identifications de paramètre dans le deuxième intervalle. Cette figure ˆ a(2)(t)ˆ b(2)ˆ oba(2)(t) etˆ obb(2)(t) ) ne montre que les valeurs estimées des paramètres K set K s(t) ( K sK s peuvent pas converger vers leurs valeurs nominales Ks = 5.0 et l’estimation de la différence de ˆ a(2) ˆ b(2) (t) ne peut pas converger vers zéro. La figure 4.16 montre les erreurs paramètre K s(t) – K s d’observation ε a (t) et ε b (t) ˆ a(2) ˆ b(2) (t) ne peut pas des observateurs adaptatifs. Puisque K s(t) – K s  converger vers zéro, la différence ε a (t) – ε b (t) ne peut pas converger vers zéro.
Cas 2: Entre les premiers et deuxièmes intervalles de K s , deux observateurs adaptatifs différents sont utilisés, leurs gains d’identification sont: kθa(1,2)  = 0.002 , kθb(2,2)  = kθa(2,2)  = 0.005 , donc dans le deuxième intervalle: kθb(2,2)  = kθa(2,2) . La figure 4.17 montre les résultats des identifications de paramètre dans le deuxième intervalle de K s . Cette figure montre, que bien que les valeurs estimées des paramètres ˆ a(2) (t) et ˆ b(2) (t) ne peuvent pas converger vers la valeur nominale K sK s K s  = 5.0 , l’estimation de la différence de paramètre ˆ a(2) ˆ b(2) (t) peut converger vers zéro, K s(t) – K s
donc la différence des erreurs d’observation ε a (t) − ε b (t) peut converger vers zéro même si les erreurs d’observation ε a (t) et ε b (t) ne convergent pas vers zéro, comme présenté dans la figure 4.18.
Conclusion
La méthode proposée dans ce chapitre est basée sur l’utilisation des intervalles de paramètres sans seuils. En comparant cette méthode à celles proposées dans les deux derniers chapitres, elle est plus concise et plus raisonnable du fait que le mécanisme des seuils dynamiques est supprimée. Pour q intervalles de paramètre, la quantité des observateurs utilisés est réduite de 5q à q +1 observateurs et le temps de calcul en ligne est donc réduit considérablement. Le problème posé, par la version adaptative des seuils dynamiques quand on fait la comparaison  entre le résidu et ces seuils adaptatifs lors du fonctionnement des procédures d’identification pendant longtemps, est résolu.
L’approche adaptative de la méthode proposée est intéressante. En effet, pour tous les filtres de paramètres d’un paramètre, que le défaut soit sur ce paramètre ou non, si toutes les procédure d’identification de paramètre ont le même gain, toutes les différences de paramètre entre les observateurs adaptatifs d’isolation convergent vers zéro, en d’autres termes toutes les tailles de tous les intervalles de paramètre convergent vers zéro. En conséquence toutes les erreurs d’observation de tous les observateurs adaptatifs d’isolation convergent ensemble comme une courbe unique. Dans le cas où le défaut n’est pas sur le même paramètre, cette courbe ne peut pas être superposée avec l’axe des abscisses. Ils existent beaucoup d’instants pour lesquels toutes les erreurs d’observation ont le même signe. C’est-à-dire le défaut doit être isolé même si la remarque 2.1 n’est pas satisfaite.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction
Chapitre 1 -Observateurs non linéaires et détection de défauts
1.1 Formulations des systèmes dynamiques non linéaires de défaut
1.2 Caractéristique distinguable de l’espace de paramètre
1.3 Observateur non linéaire et observateur adaptatif non linéaire
1.3.1 Observabilité
1.3.2 Observateur
1.3.3 Observateur adaptif non linéaire
1.4 Détection de défauts
Chapitre 2 -Isolation et identification de défauts avec des seuils non adaptatifs
2.1 Le principe de la méthode
2.2 Caractéristique de l’erreur d’observation de l’observateur
2.3 Le filtre de paramètre
2.3.1 Construction du filtre de paramètre
2.3.2 Principe du filtre de paramètre
2.4 Mécanisme d’isolation du défaut
2.4.1 Filtre de défaut
2.4.2 Isolation de défaut
2.5 Caractéristiques de la méthode
2.5.1 Vitesse d’isolation de la méthode
2.5.2 Identification du paramètre défectueux
2.5.3 Condition d’isolation
2.5.4 Partition du domaine du paramètre
2.6 Simulation
2.6.1 Modèle du procédé
2.6.2 Filtre de paramètre
2.6.3 Illustration de la propriété de monotonicité
2.6.4 Isolation de défaut
2.7 Conclusion
Chapitre 3 -Isolation et identification de défauts avec des seuils adaptatifs
3.1 Filtre adaptatif de paramètre
3.2 Principe du filtre adaptatif de paramètre
3.3 Isolation de défaut
3.4 Estimation des paramètres
3.5 Seuils des procédures d’identification des paramètres
3.5.1 Le cas où l’égalité c ob(ij) = c oba(ij) = c obb(ij) = c (ij) n’est pas satisfaite
3.5.2 Le cas où les dynamiques des trois observateurs sont différentes
3.6 Simulation
3.6.1 Le filtre de défaut
3.6.2 Simulation pour l’isolation de défaut et l’identification de défaut
3.7 Conclusion
Chapitre 4 -Isolation et identification de défauts sans seuils
4.1 Filtre de paramètre
4.1.1 Etude préliminaire
4.1.2 Formulation du filtre
4.2 Principe de l’isolation et de l’identification de défaut
4.2.1 filtre de défaut
4.2.2 Isolation et identification de défaut
4.2.3 Vitesse d’isolation
4.3 Version adaptative
4.4 Simulation
4.4.1 Le filtre de défaut
4.4.2 Simulation pour l’isolation de défaut et l’identification de défaut
4.4.3 Simulation pour l’influence des gains d’identification
4.5 Conclusion
Conclusion
Références

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *