Méthode des Résidus Pondérés

Solutions approximatives des équations de HJI : Méthode de Galerkin

Introduction

Dans ce chapitre, les déférents problèmes de la commande H1 non linéaires sont résolus d’une manière itérative. En effet les équations de Hamilton-Jacobi-Isaac (HJI) résultantes, d’une part de la commande par retour d’état continu et discret, et de la commande par retour de sorties sont résolus par hybridation de la méthode des approximations successives et de la méthode de Galerkin.

La méthode des approximations successives connue par « Policy Iteration Method » ou « Iteration in Policy Space » a été initialement introduite par Saridis and Lee (1979). Les auteurs ont introduit une méthode qui améliore une commande initiale tout en vériant la solvabilité de l’équation de Hamilton-Jacobi-Bellman (HJB) dans le cas de la commande optimale non linéaire. La méthode de résolution des HJB à chaque itération était analytique et limitée à des classes de systèmes non linéaires. IL a fallu attendre les travaux de Beard et al. (1997), Beard and McLain (1998) pour avoir une hybridation entre la méthode des approximations successives et la méthode de Galerkin pour résoudre la HJB à chaque itération. Dans Beard et al. (1997), les auteurs ont transformé l’équation HJB non linéaire en une séquence d’équations dites GHJB (HJB Généralisées) linéaires et ont utilisé la méthode de Galerkin pour les résoudre. Dans Beard and McLain (1998), Ils proposent la même méthodologie pour le cas des équations HJI dans le contexte de la commande H1 non linéaire. Dans Beard et al. (1997), Beard and McLain (1998) et Abu-Khalaf et al. (2006), est présentée, entre autres, une démonstration de la stabilité de l’algorithme des approximations successives.

Dans ce chapitre, nous proposons d’appliquer la méthode de Galerkin pour la synthèse d’une loi de commande H1 non linéaire par retour d’état des systèmes non linéaires continus et discrets sans et avec contraintes (saturation) sur les entrées et par retour de sorties. Des procédures de calculs des intégrales de Galerkin sont aussi données. On pré- sente trois méthodes ; l’une est déterministe et est basée sur la discrétisation du domaine d’intégration, la deuxième est stochastique et est basée sur la méthode de Monté-Carlo, nalement, la troisième est analytique et est basée sur le calcul symbolique que proposent plusieurs logiciels de calculs scientiques tel que Matlab et Mapple.

Le reste de ce chapitre est organisé comme suit : Dans la section 2 est présentée la méthode des approximations successives comme donnée dans Beard et al. (1997) et Beard and McLain (1998). Dans la section 3 est donnée la méthode des résidus pondérés et dans 4 la méthode de Galerkin appliquée à la synthèse d’une commande continue par retour d’état. Des résultats de simulation sont aussi présentés. Dans la section 5, on propose l’application de la méthode de Galerkin pour résoudre le problème de la commande H1 non linéaire à horizon ni (à temps nal xe). La section 6 traite la résolution des HJI discrètes par la méthode de Galerkin. Finalement, la résolution du problème de la commande par retour de sortie est établie dans la section 7.

La Méthode de Monté-Carlo

Il est bien connu en probabilités, qu’une espérance mathématique peut être formellement dénie par une intégrale. Or la méthode de Monté-Carlo (Hammersley and Handscomb (1975), Evans and Swartz (2000), Peyre (2012)) permet d’évaluer facilement cette espérance. En renversant le paradigme, c.à.d., en écrivant une intégrale comme une espé- rance, il est possible d’utiliser la méthode de Monté- Carlo pour calculer une intégrale :

Soit à calculer, par exemple, l’intégrale A suivant.

Le choix de la loi de probabilité uniforme rend la méthode de Monté-Carlo identique à celle utilisant l’approximation de Reiman . La seule diérence est le pas de discrétisation qui est xe dans le cas de l’approximation de Reiman et aléatoire dans la méthode de Monté-Carlo.

Les codes Matlab c données par les gures 2.4 et 2.5 génèrent, respectivement, un maillage dans le cas n = 4 pour la méthode de discrétisation des intégrales et pour la méthode de Monté-Carlo stochastique.

Méthode basé sur le calcul symbolique

Matlab c ore un outil de calcul symbolique très puisant, à savoir Symbolic Toolbox c. Le code Matlab c de la gure 2.6 illustre ces calculs pour l’exemple 4.3.1 de la section suivante. Nous avons utilisé les fonctions symboliques , int (calcul des intégrales) et jacobian (calcul de la matrice jacobienne de (x)) pour l’obtention de A1 et b1.

Dans la gure 2.11 est illustrée la norme du vecteur des coecients c par rapport aux itérations et pour diérentes valeurs de N. On conclue que l’algorithme converge après 5 à 6 itérations. Pour simuler le système en boucle fermée avec les lois de commandes (2.52), (2.53) et (2.54) les valeurs initiales x0 = [?1; 1]T sont sélectionnées. Une perturbation ! = 5 sin te?t est introduite au début de simulation. Dans la gure 2.12 nous présentons les états x1 et x2 pour N = 0; 3; 8 et 15. La valeur de N = 0, correspond à la commande initiale (2.51). Nous remarquons que les états convergent asymptotiquement vers le point d’équilibre 0. En plus, il est observé que plus la valeur N augmente, plus la réponse est améliorée (temps de réponse, oscillations), et plus les non linéarités apparaissent dans la commande, ce qui entraine un coût d’implémentation plus élevé. La valeur de N = 3 sur pour notre système. Dans la gure 2.13 sont schématisées l’évolution des commandes et l’atténuation r (2.46). Le rejet de perturbation est meilleure dans le cas où N = 3.

Oscillateur translationnel avec actionneur rotatif (TORA)

C’est un système constitué d’un chariot de masse M, contraint de se déplacer le long d’une ligne horizontale et xée, par un ressort de raideur K, à un mur. Le chariot est stabilisé par un actionneur rotatif de masse m et de moment d’inertie I, situé à une distance de l’axe de rotation. Le signal de commande est le couple N autour de l’axe de rotation et le signal de perturbation est la force F exercée sur le chariot. Le système est présenté par la gure 2.24

Application au système TORA

Pour illustrer l’application de l’algorithme de Galerkin pour la commande H1 contrainte (avec saturation), l’exemple 4.3.5 (TORA) est repris. A cet eet nous utilisons les mêmes paramètres de synthèse de la commande, tout en imposant une bornitude juj < 0:4.
La norme du vecteur c est illustrée dans la gure 2.29 pour diérentes valeurs de N.
Nous constatons que l’algorithme convergence pour une tolérance = 10?6 après 4 à 6 itérations.
Après application des commandes H1 contraintes, et sous les mêmes conditions du paragraphe
précédent, nous remarquons que le point d’équilibre x = 0 est asymptotiquement stable (voir gure 2.30). Les commandes et atténuations sont schématisées dans la gure 2.31. La commande est saturée avec juj < 0:4. Plus le nombre N augmente plus les performances du système s’améliorent et plus l’atténuation des perturbations est meilleure.
Quand N = 129, les non linéarités deviennent plus importantes, ce qui rend l’atténuation légèrement plus grande que le cas où N = 45. Donc, le choix de N = 45 est largement susant pour atteindre les objectifs de stabilité et robustesse.

Résolution des équations de HJI : Cas de la Commande H1 continue par retour d’état

Méthode des approximations successives

Nous rappelons dans ce paragraphe la méthode des approximations successives (AS) détaillée dans la section 2 du chapitre 2. Dans la méthode AS, l’équation de HJI (2.2) est remplacée par une suite d’équations à dérivées partielles linéaires suivantes en séparant le calcul de la commande et perturbation optimales (u; !) de la solution Vx. Ces équations sont données par.
P étant le nombre de points constituant la maillage du domaine . Ce nombre doit être supérieur ou égal au nombre de fonctions de bases, N. Cela garantira l’inversibilité de XTX. On note aussi que plus le pas de discrétisation des intégrales, x est petit plus le nombre de points constituant le maillage, P, est grand. Il existe d’autres méthodes d’approximation des intégrales, on peut citer entre autres la méthode d’intégration de Monté-Carlo (voir section 4.2.3 du chapitre précédant).
Les codes Matlab c données dans les gures 2.4 et 2.5 et générant un maillage dans le cas n = 4 peuvent êtres reprises facilement dans le cas de la méthode des RNA-MMC.
La gure 3.2 donne l’algorithme des moindres carrés pour la résolution de l’équation GHJI.

Application à la commande H1 par retour d’état du système TORA

Dans cette section l’application de la méthode RNA-MMC au système TORA décrit dans l’exemple 4.3.5 de la section 4.3 est faite. Nous rappelons que c’est un système mécanique instable en boucle ouverte et qui peut être modélisé sous la forme standard (2.1). L’objectif de la commande est double, à savoir, assurer la stabilité asymptotique du point d’équilibre x = 0 et garantir une atténuation des variables d’entrées exogènes (Force de perturbation F(t)) par rapport à des sorties à régulées (z), c.à.d, assurer un L2-gain inférieur à un certain niveau d’atténuation .
Les fonctions de base utilisées dans l’algorithme des RNA-MMC sont choisies sous la forme suivante.
avec N = 45. Dans cet exemple la valeur de = 10 est sélectionnée.
La commande initiale utilisée pour lancer l’algorithme des RNA-MMC est la même que dans le cas de la méthode de Galerkin.
La région de faisabilité de la commande est = [?1; 1]4 et la méthode utilisée pour calculer les intégrales est celle de Monté-Carlo avec un nombre de points P = 3000. La valeur utilisée pour l’arrêt des boucles des mise à jour des commandes et perturbations est choisie égale à 0:001 (ceci est susant puisqu’on compare la diérence sur la norme quadratique du vecteur des coecients c).
L’algorithme converge après seulement 4 itérations et le vecteur des coecients obtenu est donné par le tableau 3.1.

Application à la commande H1 discrète par retour d’état du système TORA

Le modèle du TORA discrétisé est celui obtenu dans le cas de la méthode de Galerkin et est donnée par (2.107). Une commande contrainte est synthétisée avec la condition juj A = 0:8. la fonction de saturation est la tangente hyperbolique. La norme de la variable de pénalité z, dans le cas discret, est toujours donnée par (2.108).
Pour la détermination du vecteur des coecients c, la commande initiale est choisie égale à celle utilisée dans le cas continu, c.à.d. (2.66).
La région de faisabilité de la commande est = [?2; 2]4 et le niveau d’atténuation est 10. Les fonctions de base utilisées sont données par l’équation (3.16), avec N = 45. Le pas de discrétisation du domaine est x = 0:2.
La gure 3.8 montre la convergence de la norme du vecteur jjcjj après seulement 9 itérations ( = 0:001), et est donnée par le tableau 3.2.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction générale 
1 Introduction 
2 Contexte et problématique
3 Objectifs et Contributions 
3.1 Résolution des équations HJI par la MWR
3.2 Résolution des équations HJI par apprentissage en ligne
3.3 Résolution des équations HJI par une méta heuristique d’optimisation
4 Organisation du document 
1 Commande H1 non linéaire 
1 Introduction
2 Stabilité des systèmes non linéaires 
2.1 Premières dénitions
2.2 Fonctions (semi) dénies positives
2.3 Rappels de quelques concepts de stabilité
2.4 Théorie de Lyapounov
2.5 Stabilité asymptotique des systèmes connectés en cascade
2.6 Notions de passivité et dissipativité
3 Commande H1 des systèmes non linéaires générales 
3.1 Formulation mathématique du problème
3.2 Objectifs de la commande
3.3 Hypothèses simplicatrices
3.4 Commande par retour d’état
3.5 Commande par retour de sortie
3.5.1 Condition nécessaire pour le retour de sortie
3.5.2 Loi de commande par retour de sortie
4 Commande H1 des systèmes non linéaires anes
4.1 Commande par retour d’état
4.1.1 Exemple
4.1.2 Cas Particulier : Systèmes linéaires anes
4.2 Commande par retour d’état avec contraintes sur la commande
5 Commande H1 par retour d’état des systèmes non linéaire discrets 
5.1 Commande H1 discrète et jeu diérentiel non coopératif
6 Commande H1 non linéaire par retour de sortie 
6.1 Formulation mathématique du probléme
6.2 Loi de commande par retour de sortie
6.2.1 Calcul de la matrice gain G
6.3 Cas Particulier : Systèmes linéaires anes
7 Conclusion 
2 Solutions approximatives des équations de HJI : Méthode de Galerkin 49
1 Introduction 
2 Méthode des Approximations successives
3 Méthode des Résidus Pondérés
3.1 Approximation polynomiale
3.2 Formulation intégrale normale
3.3 Les méthodes des résidus pondérés
4 Méthode de Galerkin appliquée à la synthèse de la commande H1 par retour d’état -Cas continu 
4.1 Algorithme de Galerkin
4.2 Les méthodes d’implémentations
4.2.1 Réduction de N
4.2.2 Méthode basée sur la discrétisation des intégrales
4.2.3 La Méthode de Monté-Carlo
4.2.4 Méthode basé sur le calcul symbolique
4.3 Exemples Numériques
4.3.1 Système linéaire MIMO 3-D
4.3.2 Système non linéaire SISO 2-D
4.3.3 Système de suspension magnétique
4.3.4 Robot Planaire à deux degrés de liberté
4.3.5 Oscillateur translationnel avec actionneur rotatif (TORA)
Table des matières
4.4 Méthode de Galerkin : Cas de la commande H1 contrainte par
retour d’état
4.4.1 Application au système TORA
5 Méthode de Galerkin appliquée à la synthèse de la commande H1 à temps nal xe 
5.1 Algorithme de Galerkin
5.2 Application à la validation d’une commande H1 inverse
5.3 Application au système TORA
6 Méthode de Galerkin appliquée à la synthèse de la commande H1 par retour d’état -Cas discret 
6.1 Méthode des approximations successives
6.2 Algorithme de Galerkin
6.3 Exemples Numériques
6.3.1 Système non linéaire discret MIMO
6.3.2 Oscillateur translationnel avec actionneur rotatif (TORA) discrétisé
7 Méthode de Galerkin appliquée à résolutions des équations de HJI pour la commande par retour de sortie
7.1 Algorithme des approximations successives
7.2 Algorithme de Galerkin
7.2.1 Calcul de la matrice de gain G
7.3 Commande H1 par retour de sortie du système TORA
8 Conclusion 
3 Solutions approximatives des équations de HJI : Méthode des réseaux de neurones
1 Introduction
2 Les réseaux de neurones comme approximateurs universels
3 Résolution des équations de HJI : Cas de la Commande H1 continue par
retour d’état
3.1 Méthode des approximations successives
3.2 Méthode des Résidus pondérés basée sur les moindres carrés
3.3 Méthode d’implémentation
3.4 Application à la commande H1 par retour d’état du système TORA122
4 Résolution des équations de HJI Cas de la Commande H1 discrète par retour d’état
4.1 Méthode d’implémentation
4.2 Application à la commande H1 discrète par retour d’état du syst ème TORA
5 Résolution des équations de HJI Cas de la Commande H1 par retour de sortie
5.1 Algorithme des Moindres Carrés
5.2 Méthode d’implémentation
5.2.1 Calcul de la matrice de gain G
5.3 Commande H1 par retour de sortie du système TORA
6 Étude comparative
7 Conclusion
4 Solutions approximatives des équations de HJI : Méthode d’apprentissage en-ligne
1 Introduction
2 Apprentissage simultané en ligne : Cas de la commande H1 non linéaire
par retour d’état
2.1 Approche de résolution en-ligne (1er algorithme)
2.2 Étude de la stabilité de l’algorithme en-ligne
2.3 Architecture Acteur-Critique et RN pour la résolution en-ligne des HJI
2.4 Implémentation
3 Exemples illustratifs
3.1 Système Linéaire 3D
3.2 Système non linéaire 2D
3.3 Système TORA
4 Conclusion
5 Application d’une méthode d’optimisation à la synthèse de la commande H1 non linéaire
1 Introduction
2 Optimisation et méthodes méta-heuristiques .
2.1 Dénition de l’optimisation
2.2 Problème d’optimisation
2.3 Méthodes classiques v.s. Méthodes métaheuristiques
2.3.1 Caractéristiques des métaheuristiques
2.3.2 Classication des métaheuristiques
2.3.2.1 Méthodes de trajectoires
2.3.2.2 Méthodes basées sur une population .
3 Optimisation par Essaim de Particules
3.1 Principe de base
3.2 Formulation
3.2.1 Déroulement de la PSO
3.3 Les variantes de la PSO
3.4 PSO avec contraintes
3.4.1 Algorithme ALPSO
3.4.2 Méthode de la fonction ctive
4 Résolution de l’équation HJI par PSO
4.1 Approximation par réseau de neurones
4.2 Fonctions objectives
4.2.1 Fonction objevtive basée sur l’Hamiltonien
4.2.2 Fonction objective basée sur le L2-gain
4.3 Résultats de simulation
4.3.1 Système non linéaire 2D
4.3.2 Système TORA
5 Synthèse de la Commande H1 non linéaire par PSO
5.1 Commande H1 des systèmes variants dans le temps
5.2 Application de la PSO à la commande des systèmes lagrangiens
5.2.1 Commande H1 non linéaire des systèmes lagrangiens
5.2.2 Méthode d’ajustement par PSO
5.3 Application à la commande d’un robot SCARA à 4 d.d.l.
5.3.1 Dynamique du SCARA à 4 d.d.l
5.3.2 Paramètres du PSO
5.3.3 Résultats et discussions
6 Conclusion
Conclusion générale 
Bibliographie 
A Démonstration des théorèmes 
1 Equation (1.28) 
2 Equation (1.31) 
3 Démonstration du théorème 

Méthode des Résidus PondérésTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *