Méthodes numériques en commande optimale d’un système dynamique

Méthodes numériques en commande optimale d’un système dynamique

La plupart des problèmes rencontrés en ingéniérie et en calcul scientifique se présentent sous la forme des équations et des systèmes d’équations non-linéaires, convexes et non convexes [22–24]. Ces problèmes sont difficiles à résoudre sur le plan scientifique et technique. Dans ce chapitre, nous exploitons certaines méthodes directes et indirectes en commande optimale [7].

Méthodes directes 

Les méthodes directes considèrent une discrétisation en dimension finie du problème de commande optimale et s’attachent à résoudre le problème d’optimisation non linéaire obtenu après cette discrétisation. Le paragraphe suivant présente la méthode directe de programmation séquentielle quadratique.

Méthode de Programmation Séquentielle Quadratique

La méthode de Programmation Séquentille Quadratique « Sequential Quadratic Programming »en anglais est l’une des méthodes les plus efficaces de résolution de problèmes de programmation non-linéaire [29]. Elle est de ce fait très utilisée dans plusieurs travaux de commande optimale[30, 31].

Le principe SQP repose sur une reformulation itérative du problème de programmation nonlinéaire en un problème de programmation quadratique à l’aide d’une approximation quadratique du lagrangien de la fonction objectif et d’une linéarisation des contraintes. La résolution du problème de programmation quadratique se fait alors pour chaque itération. La force de la méthode SQP provient de son caractère « chemin non-réalisable » où la convergence vers la solution optimale est effectuée en partant des points intermédiaires réalisables et non réalisables dans un voisinage du domaine des contraintes. La méthode SQP n’impose le respect des contraintes que pour la solution finale.

Associée à la technique Broyden-Fletcher-Goldfarb-Shanno d’estimation de l’inverse de la matrice hessienne, la méthode SQP devient une méthode extrêmement rapide avec une convergence quadratique.

Conditions d’optimalité du problème de contrôle optimal

Le système  montre un problème de contrôle optimal avec des contraintes mixtes [35]. En posant x = (y, u), le problème peut être transformé au système suivant :

min J(x(.))
y˙ = f(x)
nj (x) ≤ 0, j ∈ Ξ
nj (x) ≥ 0, j ∈ Γ

Les expréssions Ξ, Γ sont respectivement les ensembles des indices d’égalité et d’inégalité. Le Lagrangien du système (I.4) est défini par la fonction L(x, λ) = J(x) + λT [b(y˙ , x) + n(x)] où le vecteur λ symbolise les multiplicateurs de Lagrange et b(y˙ , x) = y˙ − f(x) = 0.

Méthode indirecte

Le but principal de ce chapitre concerne une formulation générale de la méthode numérique dite indirecte en se basant sur le principe de maximum de Pontryaguine [40]. Eventuellement, il faut statuer sur son éfficacité lorsqu’elle est appliquée à la résolution d’un problème de commande optimale [41]. En commande optimale, nous considérons une formulation générale avec des contraintes mixtes [7, 24, 42]. La théorie de problème de contrôle optimal est vaste [43]. Les techniques de résolution des problèmes mathématiques d’optimisation dépendent éventuellement de la nature de la fonction objectif et de l’ensemble des contraintes. La méthode dévéloppée est donc la plus courante et surtout la plus utilisée en commande optimale [28].

Problème de commande optimale

Considérons le problème de commande optimale sans contraintes :

min ϕ(y(t))
y˙(t) = f(u(t), y(t)), t ∈ [0, T]
y(0) = y0(CI)

Définissons H(u, y, p) = pf(u, y) le pseudo-Hamiltonien du problème original (I.19). Les applications f : Rm × Rn → Rn, ϕ : Rn → Rn sont supposées C∞, ce qui donne la condition d’optimalité :

y˙(t) = f(u(t), y(t)), t ∈ [0, T]
p˙(t) = −Hy(u(t), y(t), p(t))
0 = Hu(u(t), y(t), p(t))
P(T) = ϕ’ (y(T)), y(0) = y0

La méthode indirecte vise à résoudre ces conditions d’optimalité. Le vecteur (u, y, p) satisfaisant (I.20) est extrêmal pour u continue. Si

u → Huu(u, y, p)

Principe du maximum de Pontryagine

Le principe du maximum de Pontryagine est le résultat central de la théorie du contrôle optimal. Dans un demi-siècle depuis son apparition, le sous-jacent théorème a été généralisé, renforcé, étendu, rédémontré et interprété de plusieurs manières. Nous passons en revue dans ce paragraphe l’une des principales approches de l’obtention du principe du maximum dans un contexte puissant et unifié, en se concentrant sur les résultats récents que représentent l’aboutissement de plusieurs années de progrès en utilisant la méthodologie de l’analyse et la commande optimale.

Théorème 2 [43] : Considérons le système de contrôle dans Rn

x˙(t) = f(t, x(t), u(t))

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction générale
Ière Partie
I Méthodes numériques en commande optimale d’un système dynamique
1 Introduction
2 Méthodes directes
2.1 Méthode de Programmation Séquentielle Quadratique
2.1.1 Conditions d’optimalité du problème de contrôle optimal
2.1.2 Méthode de programmation Séquentielle Quadratique
2.1.3 Algorithme PQS
2.2 Algorithme PQS globalisé par Régions de Confiance
2.2.1 Modélisation mathématique du problème d’optimisation par la méthode des régions de confiance
2.2.2 Algorithme TRSQP et analyse de la convergence
2.3 Solveur SQPlab
3 Méthode indirecte
3.1 Problème de commande optimale
3.2 Cadre fini d’un problème de contrôle optimal
3.3 Problème de commande optimale et principe du maximum de Pontryaguine
3.3.1 Coût de la trajectoire associée
3.3.2 Application entrée-sortie, contrôlabilité
3.3.3 Existence de trajectoires optimales
3.3.4 Principe du maximum de Pontryagine
3.3.5 Commande optimale et équations d’Hamilton-Jacobi
4 Solveur KNITRO et méthode des points intérieurs
4.1 Algorithmes de KNITRO
4.2 Une application académique de KNITRO
5 Conclusion
II Modèle de commande optimale d’un avion minimisant le bruit perçu au sol
1 Introduction
2 Modèle aérodynamique d’un avion
3 Modélisation de la fonction-coût par l’avion
4 Modélisation des contraintes d’un avion en approche
5 Problème de commande optimale d’un avion
II ème Partie
III Optimisation acoustique de deux avions en approche
Two-Aircraft Acoustic Optimal Control Problem
1 Introduction
2 Modelization of the two-aircraft optimal control problem
2.1 General Formulation
2.2 The aircraft dynamic
2.3 The objective function
2.4 Constraints
2.5 The explicit formula of the two-aircraft optimal control problem
3 SQP methods and KKT-optimality conditions
3.1 The optimality conditions for the optimal control problem
3.2 SQP Method
3.3 SQP algorithm and added transfomations
3.4 The TRSQP algorithm and convergence analysis
3.5 Analysis of the algorithm and its convergence
4 Numerical experiments and results
5 Conclusion
IV Une méthode directe appliquée à un problème de contrôle optimal des avions en approche
1 A direct method applied to aircraft optimal control problem on approach. RK4 scheme and KNITRO solver
1.1 Introduction
1.2 Mathematical description of the basic equations
1.3 The numerical processing
1.4 Numerics results
1.4.1 Numerics results relative to the first cost function
1.4.2 Numerics results relative to the second cost function
1.5 Conclusion
1.6 Appendix B : Explicit equations for the optimal dynamic system
2 Two-Aircraft optimal control problem. The in-flight noise reduction
2.1 Introduction
2.2 Mathematical description of the basic equations
2.2.1 Aircraft dynamic equations
2.2.2 The objective function model
2.2.3 Constraints
2.2.4 The two-aircraft acoustic optimal control problem
2.3 The numerical processing
2.4 Numerics results
2.5 Conclusion
Conclusion générale

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *