« Chaque chose au monde porte en elle sa réponse, ce qui prend du temps ce sont les questions ». José Saramago .
Après deux décennies où l’optimisation convexe sous contraintes LMI [BE-GF+94], grâce aux algorithmes de résolution efficaces sous-jacents, a représenté un outil presque inévitable pour l’analyse et/ou la commande des systèmes LTI à travers une approche unifiée et générique, nous avons assisté à un élargissement des classes de systèmes traitées par cet outil [Sco97]. Des travaux, tels que ceux de la thèse de Marc Dinh [Din05] à titre d’exemple, ont apporté une pierre à l’édifice en permettant la mise sous forme de problèmes d’optimisation convexe sous contraintes LMI indépendant du vecteur des paramètres pour tous les problèmes d’analyse et de commande se formulant comme des problèmes d’optimisation convexe sous contraintes LMI paramétrées (les paramètres sont supposés appartenir à un ensemble donné et être constants dans le temps). Depuis, l’analyse et la commande, à titre d’exemple, des systèmes LTV, de certains systèmes non linéaires et/ou de dimension infinie sont devenues envisageables sous ce formalisme LMI. La classe des systèmes Linéaires à Paramètres Variant, une sous-classe importante des systèmes LTV, a fait l’objet d’un très grand nombre de résultats sous ce même formalisme (voire, sans prétendre l’exhaustivité, les références incluses dans la thèse d’Anis Bouali [Bou08]). Plus récemment les travaux de [Che11], à titre d’exemple, ont élargi le spectre des problèmes considérés en utilisant la programmation SOS (de l’anglais Sum of Squares) i.e. une technique d’optimisation qui a été développée initialement par [Par00] et qui se base sur l’idée simple qu’un polynôme est non négatif du moment qu’on peut le représenter sous forme d’une somme de carrés de polynômes. Un moyen donc permettant de trouver des fonctions de Lyapunov (polynomiales ou à dépendance paramétrique plus complexes) prouvant la stabilité du système considéré. Il a été ainsi possible de se ramener au formalisme LMI dans le cadre des systèmes polynomiaux, des systèmes polynomiaux incertains et même certains systèmes non-linéaires non polynomiaux (incertains).
Panorama sur la fonction signe matricielle
Ce n’est pas dans la science qu’est le bonheur, mais dans l’acquisition de la science. Edgar Allan Poe .
La matrice dite ‘Lotkin’ de taille n = 10 provient de la galerie de matrices dans Matlab, gallery(‘lotkin’, 10). Il s’agit d’une matrice mal conditionnée contenant beaucoup de valeurs propres négatives, de faible magnitude. Plus la taille de la matrice est grande, plus on aura des valeurs propres proches de 0. Cette matrice est présentée afin de montrer l’efficacité des méthodes de scaling, elles ont en effet besoin de beaucoup moins d’itérations pour converger.
La matrice dite ‘Grcar’ de taille n = 50 provient également de la galerie de matrices dans Matlab, gallery(‘grcar’, 50). Il s’agit d’une matrice de Toeplitz avec des valeurs propres sensibles, toutes les valeurs propres sont complexes conjuguées. Cette matrice est présentée afin de montrer qu’elle pose problème dans le cas du scaling de norme. Elle est dans ce cas pire en termes d’itérations que la méthode de Newton classique.
Les deux derniers types de matrices ont des valeurs propres égales à 1 sauf pour une valeur propre grande, réelle dans l’avant dernier cas et imaginaire dans le dernier. Ces deux derniers types de matrices sont présentés afin de montrer la difficulté pour le scaling de déterminant. En effet, même si elle nécessite moins d’itérations que la méthode de Newton classique, elle a besoin de beaucoup plus d’itérations que les autres méthodes de scaling.
On remarque que la méthode de Newton-Shultz est la plus gourmande généralement en terme d’itérations. Cela s’explique par le fait qu’elle n’utilise aucune inversion de matrices. Néanmoins, on verra par la suite que cette méthode est préférable dans certains cas lorsque nous aborderons le cas de matrices paramétrées. Les itérations de Padé sont en quelque sorte des itérations de Newton d’ordre supérieur, c’est pourquoi elles convergent plus vite en terme d’itérations mais nécessitent globalement plus de temps de calcul que les itérations de Newton classiques. Finalement, on a montré que les méthodes de scaling nécessitent moins d’itérations que les autres méthodes, sauf dans certains cas précis, comme montrés dans les paragraphes précédents. Il est donc nécessaire de bien connaitre la matrice de départ afin de savoir si ces méthodes sont préférables aux itérations de Newton classiques, ce qui n’est pas évident au cas paramétré.
Fonction signe matricielle pour l’automatique
Cette partie a pour but d’éveiller les sens de l’automaticien. En introduisant la fonction signe matricielle pour des problèmes d’automatique. On y montrera la relation directe existante avec la stabilité robuste, puis ses liens avec les équations de Riccati, de Lyapunov et de Sylvester.
Liens avec les LMI
Plusieurs séries de tests ont été effectuées en vue de comparer l’approche LMI et l’approche itérative du calcul de la fonction signe matricielle pour résoudre des équations de Riccati linéaires de la forme . Ces tests ont été effectués pour des précisions identiques et sur des systèmes de différentes tailles. Les résultats ont montré que quelque soit la méthode utilisée pour calculer la solution de Riccati par la fonction signe, les solutions trouvées via les LMI prennent de manière significative plus de temps de calcul .
Méthode directe de résolution d’équations de Lyapunov
Le critère de performance H2 joue un rôle important dans l’analyse de performance et la commande des systèmes linéaires. Le problème de contrôle H2 est connu pour être un des premiers problèmes de commande optimale résolu de manière analytique [AM90]. Depuis les années 1970, de nombreux travaux ont trait à la recherche des limites de stabilité pour le contrôleur H2-optimal. Dans ce sens, des chercheurs ont proposé une analyse H2 robuste en une combinaison de robustesse et de performance H2 (voir [PF00] et références incluses). On trouve beaucoup de travaux dans la littérature concernant la performance H2 robuste [Fer 97], [Sto93] et des problèmes liés aux différentes combinaisons de performances H2 et H∞ [ZGB+94], [DZG+94]. On notera par exemple que quelques caractérisations pour la performance H2 robuste ont été proposées dans le domaine fréquentiel se basant sur la stabilité robuste et la performance H∞ [Pag99a], [Pag99b]. Bien que l’évaluation de la performance H2 robuste soit un sujet très abondant dans la littérature, c’est un domaine toujours ouvert.
De plus, un important problème de contrôle survient quand une structure spécifique d’un modèle général de commande est considérée. Cette structure dépend souvent de la structure du système elle-même, divisée en sous-systèmes. Elle dépend aussi des signaux accessibles pour la mesure et de la liberté de manipuler les variables de chaque contrôleur inclus dans le régulateur global. Trouver un régulateur H2 sous contrainte de structure est un problème d’optimisation difficile. Excepté dans les cas où la structure du contrôleur satisfait la propriété d’invariance quadratique [RL02], [Vou01], le problème est généralement nonconvexe. Même si beaucoup de procédures numériques sous-optimales [YC05] ont été développées afin de réduire le conservatisme et le temps de calcul pour ces problèmes, trouver des méthodes efficaces reste un problème difficile.
|
Table des matières
INTRODUCTION
PANORAMA SUR LA FONCTION SIGNE MATRICIELLE
2.1 LES PREMIERS PAS
2.1.1 Définition
2.1.2 Propriétés
2.1.3 La notion de signe étendu
2.2 MÉTHODES POUR LE CALCUL DE LA FONCTION SIGNE MATRICIELLE
2.2.1 Les méthodes directes
2.2.1.1 Décomposition de Schur
2.2.1.2 Les formes intégrales
2.2.2 Les méthodes itératives
2.2.2.1 Les itérations de Newton
2.2.2.2 Les itérations de Newton-Schultz
2.2.2.3 Les itérations de la famille Padé
2.2.2.4 Une dérivation de l’écriture de Padé
2.2.2.5 Scaling sur les itérations de Newton
2.2.2.6 Les itérations dérivées des polynômes de Laurent
2.3 COMPARAISON DES MÉTHODES ITÉRATIVES AU CAS CONSTANT
2.4 FONCTION SIGNE MATRICIELLE POUR L’AUTOMATIQUE
2.4.1 Liens entre la fonction signe matricielle et la stabilité robuste
2.4.2 Liens entre la fonction signe matricielle et l’équation de Riccati
2.4.3 Liens entre la fonction signe matricielle et l’équation de Lyapunov
2.4.4 Liens entre la fonction signe matricielle et l’équation de Sylvester
2.4.5 Liens avec les LMI
2.5 CONCLUSION
MÉTHODES NON-ITÉRATIVES
3.1 MÉTHODE DIRECTE DE RÉSOLUTION D’ÉQUATIONS DE LYAPUNOV
3.1.1 Définition du problème
3.1.1.1 Norme H2 d’un système
3.1.1.2 Analyse H2 robuste
3.1.1.3 Contrôle H2 par retour d’état structuré
3.1.2 Résolution d’équations de Lyapunov paramétrées
3.1.2.1 Méthode d’inversion directe
3.1.2.2 Méthode de transformée de Fourier Discrète
3.1.2.3 Exemples numériques
3.2 FONCTION SIGNE MATRICIELLE PARAMÉTRÉE : DÉFINITION INTÉGRALE
3.2.1 Introduction
3.2.2 Définitions et méthodes, classe de matrices
3.2.3 Extension au cas paramétré
3.2.3.1 Fonction signe matricielle
3.2.3.2 Extension au cas multi-paramétrique
3.2.3.3 Stabilité robuste, Equations de Lyapunov et de Riccati
3.3 CAS PARTICULIER
3.3.1 Ecriture de la fonction signe d’une matrice d’ordre 2
3.3.2 Résolution d’une équation de Lyapunov d’ordre 2
3.4 FONCTION SIGNE ET SPECTRE MATRICIEL
3.4.1 Introduction
3.4.2 Un algorithme pour la séparation de spectre
3.4.2.1 Le cas de matrices diagonalisables à coefficients constants
3.4.2.1 Le cas de matrices déficientes à coefficients constants
3.4.3 Une fonction signe matricielle pour la solution d’une équation de Sylvester paramétrique
3.5 CONCLUSION
MÉTHODES ITÉRATIVES
4.1 APPROXIMATION DE LA FONCTION SIGNE MATRICIELLE PAR LES POLYNÔMES DE LAURENT
4.1.1 Introduction
4.1.2 Préliminaires
4.1.2.1 Rappel sur les itérations de Newton-Shultz (N-S)
4.1.2.2 Application aux équations de Riccati
4.1.3 Problèmes ARE et CARE constants
4.1.4 Un approximant rationnel de la fonction signe matricielle
4.1.5 Méthode particulière pour le calcul de racines matricielles
4.1.6 Extension au cas paramétré
4.2 COMBINAISON DE LA FONCTION SIGNE MATRICIELLE ET DE L’INVERSION DFT
4.2.1 Introduction
4.2.2 Classe des matrices
4.2.3 Inversion de matrices polynomiales par la méthode de Transformation de Fourier Discrète
4.2.4 L’utilisation de la fonction signe matricielle
4.2.5 Un filtre de Kalman paramétrique estimant les harmoniques d’amplitude d’ondes
4.2.6 Modèle paramétré d’une aile flottante
4.3 LA FONCTION SIGNE MATRICIELLE ÉTENDUE POUR L’ÉTUDE DU DOMAINE DE STABILITÉ
4.3.1 Introduction
4.3.2 La fonction signe étendue
4.3.3 La fonction signe matricielle paramétrique
4.3.3.1 Inverse de Drazin généralisée
4.3.3.2 Fonction signe matricielle paramétrique étendue
4.3.4 Un algorithme pour la matrice signe paramétrique
4.4 CONCLUSION
CONCLUSION
BIBLIOGRAPHIE