ยซย Chaque chose au monde porte en elle sa rรฉponse, ce qui prend du temps ce sont les questionsย ยป. Josรฉ Saramago .
Aprรจs deux dรฉcennies oรน lโoptimisation convexe sous contraintes LMI [BE-GF+94], grรขce aux algorithmes de rรฉsolution efficaces sous-jacents, a reprรฉsentรฉ un outil presque inรฉvitable pour lโanalyse et/ou la commande des systรจmes LTI ร travers une approche unifiรฉe et gรฉnรฉrique, nous avons assistรฉ ร un รฉlargissement des classes de systรจmes traitรฉes par cet outil [Sco97]. Des travaux, tels que ceux de la thรจse de Marc Dinh [Din05] ร titre dโexemple, ont apportรฉ une pierre ร lโรฉdifice en permettant la mise sous forme de problรจmes dโoptimisation convexe sous contraintes LMI indรฉpendant du vecteur des paramรจtres pour tous les problรจmes dโanalyse et de commande se formulant comme des problรจmes dโoptimisation convexe sous contraintes LMI paramรฉtrรฉes (les paramรจtres sont supposรฉs appartenir ร un ensemble donnรฉ et รชtre constants dans le temps). Depuis, lโanalyse et la commande, ร titre dโexemple, des systรจmes LTV, de certains systรจmes non linรฉaires et/ou de dimension infinie sont devenues envisageables sous ce formalisme LMI. La classe des systรจmes Linรฉaires ร Paramรจtres Variant, une sous-classe importante des systรจmes LTV, a fait lโobjet dโun trรจs grand nombre de rรฉsultats sous ce mรชme formalisme (voire, sans prรฉtendre lโexhaustivitรฉ, les rรฉfรฉrences incluses dans la thรจse dโAnis Bouali [Bou08]). Plus rรฉcemment les travaux de [Che11], ร titre dโexemple, ont รฉlargi le spectre des problรจmes considรฉrรฉs en utilisant la programmation SOS (de lโanglais Sum of Squares) i.e. une technique dโoptimisation qui a รฉtรฉ dรฉveloppรฉe initialement par [Par00] et qui se base sur lโidรฉe simple quโun polynรดme est non nรฉgatif du moment quโon peut le reprรฉsenter sous forme dโune somme de carrรฉs de polynรดmes. Un moyen donc permettant de trouver des fonctions de Lyapunov (polynomiales ou ร dรฉpendance paramรฉtrique plus complexes) prouvant la stabilitรฉ du systรจme considรฉrรฉ. Il a รฉtรฉ ainsi possible de se ramener au formalisme LMI dans le cadre des systรจmes polynomiaux, des systรจmes polynomiaux incertains et mรชme certains systรจmes non-linรฉaires non polynomiaux (incertains).
Panorama sur la fonction signe matricielleย
Ce n’est pas dans la science qu’est le bonheur, mais dans l’acquisition de la science.ย Edgar Allan Poeย .
La matrice dite โLotkinโ de taille n = 10 provient de la galerie de matrices dans Matlab, gallery(โlotkinโ, 10). Il sโagit dโune matrice mal conditionnรฉe contenant beaucoup de valeurs propres nรฉgatives, de faible magnitude. Plus la taille de la matrice est grande, plus on aura des valeurs propres proches de 0. Cette matrice est prรฉsentรฉe afin de montrer lโefficacitรฉ des mรฉthodes de scaling, elles ont en effet besoin de beaucoup moins dโitรฉrations pour converger.
La matrice dite โGrcarโ de taille n = 50 provient รฉgalement de la galerie de matrices dans Matlab, gallery(โgrcarโ, 50). Il sโagit dโune matrice de Toeplitz avec des valeurs propres sensibles, toutes les valeurs propres sont complexes conjuguรฉes. Cette matrice est prรฉsentรฉe afin de montrer quโelle pose problรจme dans le cas du scaling de norme. Elle est dans ce cas pire en termes dโitรฉrations que la mรฉthode de Newton classique.
Les deux derniers types de matrices ont des valeurs propres รฉgales ร 1 sauf pour une valeur propre grande, rรฉelle dans lโavant dernier cas et imaginaire dans le dernier. Ces deux derniers types de matrices sont prรฉsentรฉs afin de montrer la difficultรฉ pour le scaling de dรฉterminant. En effet, mรชme si elle nรฉcessite moins dโitรฉrations que la mรฉthode de Newton classique, elle a besoin de beaucoup plus dโitรฉrations que les autres mรฉthodes de scaling.
On remarque que la mรฉthode de Newton-Shultz est la plus gourmande gรฉnรฉralement en terme dโitรฉrations. Cela sโexplique par le fait quโelle nโutilise aucune inversion de matrices. Nรฉanmoins, on verra par la suite que cette mรฉthode est prรฉfรฉrable dans certains cas lorsque nous aborderons le cas de matrices paramรฉtrรฉes. Les itรฉrations de Padรฉ sont en quelque sorte des itรฉrations de Newton dโordre supรฉrieur, cโest pourquoi elles convergent plus vite en terme dโitรฉrations mais nรฉcessitent globalement plus de temps de calcul que les itรฉrations de Newton classiques. Finalement, on a montrรฉ que les mรฉthodes de scaling nรฉcessitent moins dโitรฉrations que les autres mรฉthodes, sauf dans certains cas prรฉcis, comme montrรฉs dans les paragraphes prรฉcรฉdents. Il est donc nรฉcessaire de bien connaitre la matrice de dรฉpart afin de savoir si ces mรฉthodes sont prรฉfรฉrables aux itรฉrations de Newton classiques, ce qui nโest pas รฉvident au cas paramรฉtrรฉ.
Fonction signe matricielle pour lโautomatique
Cette partie a pour but dโรฉveiller les sens de lโautomaticien. En introduisant la fonction signe matricielle pour des problรจmes dโautomatique. On y montrera la relation directe existante avec la stabilitรฉ robuste, puis ses liens avec les รฉquations de Riccati, de Lyapunov et de Sylvester.
Liens avec les LMI
Plusieurs sรฉries de tests ont รฉtรฉ effectuรฉes en vue de comparer lโapproche LMI et lโapproche itรฉrative du calcul de la fonction signe matricielle pour rรฉsoudre des รฉquations de Riccati linรฉaires de la forme . Ces tests ont รฉtรฉ effectuรฉs pour des prรฉcisions identiques et sur des systรจmes de diffรฉrentes tailles. Les rรฉsultats ont montrรฉ que quelque soit la mรฉthode utilisรฉe pour calculer la solution de Riccati par la fonction signe, les solutions trouvรฉes via les LMI prennent de maniรจre significative plus de temps de calcul .
Mรฉthode directe de rรฉsolution dโรฉquations de Lyapunovย
Le critรจre de performance H2 joue un rรดle important dans lโanalyse de performance et la commande des systรจmes linรฉaires. Le problรจme de contrรดle H2 est connu pour รชtre un des premiers problรจmes de commande optimale rรฉsolu de maniรจre analytique [AM90]. Depuis les annรฉes 1970, de nombreux travaux ont trait ร la recherche des limites de stabilitรฉ pour le contrรดleur H2-optimal. Dans ce sens, des chercheurs ont proposรฉ une analyse H2 robuste en une combinaison de robustesse et de performance H2 (voir [PF00] et rรฉfรฉrences incluses). On trouve beaucoup de travaux dans la littรฉrature concernant la performance H2 robuste [Fer 97], [Sto93] et des problรจmes liรฉs aux diffรฉrentes combinaisons de performances H2 et Hโ [ZGB+94], [DZG+94]. On notera par exemple que quelques caractรฉrisations pour la performance H2 robuste ont รฉtรฉ proposรฉes dans le domaine frรฉquentiel se basant sur la stabilitรฉ robuste et la performance Hโ [Pag99a], [Pag99b]. Bien que lโรฉvaluation de la performance H2 robuste soit un sujet trรจs abondant dans la littรฉrature, cโest un domaine toujours ouvert.
De plus, un important problรจme de contrรดle survient quand une structure spรฉcifique dโun modรจle gรฉnรฉral de commande est considรฉrรฉe. Cette structure dรฉpend souvent de la structure du systรจme elle-mรชme, divisรฉe en sous-systรจmes. Elle dรฉpend aussi des signaux accessibles pour la mesure et de la libertรฉ de manipuler les variables de chaque contrรดleur inclus dans le rรฉgulateur global. Trouver un rรฉgulateur H2 sous contrainte de structure est un problรจme dโoptimisation difficile. Exceptรฉ dans les cas oรน la structure du contrรดleur satisfait la propriรฉtรฉ dโinvariance quadratique [RL02], [Vou01], le problรจme est gรฉnรฉralement nonconvexe. Mรชme si beaucoup de procรฉdures numรฉriques sous-optimales [YC05] ont รฉtรฉ dรฉveloppรฉes afin de rรฉduire le conservatisme et le temps de calcul pour ces problรจmes, trouver des mรฉthodes efficaces reste un problรจme difficile.
|
Table des matiรจres
INTRODUCTION
PANORAMA SUR LA FONCTION SIGNE MATRICIELLE
2.1 LES PREMIERS PAS
2.1.1 Dรฉfinition
2.1.2 Propriรฉtรฉs
2.1.3 La notion de signe รฉtendu
2.2 MรTHODES POUR LE CALCUL DE LA FONCTION SIGNE MATRICIELLE
2.2.1 Les mรฉthodes directes
2.2.1.1 Dรฉcomposition de Schur
2.2.1.2 Les formes intรฉgrales
2.2.2 Les mรฉthodes itรฉratives
2.2.2.1 Les itรฉrations de Newton
2.2.2.2 Les itรฉrations de Newton-Schultz
2.2.2.3 Les itรฉrations de la famille Padรฉ
2.2.2.4 Une dรฉrivation de lโรฉcriture de Padรฉ
2.2.2.5 Scaling sur les itรฉrations de Newton
2.2.2.6 Les itรฉrations dรฉrivรฉes des polynรดmes de Laurent
2.3 COMPARAISON DES MรTHODES ITรRATIVES AU CAS CONSTANT
2.4 FONCTION SIGNE MATRICIELLE POUR LโAUTOMATIQUE
2.4.1 Liens entre la fonction signe matricielle et la stabilitรฉ robuste
2.4.2 Liens entre la fonction signe matricielle et lโรฉquation de Riccati
2.4.3 Liens entre la fonction signe matricielle et lโรฉquation de Lyapunov
2.4.4 Liens entre la fonction signe matricielle et lโรฉquation de Sylvester
2.4.5 Liens avec les LMI
2.5 CONCLUSION
MรTHODES NON-ITรRATIVES
3.1 MรTHODE DIRECTE DE RรSOLUTION DโรQUATIONS DE LYAPUNOV
3.1.1 Dรฉfinition du problรจme
3.1.1.1 Norme H2 dโun systรจme
3.1.1.2 Analyse H2 robuste
3.1.1.3 Contrรดle H2 par retour dโรฉtat structurรฉ
3.1.2 Rรฉsolution dโรฉquations de Lyapunov paramรฉtrรฉes
3.1.2.1 Mรฉthode dโinversion directe
3.1.2.2 Mรฉthode de transformรฉe de Fourier Discrรจte
3.1.2.3 Exemples numรฉriques
3.2 FONCTION SIGNE MATRICIELLE PARAMรTRรE : DรFINITION INTรGRALE
3.2.1 Introduction
3.2.2 Dรฉfinitions et mรฉthodes, classe de matrices
3.2.3 Extension au cas paramรฉtrรฉ
3.2.3.1 Fonction signe matricielle
3.2.3.2 Extension au cas multi-paramรฉtrique
3.2.3.3 Stabilitรฉ robuste, Equations de Lyapunov et de Riccati
3.3 CAS PARTICULIER
3.3.1 Ecriture de la fonction signe dโune matrice dโordre 2
3.3.2 Rรฉsolution dโune รฉquation de Lyapunov dโordre 2
3.4 FONCTION SIGNE ET SPECTRE MATRICIEL
3.4.1 Introduction
3.4.2 Un algorithme pour la sรฉparation de spectre
3.4.2.1 Le cas de matrices diagonalisables ร coefficients constants
3.4.2.1 Le cas de matrices dรฉficientes ร coefficients constants
3.4.3 Une fonction signe matricielle pour la solution dโune รฉquation de Sylvester paramรฉtrique
3.5 CONCLUSION
MรTHODES ITรRATIVES
4.1 APPROXIMATION DE LA FONCTION SIGNE MATRICIELLE PAR LES POLYNรMES DE LAURENT
4.1.1 Introduction
4.1.2 Prรฉliminaires
4.1.2.1 Rappel sur les itรฉrations de Newton-Shultz (N-S)
4.1.2.2 Application aux รฉquations de Riccati
4.1.3 Problรจmes ARE et CARE constants
4.1.4 Un approximant rationnel de la fonction signe matricielle
4.1.5 Mรฉthode particuliรจre pour le calcul de racines matricielles
4.1.6 Extension au cas paramรฉtrรฉ
4.2 COMBINAISON DE LA FONCTION SIGNE MATRICIELLE ET DE LโINVERSION DFT
4.2.1 Introduction
4.2.2 Classe des matrices
4.2.3 Inversion de matrices polynomiales par la mรฉthode de Transformation de Fourier Discrรจte
4.2.4 Lโutilisation de la fonction signe matricielle
4.2.5 Un filtre de Kalman paramรฉtrique estimant les harmoniques dโamplitude dโondes
4.2.6 Modรจle paramรฉtrรฉ dโune aile flottante
4.3 LA FONCTION SIGNE MATRICIELLE รTENDUE POUR LโรTUDE DU DOMAINE DE STABILITร
4.3.1 Introduction
4.3.2 La fonction signe รฉtendue
4.3.3 La fonction signe matricielle paramรฉtrique
4.3.3.1 Inverse de Drazin gรฉnรฉralisรฉe
4.3.3.2 Fonction signe matricielle paramรฉtrique รฉtendue
4.3.4 Un algorithme pour la matrice signe paramรฉtrique
4.4 CONCLUSION
CONCLUSION
BIBLIOGRAPHIE