Panorama sur la fonction signe matricielle

ยซย Chaque chose au monde porte en elle sa rรฉponse, ce qui prend du temps ce sont les questionsย ยป. Josรฉ Saramago .

Aprรจs deux dรฉcennies oรน lโ€™optimisation convexe sous contraintes LMI [BE-GF+94], grรขce aux algorithmes de rรฉsolution efficaces sous-jacents, a reprรฉsentรฉ un outil presque inรฉvitable pour lโ€™analyse et/ou la commande des systรจmes LTI ร  travers une approche unifiรฉe et gรฉnรฉrique, nous avons assistรฉ ร  un รฉlargissement des classes de systรจmes traitรฉes par cet outil [Sco97]. Des travaux, tels que ceux de la thรจse de Marc Dinh [Din05] ร  titre dโ€™exemple, ont apportรฉ une pierre ร  lโ€™รฉdifice en permettant la mise sous forme de problรจmes dโ€™optimisation convexe sous contraintes LMI indรฉpendant du vecteur des paramรจtres pour tous les problรจmes dโ€™analyse et de commande se formulant comme des problรจmes dโ€™optimisation convexe sous contraintes LMI paramรฉtrรฉes (les paramรจtres sont supposรฉs appartenir ร  un ensemble donnรฉ et รชtre constants dans le temps). Depuis, lโ€™analyse et la commande, ร  titre dโ€™exemple, des systรจmes LTV, de certains systรจmes non linรฉaires et/ou de dimension infinie sont devenues envisageables sous ce formalisme LMI. La classe des systรจmes Linรฉaires ร  Paramรจtres Variant, une sous-classe importante des systรจmes LTV, a fait lโ€™objet dโ€™un trรจs grand nombre de rรฉsultats sous ce mรชme formalisme (voire, sans prรฉtendre lโ€™exhaustivitรฉ, les rรฉfรฉrences incluses dans la thรจse dโ€™Anis Bouali [Bou08]). Plus rรฉcemment les travaux de [Che11], ร  titre dโ€™exemple, ont รฉlargi le spectre des problรจmes considรฉrรฉs en utilisant la programmation SOS (de lโ€™anglais Sum of Squares) i.e. une technique dโ€™optimisation qui a รฉtรฉ dรฉveloppรฉe initialement par [Par00] et qui se base sur lโ€™idรฉe simple quโ€™un polynรดme est non nรฉgatif du moment quโ€™on peut le reprรฉsenter sous forme dโ€™une somme de carrรฉs de polynรดmes. Un moyen donc permettant de trouver des fonctions de Lyapunov (polynomiales ou ร  dรฉpendance paramรฉtrique plus complexes) prouvant la stabilitรฉ du systรจme considรฉrรฉ. Il a รฉtรฉ ainsi possible de se ramener au formalisme LMI dans le cadre des systรจmes polynomiaux, des systรจmes polynomiaux incertains et mรชme certains systรจmes non-linรฉaires non polynomiaux (incertains).

Panorama sur la fonction signe matricielleย 

Ce n’est pas dans la science qu’est le bonheur, mais dans l’acquisition de la science.ย  Edgar Allan Poeย  .

La matrice dite โ€˜Lotkinโ€™ de taille n = 10 provient de la galerie de matrices dans Matlab, gallery(โ€˜lotkinโ€™, 10). Il sโ€™agit dโ€™une matrice mal conditionnรฉe contenant beaucoup de valeurs propres nรฉgatives, de faible magnitude. Plus la taille de la matrice est grande, plus on aura des valeurs propres proches de 0. Cette matrice est prรฉsentรฉe afin de montrer lโ€™efficacitรฉ des mรฉthodes de scaling, elles ont en effet besoin de beaucoup moins dโ€™itรฉrations pour converger.

La matrice dite โ€˜Grcarโ€™ de taille n = 50 provient รฉgalement de la galerie de matrices dans Matlab, gallery(โ€˜grcarโ€™, 50). Il sโ€™agit dโ€™une matrice de Toeplitz avec des valeurs propres sensibles, toutes les valeurs propres sont complexes conjuguรฉes. Cette matrice est prรฉsentรฉe afin de montrer quโ€™elle pose problรจme dans le cas du scaling de norme. Elle est dans ce cas pire en termes dโ€™itรฉrations que la mรฉthode de Newton classique.

Les deux derniers types de matrices ont des valeurs propres รฉgales ร  1 sauf pour une valeur propre grande, rรฉelle dans lโ€™avant dernier cas et imaginaire dans le dernier. Ces deux derniers types de matrices sont prรฉsentรฉs afin de montrer la difficultรฉ pour le scaling de dรฉterminant. En effet, mรชme si elle nรฉcessite moins dโ€™itรฉrations que la mรฉthode de Newton classique, elle a besoin de beaucoup plus dโ€™itรฉrations que les autres mรฉthodes de scaling.

On remarque que la mรฉthode de Newton-Shultz est la plus gourmande gรฉnรฉralement en terme dโ€™itรฉrations. Cela sโ€™explique par le fait quโ€™elle nโ€™utilise aucune inversion de matrices. Nรฉanmoins, on verra par la suite que cette mรฉthode est prรฉfรฉrable dans certains cas lorsque nous aborderons le cas de matrices paramรฉtrรฉes. Les itรฉrations de Padรฉ sont en quelque sorte des itรฉrations de Newton dโ€™ordre supรฉrieur, cโ€™est pourquoi elles convergent plus vite en terme dโ€™itรฉrations mais nรฉcessitent globalement plus de temps de calcul que les itรฉrations de Newton classiques. Finalement, on a montrรฉ que les mรฉthodes de scaling nรฉcessitent moins dโ€™itรฉrations que les autres mรฉthodes, sauf dans certains cas prรฉcis, comme montrรฉs dans les paragraphes prรฉcรฉdents. Il est donc nรฉcessaire de bien connaitre la matrice de dรฉpart afin de savoir si ces mรฉthodes sont prรฉfรฉrables aux itรฉrations de Newton classiques, ce qui nโ€™est pas รฉvident au cas paramรฉtrรฉ.

Fonction signe matricielle pour lโ€™automatique

Cette partie a pour but dโ€™รฉveiller les sens de lโ€™automaticien. En introduisant la fonction signe matricielle pour des problรจmes dโ€™automatique. On y montrera la relation directe existante avec la stabilitรฉ robuste, puis ses liens avec les รฉquations de Riccati, de Lyapunov et de Sylvester.

Liens avec les LMI

Plusieurs sรฉries de tests ont รฉtรฉ effectuรฉes en vue de comparer lโ€™approche LMI et lโ€™approche itรฉrative du calcul de la fonction signe matricielle pour rรฉsoudre des รฉquations de Riccati linรฉaires de la forme . Ces tests ont รฉtรฉ effectuรฉs pour des prรฉcisions identiques et sur des systรจmes de diffรฉrentes tailles. Les rรฉsultats ont montrรฉ que quelque soit la mรฉthode utilisรฉe pour calculer la solution de Riccati par la fonction signe, les solutions trouvรฉes via les LMI prennent de maniรจre significative plus de temps de calcul .

Mรฉthode directe de rรฉsolution dโ€™รฉquations de Lyapunovย 

Le critรจre de performance H2 joue un rรดle important dans lโ€™analyse de performance et la commande des systรจmes linรฉaires. Le problรจme de contrรดle H2 est connu pour รชtre un des premiers problรจmes de commande optimale rรฉsolu de maniรจre analytique [AM90]. Depuis les annรฉes 1970, de nombreux travaux ont trait ร  la recherche des limites de stabilitรฉ pour le contrรดleur H2-optimal. Dans ce sens, des chercheurs ont proposรฉ une analyse H2 robuste en une combinaison de robustesse et de performance H2 (voir [PF00] et rรฉfรฉrences incluses). On trouve beaucoup de travaux dans la littรฉrature concernant la performance H2 robuste [Fer 97], [Sto93] et des problรจmes liรฉs aux diffรฉrentes combinaisons de performances H2 et Hโˆž [ZGB+94], [DZG+94]. On notera par exemple que quelques caractรฉrisations pour la performance H2 robuste ont รฉtรฉ proposรฉes dans le domaine frรฉquentiel se basant sur la stabilitรฉ robuste et la performance Hโˆž [Pag99a], [Pag99b]. Bien que lโ€™รฉvaluation de la performance H2 robuste soit un sujet trรจs abondant dans la littรฉrature, cโ€™est un domaine toujours ouvert.

De plus, un important problรจme de contrรดle survient quand une structure spรฉcifique dโ€™un modรจle gรฉnรฉral de commande est considรฉrรฉe. Cette structure dรฉpend souvent de la structure du systรจme elle-mรชme, divisรฉe en sous-systรจmes. Elle dรฉpend aussi des signaux accessibles pour la mesure et de la libertรฉ de manipuler les variables de chaque contrรดleur inclus dans le rรฉgulateur global. Trouver un rรฉgulateur H2 sous contrainte de structure est un problรจme dโ€™optimisation difficile. Exceptรฉ dans les cas oรน la structure du contrรดleur satisfait la propriรฉtรฉ dโ€™invariance quadratique [RL02], [Vou01], le problรจme est gรฉnรฉralement nonconvexe. Mรชme si beaucoup de procรฉdures numรฉriques sous-optimales [YC05] ont รฉtรฉ dรฉveloppรฉes afin de rรฉduire le conservatisme et le temps de calcul pour ces problรจmes, trouver des mรฉthodes efficaces reste un problรจme difficile.

Le rapport de stage ou le pfe est un document dโ€™analyse, de synthรจse et dโ€™รฉvaluation de votre apprentissage, cโ€™est pour cela chatpfe.com propose le tรฉlรฉchargement des modรจles complet de projet de fin dโ€™รฉtude, rapport de stage, mรฉmoire, pfe, thรจse, pour connaรฎtre la mรฉthodologie ร  avoir et savoir comment construire les parties dโ€™un projet de fin dโ€™รฉtude.

Table des matiรจres

INTRODUCTION
PANORAMA SUR LA FONCTION SIGNE MATRICIELLE
2.1 LES PREMIERS PAS
2.1.1 Dรฉfinition
2.1.2 Propriรฉtรฉs
2.1.3 La notion de signe รฉtendu
2.2 Mร‰THODES POUR LE CALCUL DE LA FONCTION SIGNE MATRICIELLE
2.2.1 Les mรฉthodes directes
2.2.1.1 Dรฉcomposition de Schur
2.2.1.2 Les formes intรฉgrales
2.2.2 Les mรฉthodes itรฉratives
2.2.2.1 Les itรฉrations de Newton
2.2.2.2 Les itรฉrations de Newton-Schultz
2.2.2.3 Les itรฉrations de la famille Padรฉ
2.2.2.4 Une dรฉrivation de lโ€™รฉcriture de Padรฉ
2.2.2.5 Scaling sur les itรฉrations de Newton
2.2.2.6 Les itรฉrations dรฉrivรฉes des polynรดmes de Laurent
2.3 COMPARAISON DES Mร‰THODES ITร‰RATIVES AU CAS CONSTANT
2.4 FONCTION SIGNE MATRICIELLE POUR Lโ€™AUTOMATIQUE
2.4.1 Liens entre la fonction signe matricielle et la stabilitรฉ robuste
2.4.2 Liens entre la fonction signe matricielle et lโ€™รฉquation de Riccati
2.4.3 Liens entre la fonction signe matricielle et lโ€™รฉquation de Lyapunov
2.4.4 Liens entre la fonction signe matricielle et lโ€™รฉquation de Sylvester
2.4.5 Liens avec les LMI
2.5 CONCLUSION
Mร‰THODES NON-ITร‰RATIVES
3.1 Mร‰THODE DIRECTE DE Rร‰SOLUTION Dโ€™ร‰QUATIONS DE LYAPUNOV
3.1.1 Dรฉfinition du problรจme
3.1.1.1 Norme H2 dโ€™un systรจme
3.1.1.2 Analyse H2 robuste
3.1.1.3 Contrรดle H2 par retour dโ€™รฉtat structurรฉ
3.1.2 Rรฉsolution dโ€™รฉquations de Lyapunov paramรฉtrรฉes
3.1.2.1 Mรฉthode dโ€™inversion directe
3.1.2.2 Mรฉthode de transformรฉe de Fourier Discrรจte
3.1.2.3 Exemples numรฉriques
3.2 FONCTION SIGNE MATRICIELLE PARAMร‰TRร‰E : Dร‰FINITION INTร‰GRALE
3.2.1 Introduction
3.2.2 Dรฉfinitions et mรฉthodes, classe de matrices
3.2.3 Extension au cas paramรฉtrรฉ
3.2.3.1 Fonction signe matricielle
3.2.3.2 Extension au cas multi-paramรฉtrique
3.2.3.3 Stabilitรฉ robuste, Equations de Lyapunov et de Riccati
3.3 CAS PARTICULIER
3.3.1 Ecriture de la fonction signe dโ€™une matrice dโ€™ordre 2
3.3.2 Rรฉsolution dโ€™une รฉquation de Lyapunov dโ€™ordre 2
3.4 FONCTION SIGNE ET SPECTRE MATRICIEL
3.4.1 Introduction
3.4.2 Un algorithme pour la sรฉparation de spectre
3.4.2.1 Le cas de matrices diagonalisables ร  coefficients constants
3.4.2.1 Le cas de matrices dรฉficientes ร  coefficients constants
3.4.3 Une fonction signe matricielle pour la solution dโ€™une รฉquation de Sylvester paramรฉtrique
3.5 CONCLUSION
Mร‰THODES ITร‰RATIVES
4.1 APPROXIMATION DE LA FONCTION SIGNE MATRICIELLE PAR LES POLYNร”MES DE LAURENT
4.1.1 Introduction
4.1.2 Prรฉliminaires
4.1.2.1 Rappel sur les itรฉrations de Newton-Shultz (N-S)
4.1.2.2 Application aux รฉquations de Riccati
4.1.3 Problรจmes ARE et CARE constants
4.1.4 Un approximant rationnel de la fonction signe matricielle
4.1.5 Mรฉthode particuliรจre pour le calcul de racines matricielles
4.1.6 Extension au cas paramรฉtrรฉ
4.2 COMBINAISON DE LA FONCTION SIGNE MATRICIELLE ET DE Lโ€™INVERSION DFT
4.2.1 Introduction
4.2.2 Classe des matrices
4.2.3 Inversion de matrices polynomiales par la mรฉthode de Transformation de Fourier Discrรจte
4.2.4 Lโ€™utilisation de la fonction signe matricielle
4.2.5 Un filtre de Kalman paramรฉtrique estimant les harmoniques dโ€™amplitude dโ€™ondes
4.2.6 Modรจle paramรฉtrรฉ dโ€™une aile flottante
4.3 LA FONCTION SIGNE MATRICIELLE ร‰TENDUE POUR Lโ€™ร‰TUDE DU DOMAINE DE STABILITร‰
4.3.1 Introduction
4.3.2 La fonction signe รฉtendue
4.3.3 La fonction signe matricielle paramรฉtrique
4.3.3.1 Inverse de Drazin gรฉnรฉralisรฉe
4.3.3.2 Fonction signe matricielle paramรฉtrique รฉtendue
4.3.4 Un algorithme pour la matrice signe paramรฉtrique
4.4 CONCLUSION
CONCLUSION
BIBLIOGRAPHIE

Lire le rapport complet

Tรฉlรฉcharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiรฉe. Les champs obligatoires sont indiquรฉs avec *