Méthodes non contractantes : méthodes du complément de Schur
On a vu dans la section précédente que les premières Méthodes de Décomposition de Domaine, ou méthodes de Schwarz, produisaient des systèmes linéaires avec opérateurs contractants, et pouvaient être vues comme des techniques de point fixe. De plus, la plupart de ces méthodes impliquaient la présence d’un recouvrement entre les différents sous-domaines. Augmenter la taille du recouvrement permettait alors d’augmenter la vitesse de résolution. Toutefois, un large recouvrement implique également une grande quantité d’information à échanger entre les sous-domaines, et donc de communications entre les processeurs dans le cas d’une programmation parallèle. Ainsi, le gain de temps CPU n’est-il pas uniquement dépendant du taux de convergence de l’algorithme, mais également de la diminution des communications au cours de la résolution, et la découverte ainsi que le développement de techniques de méthodes DD sans recouvrement fut-il naturel. Durant la deuxième moitié du 20è siècle, la découverte et le développement des solveurs de Krylov a révolutionné la résolution des problèmes linéaires en parallèle. Ils permirent, d’une part, d’accélerer les méthodes de Schwarz, mais surtout, participèrent de l’essor d’un nouveau type de méthodes DD, ne possédant pas la propriété de contractance et n’étant donc pas résolus par une méthode de point fixe. La grande fiabilité et extensibilité acquises au fur et à mesure de leur optimisation devrait encourager les développeurs de codes de calculs industriels à implémenter ces nouveaux solveurs dans un futur proche [Farhat, 1994, Le Tallec, 1994, Farhat et al., 2001, Gosselet and Rey, 2006].
Méthode LaTIn
Ce chapitre bibliographique ne saurait être complet sans une dernière référence, faite à la méthode LaTIn (Large Time Increment) [Ladevèze, 1985, Ladevèze and Dureisseix, 1999], alternative aux méthodes NKS pour traiter des problèmes non linéaires d’évolution à grand nombre de degrés de liberté, à rapprocher d’une méthode de Schwarz optimisé non linéaire et d’une méthode de directions alternées [Godlewski, 1980]. Cette méthode est basée sur la séparation des équations en deux types:
→ Les équations linéaires, i.e. les équations de liaison, d’équilibre aux interfaces… Elles définissent l’espace vectoriel conventionnellement noté Ad (voir la figure 1.8).
→ Les équations locales, éventuellement non linéaires, i.e. les lois d’évolution des matériaux, lois de contact, etc… Elles définissent la variété conventionnellement notée Γ (voir la figure 1.8).
La méthode LaTIn utilise une résolution itérative en deux étapes : à chaque itération, on va résoudre successivement les équations locales et globales, au moyen de directions de recherche E+ et E− qui permettent de relier les deux espaces de solutions. Si les fonctions dépendent du temps, la solution est cherchée à chaque fois sur tout le domaine espace × temps. La non linéarité est traitée par une approche en contraintes, donc aux points de Gauss. Le parallélisme de la méthode est très bon en mono-échelle, cependant afin d’améliorer son extensibilité, l’ajout d’un problème macroscopique est souvent nécessaire, qu’il concerne le domaine spatial [Cresta, 2008] ou temporel [Ladeveze et al., 2010a, Passieux et al., 2010].
À propos de l’existence des analogues non linéaires aux compléments de Schur
L’hypothèse d’existence des compléments de Schur non linéaires primal, dual et mixte est implicitement requise dans les sections précédentes. Dans le contexte de problèmes mécaniques bien posés, l’existence de ces opérateurs est très probable – au moins localement : le lecteur pourra se référer à [Ciarlet, 2013] pour une liste des contextes non linéaires où les solutions des problèmes définis plus haut existent. Cependant, la formulation, le matériau, ainsi que la forme des sous structures limitent fortement les domaines d’existence et d’unicité des solutions aux problèmes de Dirichlet, Neumann ou de Robin. Typiquement, en grands déplacements, l’usage de chargements en compression importants devrait être proscrit, étant donné le risque d’instabilités (flambement par exemple) ; à l’inverse dans le cas de l’étude d’un comportement endommageable, les chargements en traction sont à limiter. La figure 2.2 donne un aperçu de ces deux risques potentiels. L’existence globale des opérateurs Snl, Fnl et Hnl peut être prouvée dans le cas d’opérateurs maximaux monotones coercifs et continus – voir [Erdos, 1978, Showalter, 2013] par exemple pour une analyse au niveau de la formulation variationnelle, et [Feistauer and Ženíšek, 1986] pour une analyse de l’approximation éléments finis. Mécaniquement parlant, ce contexte se retrouve dans le cas de comportements plastiques à écrouissage positif, et certaines lois de contact – toujours sous contrainte de petites déformations [Ladevèze, 1985, Ladevèze, 2012]. Les problèmes de Dirichlet, Neumann ou de Robin sont alors bien posés : la solution existe, est unique et varie continûment avec le chargement. Le théorème de continuité de la trace permet de déMéthodes fortement parallèles en mécanique non linéaire des structures finir la condensation de Schur des opérateurs impliqués dans ces contextes ; de plus, les compléments de Schur héritent des propriétés du problème global (typiquement, la monotonie, la coercivité et la continuité : voir [Hauer, 2015] et la bibliographie associée), ce qui assure aux problèmes globaux condensés aux interfaces (2.9), (2.14) et (2.24) d’être bien posés.
Analyse au niveau variationnel
En se plaçant au niveau de l’analyse variationnelle, un simple scalaire (ou tenseur dans le cas anistrope) par interface peut déjà rendre compte de certains phénomènes : dans le cadre de la méthode LaTIn par exemple, où les directions de recherche sont assimilables au paramètre de Robin dans notre cas, une interprétation en termes de grandeurs globales peut être choisie, telle que le ratio E/LΓ, où E est le module d’Young du matériau et LΓ la grandeur caractéristique de l’interface – un facteur de pondération peut également être introduit afin d’accélerer la résolution, correspondant par exemple à la rigidité globale, soit le ratio entre force appliquée et déflexion maximum [Saavedra et al., 2017]. La structure matricielle de la discrétisation de cet opérateur– assimilable à une matrice de masse – n’étant pas toujours adaptée, on peut avoir recours à des techniques de lumping, éventuellement diagonal (super-lumping) pour retrouver une commode sparsité. Toujours dans le cadre de la méthode LaTIn, une stratégie extrême consiste à éliminer du raisonnement les efforts d’interface – quantités appartenant à l’espace de Sobolev fractionnaire H−1/2 (∂Ω) – en introduisant un « représentant » dans l’espace H1/2 (∂Ω) du travail associé [Desmeure et al., 2011]. En effet, dans le cadre sousstructuré, la méthode LaTIn permet de découpler les équations locales (comportement à l’intérieur des domaines) des équations d’interface, permettant ainsi d’associer des comportements complexes à ces dernières (lois de contact par exemple). Cependant,cette possibilité doit être associée à une discrétisation adaptée : on pourra par exemple utiliser des éléments P1 pour les déplacements internes aux sous-domaines, et des éléments P0 pour les quantités d’interface (permettant de représenter la non-continuité des efforts d’interface et sauts de déplacements d’interface). Le calcul des efforts à l’interface est alors effectué aux points de Gauss, et un raccord de type mortar [Bernardi, 1994] est nécessaire pour faire le lien entre sous-structures et interfaces, que les maillages soient compatibles ou non. Le théorème de Riesz permet d’exhiber un représentant unique dans H1/2 (∂Ω) de la forme linéaire continue associée au travail Méthodes fortement parallèles en mécanique non linéaire des structures des efforts d’interface, et ainsi de s’affranchir des problèmes de discrétisation et d’interpolation. La reformulation de la méthode LaTIn sous-structurée passe alors par le produit scalaire dans H1/2 (∂Ω), et on peut l’interpréter notamment comme une modification de la direction de recherche, avec – au niveau discrétisé – ajout d’un terme plein : une adaptation de cette stratégie semble peu raisonnable dans notre contexte, où l’on cherche à conserver une structure aisément exploitable pour l’impédance d’interface.
Conclusion et perspectives
Les quatre chapitres de ce manuscrit ont cherché à apporter une réponse à deux objectifs étroitement liés :
− la robustification des solveurs non linéaires parallèles
− la diminution de la quantité d’information échangée entre les cœurs impliqués dans le processus de résolution
Cette réponse – non exhaustive – a été construite en s’appuyant sur une formulation existante favorisant le caractère local des opérations non linéaires au cours du processus de résolution, et s’étendant au-delà de ce cadre à partir de deux idées majeures : la première s’axe autour de l’optimisation d’un paramètre introduit dans la formulation du solveur, permettant d’accélérer la vitesse de convergence, tandis que la deuxième opère une refonte du processus de résolution permettant d’améliorer ses performances théoriques, sans toutefois complexifier sa technicité d’implémentation. Dans un premier temps, les fondements et le cadre théoriques des solveurs non linéaires parallèles, et plus précisément de la méthode de sous-structuration et condensation non linéaires, ont été développés dans le détail. Ce processus de résolution consiste à découper le problème non linéaire à résoudre (équation aux dérivées partielles dans un domaine muni de conditions aux limites) en sous-problèmes définis à partir d’une sous-structuration du domaine physique (afin de conserver un découplage de la majorité des degrés de liberté, et donc la structure creuse des opérateurs discrétisés par la méthode des éléments finis). Sur les degrés de liberté partagés par au moins deux sous-domaines – i.e. sur l’interface globale définie par la sous structuration, – des conditions de continuité en déplacement et d’équilibre des efforts entre les sous-domaines permettent de définir un problème condensé, tandis que les quantités d’interface sont évaluées localement par les équilibres non linéaires de chaque sous-domaine. Un algorithme de Newton appliqué à ce problème non linéaire condensé à l’interface globale – portant sur l’assemblage des quantités d’interface locales – produit une suite de problèmes tangents, dont la résolution (linéaire) est effectuée par une méthode de Décomposition de Domaine classique, s’appuyant sur la même sous-structuration que celle du problème non linéaire. Méthodes fortement parallèles en mécanique non linéaire des structures Trois types de conditions de transmission aux interfaces ont permis de définir trois approches pour la méthode de sous-structuration et condensation non linéaires : la première, ou approche primale, choisit pour inconnue le déplacement, continu aux interfaces, la deuxième, ou approche duale, choisit pour inconnue la réaction nodale, équilibrée aux interfaces, la troisième enfin, ou approche mixte, définit l’inconnue d’interface comme une combinaison linéaire des déplacements et efforts, homogène à une réaction nodale. Dans le cas primal, le résidu d’interface non linéaire est constitué du déséquilibre des efforts, dans le cas dual du saut de déplacement ; dans le cas mixte il provient d’une combinaison des deux. Les performances de la méthode ont été comparées à celles d’un processus de résolution plus classique, dit NKS, consistant à appliquer un algorithme de Newton au problème global non linéaire (non sous-structuré), et une méthode DD aux problèmes linéarisés à résoudre à chaque itération globale – les équilibres locaux sont alors linéaires, quelle que soit la nature des phénomènes à l’œuvre localement. La comparaison est effectuée principalement sur les nombres d’itérations du solveur tangent, ce dernier comptabilisant la quasi-totalité des opérations de communication du solveur. Le coût de la méthode est évalué par la comparaison des nombres d’opérations locales (ne nécessitant pas de communications entre les processeurs), plus importants a priori avec une sous-structuration et condensation non linéaires – les équilibres locaux sont alors non linéaires. De manière générale, la comparaison entre ces deux solveurs montre que sur tous les cas-tests étudiés dans ce manuscrit, la sous-structuration et condensation du problème non linéaire permet de construire un « meilleur » problème d’interface, et ainsi de diminuer le nombre d’itérations de Newton globales à convergence du solveur : le nombre de problèmes tangents à résoudre diminue ainsi d’autant, résultant en une décroissance des nombres d’itérations du solveur DD (de Krylov) tangent, et donc des communications, au prix d’un nombre « raisonnable » d’itérations locales additionnelles. Cette amélioration des performances des processus de résolution d’équations non linéaires, grâce à une augmentation de la rapidité des solveurs, permet donc de traiter des problèmes de plus grande taille dans des laps de temps réduits, ou de complexifier les lois de comportement matériau, d’augmenter la précision sur la solution, de raffiner le maillage… tous ces éléments participant de la robustesse du solveur. En ce qui concerne l’influence du type d’approche choisi, les conditions d’interface primales et mixtes ont semblé être les plus intéressantes en termes de réduction des communications, comparées aux conditions d’interface duales qui présentent, dans le contexte mécanique d’études de structures au comportement élasto-plastique, le désavantage d’être fortement tributaires des coefficients d’écrouissage du matériau. Dans un deuxième temps, les conditions de transmission aux interfaces de type mixte ont été étudiées en détail, et notamment l’optimisation du paramètre introduit dans l’inconnue d’interface mixte, définie comme une combinaison linéaire des déplacements et efforts. Ce paramètre, défini localement, est homogène à une rigidité – ou impédance – d’interface, dans le cas linéaire élastique notamment sa valeur optimale est connue (bien que son coût de calcul soit inacceptable en pratique dans le contexte distribué), et représente, pour une sous-structure donnée, la discrétisation de l’opérateur de Steklov-Poincaré Dirichlet-to-Neumann du complémentaire de cette sous-structure. À partir d’une étude préliminaire du cas linéaire, une nouvelle heuristique a été développée dans le cas non linéaire, permettant de construire à moindre coût une impédance d’interface prenant en compte à la fois la structure proche de chaque sous-domaine, mais également la partie plus lointaine du complémentaire, le tout regroupé dans une unique expression matricielle. La méthode de sous-structuration et condensation non linéaires avec approche mixte et optimisation de l’impédance d’interface a été comparée à cette même méthode, pour d’autres expressions de l’impédance d’interface, ainsi qu’avec le processus plus classique de résolution NKS. Dans les deux cas, le principal constat fait état, à nouveau, d’une diminution des communications au prix de quelques itérations locales supplémentaires. Enfin, la dernière partie de ce manuscrit s’est intéressée à l’étape de préconditionnement du solveur, intervenant jusqu’ici au niveau tangent, au sein des méthodes DD. Un nouveau procédé non linéaire de préconditionnement a été développé, à partir d’une vision des préconditionneurs classiques DD en tant que systèmes de recherche de point fixe d’opérateurs non contractants. Le problème non linéaire condensé à l’interface est dans ce contexte modifié, de sorte que les problèmes tangents produits par l’algorithme de Newton global qui lui est appliqué soient intrinsèquement bien conditionnés. Là encore, la construction d’un « meilleur » problème d’interface permet de diminuer le nombre d’itérations globales à convergence, et ainsi les communications. Les performances des différentes méthodes développées au cours de cette thèse ont toutes été évaluées sur des cas-tests très « académiques ». Ainsi, la taille des problèmes étudiés est-elle bien en-deçà de celle des problèmes sur lesquels les solveurs parallèles sont réellement avantageux, comparés à des résolutions directes avec multithreading. Seules les comparaisons des nombres d’itérations ont donc été retenues en guise d’indicateurs de performance, bien qu’une étude en termes de temps CPU (ou encore en termes de temps humain : wall-clock time) soit le juge de paix final. Une implémentation à plus grande échelle sera donc nécessaire pour évaluer les performances réelles des nouveaux solveurs présentés ici, ainsi que pour découvrir les potentiels écueils indécelables sur des cas-tests de petite taille. De plus, si une diminution des communications a bien été observée, différentes questions restent encore en suspens, notamment celle d’un potentiel mauvais équilibrage de charge (ou load balancing) inhérent à la résolution parallèle de problèmes d’intensité non linéaire variable d’un sous-domaine à l’autre. Plusieurs solutions peuvent être envisagées afin d’éviter que les sous-domaines ayant terminé leurs itérations locales non linéaires n’attendent les autres : une extension des méthodes asynchrones au cas non linéaire, ou bien une stratégie adaptative visant à procéder par étapes couplée à un processus d’estimation d’erreur, en affinant la précision de la solution à chaque pas, et en redécoupant automatiquement les sous-domaines travaillant plus que les autres. D’autres types de non linéarité devraient également être testés, tels que des problèmes en grands déplacements (flambement…) pour l’approche mixte avec impédance d’interface optimisée, et des problèmes mécaniques (plasticité…) à inconnue vectorielle concernant le préconditionneur non linéaire. La robustesse du solveur avec préconditionneur non linéaire doit également être encore améliorée, notamment par un potentiel couplage avec une méthode DD aux conditions de transmission hybrides (où l’inconnue d’interface est un couple formé du déplacement tangentiel et de la réaction nodale normale) permettant de s’affranchir de la présence de modes rigides au sein des sous-structures.
|
Table des matières
Introduction
1 Etat de l’art
1 Méthodes de Décomposition de Domaine, conditions d’interface
1.1 Méthodes contractantes : méthodes de Schwarz
1.2 Méthodes non contractantes : méthodes du complément de Schur
2 Méthodes de résolution des systèmes non linéaires
2.1 Méthodes de point fixe
2.2 Méthodes de Newton
2.3 Méthodes de Newton inexact
3 Résolution parallèle des systèmes non linéaires
3.1 Méthodes NKS
3.2 Méthode ASPIN
3.3 Méthode LaTIn
3.4 Relocalisation non linéaire
2 Sous-structuration et condensation non linéaires
1 Problème de référence, notations
2 Méthode classique
3 Construction d’un problème non-linéaire condensé à l’interface
3.1 Trois formulations distinctes
3.2 À propos de l’existence des analogues non linéaires aux compléments de Schur
4 Stratégie de résolution
4.1 Algorithme de Newton
4.2 Calcul de l’opérateur tangent
4.3 Étapes de résolution
4.4 Algorithmes
4.5 Analyse de l’erreur
5 Résultats
5.1 Plasticité parfaite
5.2 Écrouissage isotrope
5.3 Discussion
6 Conclusion
3 Conditions de Robin : impédance d’interface
1 Un problème bien connu des mécaniciens
1.1 Motivation
1.2 Une revue non exhaustive des techniques d’évaluation de l’impédance d’interface
2 Une nouvelle heuristique pour le calcul de l’impédance d’interface
2.1 Un modèle basé sur l’assemblage de ressorts en série
2.2 Une interprétation multi-échelle non linéaire
2.3 Approximation à deux échelles de la souplesse
3 Résultats
3.1 Deux cas-tests
3.2 Analyse élastique
3.3 Analyse plastique
3.4 Couplage avec la méthode SRKS
3.5 Enrichissement de l’approximation de rang faible
4 Conclusion
4 Préconditionneur non linéaire
1 Introduction
2 Une version non linéaire des préconditionneurs FETI/BDD
2.1 Cas linéaire : interprétation du système préconditionné FETI (resp. BDD) comme un problème de recherche de point fixe
2.2 Préconditionneur non linéaire
3 Résultats
3.1 Diffusion d’eau dans une colonne de sol
3.2 Thermique non linéaire
4 Conclusion
Conclusion et perspectives
Télécharger le rapport complet