Stratégie multiparamétrique pour la simulation d’assemblages de structures stratifiées

Calcul du champ de contrainte

   Les premiers travaux [Garrett et Bailey, 1977] effectuent une analyse unidimensionnelle d’une cellule unitaire (illustrée Figure 1.9), basée sur les hypothèses de type « shear-lag ». Cette approche utilise la différence de déplacement entre les plis à 0˚ et ceux à 90˚ pour en déduire la contrainte de cisaillement à l’interface. À partir de cette donnée, les contraintes transverses dans le pli fissuré sont déduites, par l’intermédiaire d’un calcul d’équilibre local. Cette approche suppose néanmoins un certain nombre d’hypothèses et, surtout, elle ne respecte pas la condition de bord libre (et donc la nullité des contraintes) au niveau des lèvres de la fissure. Des améliorations de ce modèle, proposées par [Lim et Hong, 1989] et [Takeda et Ogihara, 1994], permettent de prendre en compte le délaminage local en pointe des fissures transverses. Cependant, ces modèles restent limités à des séquences d’empilement basiques. Une des premières analyses bidimensionnelles du champ de contraintes est faite dans [Hashin, 1985], toujours dans le cas où seul le pli à 90˚ voit l’apparition de fissures. Elle repose sur une hypothèse simple, à savoir que la contrainte dans la direction transverse est invariante dans l’épaisseur du pli considéré. Les contraintes sont alors déterminées en fonction de la contrainte dans la direction transverse par l’intermédiaire de la relation d’équilibre, puis d’une minimisation de l’énergie complémentaire. Une extension de cette approche, proposée dans [Nairn, 1989], prend en compte les effets thermiques dans le calcul des contraintes. La méthode a par la suite été étendue au cas de séquences d’empilement de type [±45]S avec fissuration dans tous les plis [Hashin, 1987], puis [α/90]S (α étant supposé faible) dans [Nairn et Hu, 1992]. Un avantage majeur de l’analyse bidimensionnelle par rapport à la précédente est la vérification de la nullité des contraintes aux lèvres de la fissure. Toutefois, elle ne reste valable que dans le cas de géométries simples (sans trou, ni entaille) et d’un stratifié présentant une séquence d’empilement spécifique. De plus, cette approche suppose une fissure traversante, ce qui n’est pas nécessairement le cas, selon l’épaisseur du pli. Finalement, grâce à l’augmentation des capacités de calcul, la représentation bidimensionnelle ou tridimensionnelle de la géométrie par éléments finis devient possible. Elle permet alors de traiter des problèmes bien plus complexes et elle se généralise à n’importe quelle séquence d’empilement. Si ces méthodes étaient, dans un premier temps, utilisées conjointement aux méthodes analytiques ([Nairn, 1995, Berthelot et Corre, 2000]), de nouveaux modèles s’appuient désormais sur ces analyses par éléments finis, tels que ceux présentés dans [Camanho et al., 2003] ou [Jiang et al.,2007].

Évolution des dégradations

  À partir de la connaissance de la contrainte au sein du pli, deux types de critères de rupture peuvent être appliqués afin de simuler l’évolution de la dégradation. Le premier, dit en contrainte, utilise la distribution des contraintes au sein du pli. Lorsqu’un seuil en contrainte, généralement égal à la résistance en traction, est dépassé, une nouvelle fissure est créée, conduisant à une relaxation locale. Le second type est basé sur la mécanique de la rupture, en comparant le taux de restitution d’énergie associé à la formation d’une nouvelle fissure à un taux de restitution critique.
■ Critères en contrainte Le premier critère, présenté dans [Garrett et Bailey, 1977], est basé sur une approche unidirectionnelle et suppose donc une répartition des contraintes homogène dans le pli, lesquelles ne doivent pas dépasser une certaine limite. Cependant, ce type d’approche n’est pas en accord avec l’expérience. Toutefois, la définition de critères bidimensionnels ne vient que modérément améliorer la pertinence du modèle, du fait de l’impossibilité de représenter l’effet d’épaisseur mis en évidence dans [Crossman et Wang, 1982]. Les auteurs de [Berthelot et al., 1996, Berthelot, 2003] proposent, pour palier ce problème, d’utiliser une distribution aléatoire de la contrainte à rupture dans le stratifié. Si les améliorations sont notables, les paramètres utilisés dans les lois de probabilité présentent toutefois une dépendance à la structure. Le critère ne serait alors plus intrinsèque au matériau.
■ Critères en énergie Les faiblesses des modèles basés sur la contrainte à rupture ont conduit les auteurs de [Parvizi et al., 1978] à la définition d’un nouveau type de critère, basé sur le taux de restitution d’énergie. L’énergie libérée par la création d’une fissure devient alors un paramètre matériau, appelé taux de restitution d’énergie Gc . Si Gc vient à dépasser une valeur critique intrinsèque au matériau appelée taux de restitution d’énergie critique, il y a création d’une nouvelle fissure. Ce type de critère est maintenant très largement utilisé par de nombreux auteurs ([Hashin, 1996], [Nairn, 1989], …). Il permet dorénavant de prendre en compte l’effet d’épaisseur, non représenté par les critères en contrainte, et ce bien que l’initiation de fissure dans le cas de plis épais semble encore poser problème.

Le mésomodèle d’endommagement

   Les approches mésoscopiques font le choix d’une échelle d’observation au niveau du pli, sans pour autant modéliser explicitement chacune des dégradations du matériau. En ce sens, elles se placent entre les approches micro et macroscopiques : on parle alors d’échelle mésoscopique. Ces approches se basent sur la mécanique de l’endommagement initiée par [Kachanov, 1958] et [Rabotnov, 1968]. Elle permet de représenter l’effet des différentes dégradations physiques du matériau, sans avoir à les représenter explicitement dans la modélisation, par le biais de variables internes de type endommagement ou anélasticité. Ces variables viennent modifier le comportement respectivement comme une perte de rigidité du matériau ou comme une déformation inélastique. Les différents modèles, utilisant tous cette base, se distinguent principalement par la complexité des phénomènes modélisés. Ainsi, le modèle proposé par Talreja [Talreja, 1985, Talreja, 1986, Talreja, 1994] et repris dans [Thionnet et Renard, 1993] n’utilise qu’une seule variable d’endommagement dans le pli, correspondant au déplacement normal d’ouverture des fissures transverses. Ce modèle est donc très efficace dans le cas d’empilements composés de plis à 0 et 90˚. Cependant, dans le cas de chargements en cisaillement, la simplicité du modèle ne lui permet pas de simuler correctement les dégradations. Allen propose un modèle plus complexe [Allen et al., 1987a, Allen et al., 1987b, Allen, 1994, Allen, 2001]. Il définit un tenseur d’endommagement à partir de l’homogénéisation d’une cellule élémentaire comprenant des microfissures. Son comportement est alors intégré dans une approche classique de théorie des stratifiés. Le développement du mésomodèle d’endommagement est initié depuis une vingtaine d’années au LMT-Cachan, et notamment dans les travaux de [Ladevèze, 1986, Ladevèze et Le Dantec, 1992, Allix et Ladevèze, 1992]. Bien qu’initialement développé pour les composites stratifiés, il a par la suite été étendu aux matériaux tissés dans [Hochard et al., 2001, Bordreuil et Hochard, 2004], ainsi qu’aux matériaux composites carbone/carbone. Après avoir été faits en quasi-statique [Le Dantec, 1989], des essais d’identification pour la caractérisation du comportement dynamique du mésomodèle d’endommagement ont été réalisés pour des petits chocs dans [Allix et al., 2000]. Utilisé dans ces travaux, ce mésomodèle est expliqué dans ses grandes lignes par la suite. Il repose sur deux hypothèses fondamentales :
– le matériau stratifié est vu comme un ensemble de deux types de mésoconstituants élémentaires : les plis et les interfaces (Figure 1.11). Chacun possède son propre comportement et ses propres variables, l’intégralité des dégradations est représentée à l’échelle de ces constituants ;
– les variables d’endommagement sont supposées constantes dans l’épaisseur d’un pli. Cependant, elles peuvent varier dans le plan du pli considéré, ainsi que lors du passage d’un pli à l’autre.

Représentation de la géométrie réelle

  De nombreuses autres études, profitant de l’augmentation des moyens de calcul, représentent explicitement la géométrie de la liaison et intègrent directement les différents phénomènes physiques en jeu. Cependant, si cela permet de faciliter l’identification des paramètres, ce n’est pas sans induire de nombreuses difficultés numériques. En effet, les problèmes de contact ou de frottement introduisent des non-linéarités très fortes, dues à une transition brutale entre un état de contact et de décollement, ou d’adhérence et de glissement. Dans le cas particulier du contact, la « raideur » entre deux nœuds en vis-à-vis est soit nulle (cas du décollement), soit infinie (cas du contact, sans interpénétration). Pour prendre en compte cela numériquement, deux approches sont généralement utilisées : les approches par pénalisation [Kikuchi, 1982] et celles par ajout de multiplicateurs de Lagrange [Wriggers et al., 1985]. Les approches par pénalisation introduisent une rigidité artificielle, autorisant une légère interpénétration des surfaces. Cette approximation assouplit grandement les conditions de contact et permet de régulariser le problème. La méthode peut toutefois converger difficilement, du fait du mauvais conditionnement de la matrice de rigidité, notamment si le paramètre de pénalisation vient à être trop élevé (ce qui conduit, théoriquement, à une meilleure qualité de résultat). Malgré tout, la simplicité d’implantation numérique ainsi que son surcoût modéré font que ces approches sont souvent utilisées dans les problèmes d’assemblage [Chung et Ip, 2000, Izumi et al., 2005, McCarthy et McCarthy, 2005]. A contrario, les approches par multiplicateurs de Lagrange [Arora et al., 1991, Radi et al., 1998] cherchent à respecter exactement les conditions de contact. Les multiplicateurs de Lagrange sont des inconnues supplémentaires à rajouter dans le problème, que l’on peut interpréter comme les forces de réaction, ce afin d’assurer les conditions de non-pénétration. L’ajout des ces nouvelles inconnues implique deux défauts importants : l’augmentation de la taille du problème et son conditionnement potentiellement très mauvais, puisque les inconnues sont soit homogènes à des déplacements (inconnues classiques des approches par éléments finis) et à des efforts (les multiplicateurs introduits). Malgré tout, ces méthodes n’introduisent aucun paramètre non-physique qui altère le résultat final, contrairement aux méthodes par pénalisation. Afin de palier les problèmes de conditionnement dûs aux multiplicateurs de Lagrange, il est courant d’utiliser des méthodes de Lagrange augmentées [Arora et al.,1991]. Elles ont pour conséquence l’ajout de nouveaux multiplicateurs, homogènes à des déplacements, et sont souvent comparées à des algorithmes d’Uzawa [?], dont la convergence est hélas relativement lente. Malgré cela, elles restent souvent utilisées dans le calcul d’assemblages [Klarbring, 1992, Chabrand et al., 1998].

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Table des figures
Liste des tableaux
Introduction
1 Rappels sur la modélisation des matériaux composites stratifiés 
1 Phénoménologie du matériau considéré
1.1 Description du matériau
1.2 Mécanismes de dégradation
1.3 Bilan partiel
2 Modèles macroscopiques
2.1 Critères de dimensionnement
2.2 Comportement anélastique
3 La modélisation à l’échelle microscopique des dégradations des stratifiés 
3.1 Modélisation de la fissuration transverse
3.2 Modélisation de la décohésion fibres/matrice
4 Le mésomodèle d’endommagement 
4.1 Modélisation des plis
4.2 Modélisation des interfaces
5 Conclusions 
2 Revue des stratégies numériques pour la résolution des problèmes d’assemblage 
1 Modélisation des assemblages 
1.1 Modèles simplifiés d’éléments de liaison
1.2 Représentation de la géométrie réelle
1.3 Conclusion sur les problèmes d’assemblages
2 Stratégies multi-échelles pour le calcul de structures 
2.1 Méthodes avec raffinement local
2.2 Méthodes multi-grilles
2.3 Méthodes de décomposition de domaine
3 Conclusions
3 Stratégie de résolution numérique 
1 Sous-structuration du problème 
1.1 Problème sur les sous-structures
1.2 Problème sur les interfaces
2 Introduction d’une échelle macroscopique
2.1 Séparation des échelles
2.2 Choix des quantités macroscopiques
2.3 Admissibilité macroscopique des champs d’interface
3 Algorithme itératif de résolution 
3.1 Principe
3.2 Choix des directions de recherche
3.3 Écriture du problème à l’étape linéaire
3.4 Écriture du problème de l’étape locale
3.5 Étape locale sur les sous-structures
3.6 Étape locale sur les interfaces
4 Algorithme de la méthode
4.1 Initialisation de la méthode
4.2 Convergence de la stratégie
4.3 Algorithme
5 Discrétisation du problème
5.1 Choix des espaces d’approximation
5.2 Résolution numérique du problème de l’étape linéaire
5.3 Résolution numérique de l’étape locale sur les sous-structures
6 Applications
6.1 Géométrie de l’éprouvette
6.2 Matériau
6.3 Comparaison avec les essais
4 Une stratégie de calcul adaptée aux études paramétriques 
1 État de l’art 
1.1 Approches fréquentielles
1.2 Méthodes de perturbation
1.3 Méthodes spectrales
1.4 Conclusion partielle
2 Présentation de la stratégie multiparamétrique
2.1 La stratégie multiparamétrique avec l’approximation PGD
2.2 La stratégie multiparamétrique sans l’approximation PGD
2.3 Recherche de la meilleure solution de référence
3 Applications 
3.1 Ouverture d’un empilement composite
3.2 Étude d’un assemblage boulonné
3.3 Endommagement d’un assemblage en flexion 4 points
4 Conclusions sur la stratégie multiparamétrique
5 Validation et mise en œuvre de la stratégie 
1 Parallélisation de la stratégie 
1.1 Répartition des données
1.2 Parallélisation du processus itératif de la méthode LATIN
1.3 Étude des performances en parallèle
2 Assemblage à grand nombre d’éléments de fixation
2.1 Présentation du problème
2.2 Déroulement du calcul
2.3 Résultats .
3 Conclusion partielle
Conclusion
A Reproduction des essais d’identification du mésomodèle
1 Essai n°1
2 Essai n°3
3 Essai n°5
Bibliographie

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *