Les approches de modélisation actuelle
La méthode d’homogénéisation
Pour éviter le problème numérique dû au grand rapport entre l’échelle des fibres et l’échelle de matériau, le matériau réel est remplacé par un matériau équivalent virtuel ayant le même comportement macroscopique au travers d’une loi de comportement. Nous parlons alors d’homogénéisation. Il y a deux manières pour trouver les comportements homogénéisés d’un matériau :
— les méthodes expérimentales, la définition du comportement des matériaux se faisant à partir des mesures ;
— les méthodes prédictives, la définition du comportement macroscopique des matériaux se faisant à partir d’informations connues à l’échelle microscopique.
Le principe de la méthode d’homogénéisation est de déterminer les caractéristiques homogénéisées et la conductivité équivalente du matériau. La détermination de cette loi de comportement se fait en ayant recours à un matériau, réel ou virtuel, appelé Volume Élémentaire Représentatif (VER). Les VERs doivent répondre aux conditions suivantes [Sen17] :
— ses propriétés physiques moyennes ne changent pas lorsque sa taille augmente;
— le comportement physique moyen des différents VER diffère peu si les VERs sont de même taille ;
— les conditions aux limites n’affectent pas le comportement moyen du VER.
La méthode qui existe est d’utiliser la méthode d’homogénéisation pour passer de l’échelle des fibres à l’échelle des plis, au travers d’un tenseur de conductivité équivalent, utilisable ensuite dans une simulation type éléments finis à l’échelle de matériau.
Les études réalisées par l’IREENA
La modélisation de CND par thermo-induction a été développée à l’origine par Didier Trichet [Tri00] dans sa thèse comme un modèle de percolation sans considérer l’aspect multi-couche du matériau. Dans la thèse de Samir Bensaid [Ben06], il a généré le modèle des éléments coques basé sur le modèle de Trichet selon l’étude de C. Guérin [Gué94], mais le matériau composite n’était pas maillé et les courants induits dans le sens de l’épaisseur de matériau composite n’étaient pas pris en compte. Ensuite, Brahim Ramdane a développé dans sa thèse [Ram09] un modèle tridimensionnel par éléments finis à l’échelle macroscopique, où le matériau composite est considéré comme un matériau homogène, et il a proposé d’utiliser un tenseur de conductivité électrique homogénéisé pour l’ensemble du composite. Guillaume Wasselynck a développé un modèle d’homogénéisation tridimensionnel permettant de passer de la simulation de l’échelle microscopique à l’échelle mésoscopique dans sa thèse [Was11]. Son modèle prend en compte la distribution aléatoire des fibres et le contact entre les fibres dans un pli, puis le tenseur de conductivité électrique homogénéisée est déterminé pour un pli unidirectionnel. Sur la base du modèle macroscopique développé par Ramdane, Huu Kien Bui a développé un modèle à l’échelle mésoscopique [Bui14] : le composite est maillé au niveau des plis et l’orientation des fibres est prise en compte, ce qui a permis de calculer la circulation des courants de Foucault et la distribution de la densité de puissance dans chaque pli. Ce modèle nécessite beaucoup de mémoire et temps de calcul. Bui a développé le deuxième modèle avec des éléments dégénérés multicouches pour éviter le maillage de régions minces [Bui14], réduisant ainsi le temps de calcul. Fiacre Djonkone Senghor et Banda Kane ont poursuivi les recherches de Wasselynck. Senghor a établi un banc de caractérisation électrique de matériaux composites par la méthode volt-ampèremétrique [Sen17], et Kane a utilisé ce dispositif pour mesurer la conductivité dans toutes les directions du matériau UD [Kan19]. Kane a observé la répartition des fibres selon des coupes micrographiques transverses. Le modèle électrocinétique tridimensionnel par éléments finis est développé pour évaluer la résistance de contact entre deux plis ayant des orientations différentes. Brahim Azzabi Zouraq a construit un modèle éléments finis 3D dans sa thèse [Azz19] et a étudié la fiabilité de son modèle et du modèle de Bui sur le matériau isotrope en utilisant la Probabilité de Détection pour du contrôle thermo-inductif. Dans la thèse de Abdoulaye Ba [Ba21], une méthode basée sur les éléments finis en 3D associés aux impédances de surface avec courant et tension imposés est développée pour réduire les temps de simulations. Dans la thèse de Mansor Ndiaye [Ndi22], une nouvelle approche d’homogénéisation selon un modèle mésoscopique 2-D est développée pour trouver les propriétés longitudinales et transverse de matériau UD, les propriétés dans le sens de l’épaisseur est déduit selon un modèle 3-D avec des mesures.
Les limitations des approches
Selon les travaux précédents, dans les limites du temps de calcul et de la mémoire, les méthodes ont déjà la capacité de détecter les défauts des matériaux à l’échelle mésoscopique et macroscopique, mais elles peuvent perdre des informations locales à l’échelle microscopique. Les méthodes existantes sont unidirectionnelles, elles ne peuvent pas être inversées et leur précision ne peut pas être assurée à l’échelle microscopique, ce qui peut être dommageable dans le cadre du CND.
Les méthodes de réduction d’ordre de modèle (ROM)
Les ROM se sont considérablement développées ces dernières années, y compris les méthodes proper generalized decomposition (PGD) et proper orthogonal decomposition (POD) utilisées dans ma thèse, ainsi que les méthodes de Rayleigh-Ritz, de PetrovGalerkin, d’approximant de Padé [Da 15 ; CCH80]. Les ROM réduisent la complexité d’un modèle et semblent adaptées pour traiter le rapport énorme entre l’échelle microscopique et l’échelle macroscopique.
— PGD :
L’idée de la méthode PGD est de décomposer la solution en somme de produit de fonctions aux variables indépendantes et de résoudre l’équation de chaque variable itérativement pour trouver l’inconnue.
— POD :
L’idée de la méthode POD est de projeter la solution de son espace complet vers un sous-espace réduit. Nous trouvons une base réduite P qui représente l’opérateur de projection sur le sous-espace à l’aide de la décomposition en valeurs singulières (SVD, de l’anglais singular value decomposition) des termes de snapshots. Les snapshots sont un ensemble de solutions issues de précalculs. Nous pouvons alors faire la résolution dans l’espace réduit en gardant la possibilité de projeter la solution vers l’espace complet [Mas96 ; SC12 ; HC13 ; SSC13 ; HC15b]. La SVD est une méthode de factorisation des matrices. Elle est largement utilisée dans le traitement des signaux, le traitement des images et l’analyse statistique (analyse en composantes principales, ACP).
— Rayleigh-Ritz :
La méthode de Rayleigh-Ritz permet de réduire les degrés de liberté d’un système. Il s’agit d’une méthode numérique directe d’approximation des valeurs propres et vecteurs propres [TB97].
— Petrov–Galerkin
La méthode de Petrov-Galerkin laisse les équations d’origine inchangées, mais réduit la dimensionnalité d’espaces de la solution et de la fonction test [Red19].
La méthode de Rayleigh-Ritz et la méthode de Petrov-Galerkin sont considérées comme des variantes de la méthode POD, qui modifient la méthode de projection pour obtenir des bases réduites utilisées par la POD. Dans cette thèse, nous allons utiliser la méthode POD plutôt que ses variantes. De plus, la méthode des séries de puissance n’est pas applicable à notre modèle parce que nous ne pouvons pas faire la dérivation multiple sur notre modèle , donc nous ne considérons pas l’approximant de Padé dans ma thèse. Pour la méthode PGD, après avoir décomposé les inconnues en fonctions de variables indépendantes, il faut résoudre itérativement des problèmes de taille réduite jusqu’à la convergence. Elle est particulièrement adaptée pour une application sur une formulation type éléments finis mais en revanche beaucoup moins pour une formulation de type circuit avec un domaine discontinu. Dans cette thèse, la PGD a été appliquée à un cas 2D avec une formulation éléments finis mais présentait la limite importante : le temps de calcul long en raison du grand nombre d’itérations nécessaires jusqu’à la convergence en raison de la distribution aléatoire des fibres. De plus, la PGD présente la difficulté de devoir séparer la loi de comportement selon les différentes directions de l’espace. Compte-tenu de ces limitations, la PGD a été rapidement abandonnée et son développement reporté en annexe A.
|
Table des matières
Introduction
1 État de l’art
1.1 Introduction
1.2 Matériaux Composites
1.2.1 Définition d’un matériau composite
1.2.2 Défauts
1.3 Le contrôle non destructif
1.3.1 Les techniques des courants de Foucault
1.3.2 Les techniques de la thermographie infrarouge
1.3.3 Le CND par thermo-induction
1.4 Les verrous scientifiques de l’étude
1.4.1 Les phénomènes 3D
1.4.2 Le grand facteur entre les différentes échelles
1.4.3 L’anisotropie de matériau
1.4.4 Le saut de propriétés au niveau du défaut
1.4.5 L’alimentation de l’inducteur
1.4.6 La position aléatoire des fibres
1.4.7 Les phénomènes de percolation électrique
1.4.8 Le changement de propriété en fonction de la température
1.5 Les approches de modélisation actuelle
1.5.1 La méthode d’homogénéisation
1.5.2 Les études réalisées par l’IREENA
1.5.3 Les limitations des approches
1.6 L’objectif de la thèse
1.6.1 Les méthodes de réduction d’ordre de modèle (ROM)
1.6.2 La méthode de décomposition de domaine (DD)
1.7 Idée générale de la thèse
1.8 Conclusion
2 Construction du modèle de référence
2.1 Génération de la géométrie
2.1.1 Génération de la géométrie en cellules
2.1.2 Concaténation des cellules
2.1.3 Recherche des contacts entre fibres
2.2 Modèle physique global
2.3 L’imposition en tension
2.3.1 Validation pour des fibres « ordonnées »
2.4 L’imposition inductive
2.5 Conclusion
3 Les méthodes de réduction d’ordre de modèle et de décomposition de domaine
3.1 Proper orthogonal decomposition
3.1.1 Stratégies de proper orthogonal decomposition
3.1.2 Conclusion sur la POD
3.2 Décomposition de domaine
3.2.1 Stratégie de décomposition de domaine
3.2.2 Analyse d’erreur
3.2.3 Conclusion sur la décomposition de domaine
3.3 Conclusion
4 La méthode de décomposition de domaine avec proper orthogonal de composition
4.1 Stratégies de décomposition de domaine avec proper orthogonal decomposition
4.2 Résultats
4.2.1 La comparaison entre la DD et la DD-POD
4.2.2 L’effet de la condition de convergence sur les résultats
4.2.3 Vérification de convergence
4.2.4 Vérification pour une source plus complexe
4.2.5 Conclusion
4.3 Application sur le matériau [0/90]
4.4 Relation entre temps et nombre de cellules
4.4.1 La fonction entre le temps et le nombre de cellules dans la direction de la fibre
4.4.2 La fonction entre le temps et le nombre de cellules dans la section transversale de la fibre
4.5 Intérêt du calcul parallèle
4.6 Conclusion
Conclusion