La probabilité de défaillance est calculée en comparant la probabilité de résistance du matériau et la probabilité d’une sollicitation. Cette sollicitation est issue de la propagation dans un modèle mécano-probabiliste de modèles probabilistes des variables d’entrée telles que le chargement, la géométrie et les propriétés du matériau. Le calcul du modèle mécano-probabiliste, tel qu’il est effectué dans le projet, demande la résolution d’un problème déterministe pour de nombreux jeux de valeurs des paramètres d’entrée, i.e. de réalisations du modèle physique. L’objectif majeur de ce travail de thèse est de diminuer les temps de calcul associés aux calculs répétés de réalisations à l’aide d’une stratégie dite « multiparamétrique ».
Le projet APPROFI est découpé en sous projets gérés par des spécialistes de chaque discipline. La modélisation stochastique des variables d’entrée est effectuée par la société PHIMECA, celle des variables de résistance par le CETIM, coordinateur du projet. Le laboratoire LaMI est en charge de l’analyse stochastique et du calcul de la probabilité de défaillance. La société SNECMA fournit des cas tests et est en charge de l’industrialisation de la méthode. Enfin, le laboratoire Roberval, la société MODARTT et le LMT-Cachan fournissent des méthodes performantes pour la résolution des problèmes déterministes.
Le laboratoire LaMI a choisi d’utiliser une méthode de Monte-Carlo [Caflisch, 1998], qui s’appuie sur la simulation d’un grand nombre de réalisations pour différents jeux des paramètres, pour le calcul de la probabilité de défaillance. Suivant cette probabilité, entre une dizaine et des milliards de réalisations sont nécessaires. Le calcul d’une réalisation pour des cas industriels peut prendre plusieurs heures avec les techniques de résolutions classiques. Un méta-modèle du modèle physique [Keane et Prasanth, 2005] est donc utilisé en remplacement du modèle physique complet. Une approximation de la loi entrée/sortie du modèle physique est recherchée à partir d’une collection de réalisations existantes. La méthode de Monte Carlo peut alors s’appliquer sur le méta-modèle, sur lequel les temps de calcul sont très faibles. Le méta-modèle de Krigeage [Sacks et al., 1989, Cressie, 1993, Davis et Ierapetritou, 2009], qui a été utilisé, repose sur une approximation par processus gaussien. Une erreur au sens probabiliste peut être définie entre le méta-modèle et le modèle physique, et un lien direct peut être fait entre cette erreur et la probabilité de défaillance [Echard et al., 2010, Echard et al., 2011]. Si nécessaire, le méta modèle est enrichi pour les entrées conduisant à la plus grande erreur pour le calcul de la probabilité de défaillance. L’enrichissement du méta-modèle consiste à considérer une plus grande collection de réalisations. Le problème déterministe doit être calculé pour un ensemble de nouveaux jeux de valeurs des paramètres d’entrée. Le calcul pour cet ensemble de jeux de valeurs est accéléré par la stratégie multiparamétrique.
[Boucard et Ladevèze, 1999, Allix et Vidal, 2002] ont introduit la terminologie de stratégie multirésolution ou multiparamétrique pour désigner les stratégies permettant la détermination de la réponse du modèle physique pour une entrée donnée avec une erreur d’approximation contrôlée, connaissant déjà un certain nombre de réalisations pour d’autre valeurs des paramètres. La méthode non incrémentale en temps LATIN [Ladevèze, 1985a, Ladevèze, 1996, Ladevèze, 1999] est utilisée dans ces stratégies. L’idée est d’initialiser cette méthode itérative avec la solution d’un problème supposé proche. Le temps de calcul d’une nouvelle réalisation est alors d’autant plus faible que l’initialisation en est réellement proche. Un exemple est le cas d’assemblages avec contact frottant et pièces à comportement élastique traité dans [Boucard et Champaney, 2003]. L’information issue d’un calcul est réutilisée en conservant les grandeurs aux interfaces entre les pièces. La solution d’un problème avec un matériau à comportement non linéaire est donnée par des champs définis sur l’ensemble de la structure et de l’intervalle de temps considéré. Le stockage de l’ensemble des solutions pour les différentes réalisations demanderait trop de capacité de mémoire. Des travaux effectués au LMT-Cachan, [Cognard et Ladevèze, 1993, Cognard et al., 1999, Ladevèze et al., 2002] ont montré qu’il est possible d’utiliser dans la méthode LATIN une approximation, sous la terminologie de « décomposition radiale », pour diminuer le volume de données à stocker et les temps de calcul. Les champs de la solution sont approximés par des sommes de produits de fonctions du temps par des fonctions d’espace. Un modèle réduit de la solution est ainsi construit, qui rend possible la conservation de l’ensemble des réalisations. La particularité de ce modèle réduit est qu’aucune fonction n’est choisie a priori, avant le début du calcul. Cette idée a été reprise et étendue par [Chinesta et al., 2010] sous le nom de Proper Generalized Decomposition (PGD). [Ladevèze et Nouy, 2003] puis [Ladevèze et al., 2010] ont proposé une nouvelle manière d’utiliser la PGD dans la LATIN, et ont montré sur des exemples visco-élastiques que le nombre de fonctions nécessaires pour atteindre la même erreur est plus faible. Cette nouvelle manière de construire la PGD a été adaptée dans cette thèse aux problèmes visco-plastiques.
Méthodes pour la propagation des incertitudes
La description réaliste d’un système mécanique contient nécessairement des incertitudes. Celles-ci peuvent provenir de la modélisation incomplète qui est faite du sytème (incertitudes de modélisation) ou bien du caractère aléatoire intrinsèque des variables, lié aux phénomènes étudiés (incertitudes de données). Suivant le degré de confiance accordé à la modélisation et des descriptions disponibles des variables, différentes théories peuvent être appliquées afin de décrire l’incertain :
– la théorie des intervalles [Moore, 1966] ;
– la théorie des ensembles flous [Zadeh, 1978] ;
– la théorie des ensembles convexes [Ben-Haim, 1994] ;
– la théorie des méconnaissances [Puel, 2004, Ladevèze et al., 2006, Enjalbert, 2009] ;
– la théorie probabiliste.
La première théorie décrit l’incertain par des intervalles dans lesquels les valeurs des variables évoluent, sans information de probabilité d’occurence. Le résultat du calcul est aussi exprimé sous forme d’intervalles. Cette théorie a l’avantage de ne nécessiter que très peu d’informations sur les variables d’entrées. Elle a par contre l’inconvénient de donner une solution de plus en plus pessimiste, à mesure que le nombre de paramètres augmente. L’intervalle solution peut alors devenir très grand, voire infini. La théorie des ensembles flous décrit l’incertain par un degré d’appartenance des variables à des intervalles. [Drakopoulos, 1995] présente une comparaison des méthodes probabilistes et par ensembles flous. Ces conclusions semblent indiquer que, pour des domaines finis, le pouvoir de représentation des méthodes probabilistes est supérieur à celui des approches par ensembles flous ; la contrepartie est une complexité de calcul plus importante et une moindre efficacité numérique. La théorie des méconnaissances se présente comme une alternative aux coefficients de sécurité. L’incertain est décrit par des intervalles dont les bornes sont probabilisées. La propagation s’effectue sur ces bornes et donne un résultat sous la forme d’un intervalle probable. Peu d’informations sont nécessaires sur les variables et elles peuvent être obtenues facilement par recalage du modèle avec méconnaissances. La description de l’incertain est moins fine avec cette technique qu’avec la théorie des probabilités, ce qui peut être un avantage ou un inconvenient suivant la connaissance disponible au moment de la modélisation. Enfin, la théorie des probabilités est la plus utilisée pour décrire l’incertain. Elle permet une description de la probabilité d’occurence d’événements. C’est cette théorie qui est utilisée dans le projet APPROFI dans le but de prévoir la défaillance de pièce en fatigue. Celle-ci est calculée en comparant une sollicitation à une capacité de résistance du matériau. Le calcul de la sollicitation est le plus coûteux car il fait intervenir des effets de structure et non pas uniquement des effets locaux.
Modélisation probabiliste des incertitudes
On présente tout d’abord de manière très générale la théorie des probabilités. L’ensemble des définitions présentes dans cette section sont issues de [Saporta, 1990] et [Radix, 1991].
Espace probabilisé
L’ensemble des réalisations d’un phénomène aléatoire forme un espace noté Θ. Un événement est défini comme une partie de Θ contenant l’ensemble des réalisations θ ∈ Θ. La théorie des probabilités consiste en l’association de nombre aux événements, i.e. leurs probabilités d’occurence. À l’espace des événements élémentaires Θ est associée une σ-algèbre F de parties de Θ, et une mesure p appelée loi de probabilité est définie sur (Θ,F).
Approche paramétrique ou non paramétrique
Suivant le degré de confiance apporté au modèle déterministe du système étudié, deux approches sont envisageables :
Approche paramétrique L’approche paramétrique est la voie priviligiée pour les problèmes dont le modèle mécanique déterministe f existe et est robuste. On considère alors que l’aléa ne porte que sur les variables d’entrées ξ. Pour n’importe quelle réalisation J observée, on peut associer des valeurs des variables d’entrée qui, injectées dans le modèle, conduisent à cette réalisation (∀J ∃ ξ : f (ξ) = J , voir FIG. 1.1). L’effort de modélisation probabiliste porte dans ce cas sur les paramètres du système mécanique. Des mesures d’échantillons et des jugements d’experts (permettant d’introduire la physique supposée des phénomènes) permettent de leurs associer des lois de probabilité adaptées. Nous nous placerons dans la suite dans une vision paramétrique de l’aléa.
Approche non-paramétrique L’approche non-paramétrique permet de modéliser l’aléa dans les cas où il n’est pas possible de trouver un modèle déterministe qui permette l’association de paramètres d’entrée à une réalisation. Les opérateurs du système mécanique sont alors directement probabilisés. Dans le cas du calcul de structures par éléments finis, on cherche à construire une modélisation probabiliste de la matrice de rigidité sous certaines contraintes (matrice symétique, définie positive, caractère bande) [Soize, 2000] avec la condition de maximum d’entropie. Cette approche permet d’augmenter la prédictibilité du modèle, l’ensemble des observations J pouvant être atteintes. En prenant des assertions plus faibles sur le modèle et en le probabilisant, on prend en compte l’incertitude de modélisation en plus de l’incertitude des causes. On note cependant qu’il est alors impossible de faire une étude de sensibilité sur les causes de l’aléa.
Calcul de la réponse stochastique
Dans un cadre plus général que celui du projet APPROFI, le calcul de la réponse stochastique peut s’effectuer de nombreuses manières. On note J (U) une quantité d’intérêt cible, qui peut par exemple être le déplacement d’un point particulier ou la contrainte maximale dans une certaine direction. Différentes informations au sens probabiliste peuvent être recherchées :
– les moments statistiques comme la moyenne µJ = E(J (U)) ;
– la probabilité d’événements particuliers : PJ = P({J (U) É J0}) ;
– la représentation complète de J (U) (distribution de probabilité).
Les approches fréquentielles du type Monte-Carlo/Quasi Monte-Carlo [Caflisch, 1998] pourront être employées dans tous les cas, avec comme limitation le grand nombre de tirages nécessaires à leur convergence. Des méthodes d’intégration directe peuvent permettre de calculer les moments statistiques de J (U), par exemple les méthodes de Gauss, Clenshaw-Curtis, etc. Elles seront plus ou moins efficaces selon la forme de la fonction à intégrer. Les méthodes fiabilistes sont dédiées aux calculs de probabilité d’événements particuliers. Il est aussi possible de représenter complètement la solution U(M,θ) sur une base de fonctions et de chercher à résoudre le problème stochastique complet sur cette base [Ghanem et Spanos, 1991a]. On construit alors un méta-modèle du problème sur lequel les méthodes d’intégration directe ou fiabilistes pourront être appliquées avec un très faible coût de calcul. Des méthodes de développement en série, telles que le développement de Taylor ou la décomposition de Neumann [Yamazaki et al., 1988], permettent également la construction d’un méta-modèle, particulièrement pour de faibles variations des paramètres du modèle.
|
Table des matières
Introduction
1 Méthodes pour la propagation des incertitudes
1 Introduction
2 Modélisation probabiliste des incertitudes
2.1 Espace probabilisé
2.2 Variable aléatoire
2.3 Espace des variables aléatoires de carré sommable
2.4 Approche paramétrique ou non paramétrique
3 Probabilité de défaillance en fatigue
3.1 Probabilité de défaillance
3.2 Cas de la fatigue
4 Calcul de la réponse stochastique
4.1 Approches fréquentielles
4.2 Méthodes d’intégration directes
4.3 Méthodes fiabilistes
4.4 Méthodes de perturbation
4.5 Méthode spectrale
5 Méta-modèle
5.1 Détermination des coefficients
5.2 Choix des points d’approximation
5.3 Krigeage
6 Bilan
2 Méthode LATIN et stratégie multiparamétrique
1 Introduction
2 Définition du problème de référence
2.1 Loi de comportement matériau
2.2 Conditions d’admissibilité et définitions des espace
3 Méthode LATIN
4 Étape locale
4.1 Direction de recherche simple
4.2 Direction de recherche optimisée
5 Étape linéaire
5.1 Direction de recherche
5.2 Mise à jour de la direction de recherche
5.3 Résolution
6 Stratégie multiparamétrique
3 Réduction de modèle et stratégies multirésolutions
1 Introduction
2 POD
2.1 Construction de la POD
2.2 Exemple
2.3 Bilan
3 Réduction de modèle
4 Réduction de modèle avec la PGD
4.1 Méthode de Galerkin
4.2 Minimisation de résidu
5 Stratégies multirésolutions
5.1 Solveurs de Krylov
5.2 SLDLT
4 Méthode LATIN, PGD, et stratégie multiparamétrique
1 Introduction
2 Technique de réduction de modèle PGD et méthode LATIN
2.1 Minimisation d’une erreur en direction de recherche
2.2 Fonction temps unique
2.3 Enrichissement du modèle réduit
2.4 Détails des itérations de la LATIN
3 Qualité de la décomposition PGD
3.1 Comparaison avec une décomposition effectuée à la dernière itération
3.2 Influence du maillage et du nombre de pas de temps
4 Réduction de modèle PGD et stratégie multiparamétrique
4.1 Paramètres variables possibles
4.2 Élimination de couples non pertinents
4.3 Cas d’un plan d’expérience ordonné
4.4 Cas d’un plan d’expérience aléatoire
Conclusion
Télécharger le rapport complet