Méthodologie
L’évaluation d’une courbe de fragilité avec la méthode K-L se déroule en deux temps. Une famille de signaux d’entrée réels, choisis pour leur adéquation à un scénario sismique donné, est « enrichie ». Ceci nécessite de simuler des variables aléatoires dépendantes à l’aide d’un certain nombre de leurs réalisations. Ces signaux d’entrée synthétiques sont ensuite triés par classe d’indicateur de nocivité sismique, puis confrontés au modèle numérique de la structure étudiée. Les signaux de réponse qui en découlent peuvent soit être utilisés comme tels, soit être eux-mêmes enrichis.
Cette méthodologie ne dispense pas de prendre en compte les incertitudes, qui sont nombreuses. Le paragraphe 2.5 recense les incertitudes épistémique et statistique, ainsi que celles pesant sur le modèle K-L.
L’incertitude liée au modèle numérique sera quant à elle négligée.
Enrichissement d’une famille de signaux : « méthode K- L »
L’article [53] de Zentner et Poirion propose une nouvelle méthode, fondée sur le théorème de KarhunenLoève [37] [45], pour simuler un processus non gaussien et non stationnaire. Sur l’hypothèse que l’accélération du sol peut se modéliser par un processus stochastique {Γ(t)}t∈[0,T ] , elle utilise une base d’accélérogrammes réels, sensés constituer des réalisations du processus Γ, pour en simuler de nouvelles.
Comparaison et conclusion
Par souci de clarté, ces deux méthodes sont testées en dimension un.
Les réalisations utilisées proviennent d’une variable particulière , intervenant dans l’étape de validation du chapitre 3. Elle a été choisie pour son fort caractère « pathologique ». La figure 2.1 compare les deux estimations de la densité de probabilité de cette variable :
— avec les polynômes de Hermite (en pointillés bleus), pour lesquels un certain nombre de termes de la somme ont été retenus : 10 à gauche, puis 60 à droite ;
— à l’aide de l’estimateur à noyaux (en traits pleins rouges).
Tri par classes et estimation des courbes de fragilité
Pour construire des courbes de fragilité sans hypothèse de forme a priori, et surtout sans utiliser la méthode du scaling , nous proposons de regrouper les différents accélérogrammes disponibles par « classes » d’indicateur croissant de nocivité sismique, identifiées par leur valeur moyenne. Ces valeurs moyennes servent d’abscisses à la courbe de fragilité qu’il s’agit de construire.
Après « passage dans la structure », chaque classe de signaux d’entrée correspond in fine à une classe de signaux de réponse, éventuellement enrichie comme nous le verrons au § 2.5.3. Ainsi, pour une classe d’intensité α, on note :
Le regroupement des signaux d’entrée pourrait a priori s’effectuer selon des méthodes simples. Les classes d’indicateur pourraient être choisies de largeurs identiques : l’intervalle entre les valeurs minimum et maximum de l’indicateur de nocivité est divisé en un certain nombre de sous-intervalles de mêmes largeurs.
Les signaux ainsi regroupés forment les classes, de largeurs identiques mais de tailles de population variables.
Certaines classes risquent alors de ne contenir que quelques signaux, ce qui est insuffisant pour mener des calculs de Monte-Carlo ; les classes pourraient également être choisies de tailles de population identiques : dans ce cas, les valeurs moyennes des indicateurs sont souvent mal distribuées, et la courbe de fragilité devient difficile à exploiter.
Pour palier à ces deux problèmes, nous proposons de réaliser le regroupement suivant un algorithme de partitionnement de données, en l’occurrence celui des k-moyennes, présenté dans [32]. Dans l’exemple d’un tri de 10 000 signaux, cette méthode aboutit à 10 classes contenant chacune un minimum de 500 signaux, ce qui est largement exploitable dans un contexte Monte-Carlo. Nous évoquerons ultérieurement la robustesse de ce partage.
Prise en compte des incertitudes
Notre méthodologie fait apparaître différents types d’incertitudes, qui doivent être traitées :
— l’incertitude épistémique, due à une certaine ignorance de la structure étudiée ;
— l’incertitude statistique, due aux faible nombre de signaux disponibles ;
— les incertitudes sur le modèle K-L.
Incertitude épistémique
L’incertitude épistémique concentre toute la méconnaissance de la structure. Dans nos applications, nous considérons des modèles mécaniques, dont les paramètres peuvent être modélisés par des variables aléatoires : ils sont donc différents à chaque calcul de structure (voir la mise en œuvre p. 48).
Echantillonnages successifs (bootstrap)
Une manière d’intégrer toute l’incertitude sur le modèle consiste à réaliser des échantillonnages successifs sur les signaux, soit d’entrée, soit de réponse, pour construire un intervalle autour de la courbe de la fragilité.
S’il est convenu de les réaliser sur les signaux d’entrée, il suffit d’en tirer au hasard un certain nombre sans remise. Ils sont utilisés pour définir une première courbe de fragilité. L’opération est répétée un certain nombre de fois jusqu’à obtenir autant de courbes différentes. Leurs quantiles fournissent alors un intervalle encadrant la courbe.
Si on souhaite au contraire les réaliser sur les réponses, on en tire de la même manière une sous famille, au hasard et sans remise. Cette sous-famille est alors elle-même enrichie, c’est-à-dire utilisée comme base pour générer 5 000 nouvelles réponses avec la méthode K-L. Cette opération est répétée un certain nombre de fois jusqu’à obtenir autant de courbes différentes. L’intervalle se construit alors par un calcul de quantiles.
La différence de traitement s’explique par la volonté de limiter le nombre de calculs de structures, et donc celui de signaux d’entrée utilisés. A l’inverse, le nombre de signaux de réponse peut augmenter sans que cela ne prête à conséquence.
Resimulation de la matrice d’autocorrélation
Dans un contexte où les signaux disponibles sont très peu nombreux, l’incertitude viendra de manière principale de l’estimation des matrices d’autocorrélation, notées R de manière générique. Il est possible d’affiner le bootstrap précédent de la manière suivante, qui nous est propre.
Dans chacune des classes de réponses, au moment de l’enrichissement, nous commençons par « resimuler » l’estimée de R en suivant la méthode proposée ci-après. C’est cette nouvelle matrice qui est utilisée pour générer les nouveaux signaux, selon la méthode K-L.
Analyse et validation de la méthodologie sur un cas simple
Le programme de validation de la méthodologie proposée au chapitre 2 s’articule selon quatre étapes distinctes. Il examine tour à tour :
• la représentativité du modèle K-L pour la génération de signaux d’entrée. Des accélérogrammes artificiels sont simulés à partir d’une base de données, et leur concordance est examinée ;
• la robustesse du tri par classes, en en faisant varier le nombre et la taille ;
• la représentativité du modèle K-L pour la génération de signaux de réponse. Deux structures simples sont soumises à des signaux d’entrée, regroupés par classes. Les calculs mécaniques fournissent alors des classes de signaux de réponse, chacune utilisée elle-même comme base pour générer une seconde fois des réponses. Ceci permet de vérifier leur concordance ;
• la prise en compte des différentes incertitudes (voir §. 2.5 et 3.5.).
Rappelons que lors d’études industrielles, par souci de temps de calcul, seuls quelques centaines de signaux d’excitation peuvent en pratique être soumis au modèle numérique de la structure. Un grand nombre de signaux sont toutefois simulés dans ce chapitre, à des fins de validation.
Tous nos calculs sont réalisés avec le logiciel Matlab.
Données
Base de signaux réels
La base d’accélérogrammes réels utilisée ici est un sous-ensemble de la base de signaux européens ESD (European Strong-Motion Database [19]). Les signaux retenus pour notre approche sont sensés constituer des réalisations d’un même processus stochastique {Γ(t)}t∈[0,T ] qui modélise l’accélération du sol pour le scénario sismique 1 retenu. On considère le cas suivant :
Modes propres de Karhunen-Loève
Comparons à présent les différentes « fonctions propres » (au sens de Karhunen-Loève) de la matrice d’autocorrélation R empirique des signaux réels, simulés et resimulés. La figure 3.5 compare les premières valeurs propres obtenues pour les trois familles de signaux.
Taille de base intermédiaire
Nous ne disposons que de 97 signaux réels, mais avons remarqué que les résultats seraient très bons si la famille de signaux de départ était mieux founie. Mais pourrait-on améliorer les résultats avec une base de taille intermédiaire, supérieure à 100 mais inférieure à 10 000 ? Examinons ce qui se passerait si la base de départ était composée de, par exemple, 500 signaux. On considère deux familles :
— T1 : 500 signaux simulés, générés à partir de E0
. Ses courbes sont affichées en bleu ;
— T2 : 10 000 signaux resimulés, générés à partir de T1 . Ses courbes sont affichées en magenta.
Examinons les mêmes indicateurs que précédemment :
— les paramètres statistiques aux tableaux 3.4 et 3.5 ;
— les quantiles des SRO figure 3.7 ;
— les valeurs propres figure 3.8 ;
— les premiers modes propres figure 3.9.
Tri par classes
En vue de construire des courbes de fragilité, les signaux d’entrée sont regroupés par « classes » selon la méthode des k-moyennes présentée au paragraphe 2.4. La démarche est identique quel que soit le paramètre statistique utilisé. Dans ce qui suit, les signaux simulés sont donc comme nous l’avons déjà précisé triés suivant leur valeur de PGA, l’indicateur le plus utilisé en génie parasismique.
Les 10 000 signaux de la famille E1 sont regroupés selon 10 classes de PGA, identifiées par leur PGA moyen. La figure 3.10 présente les SRO à 5% moyens de chaque classe de PGA.
Corrélation intra-classes des signaux d’entrée
Un problème de taille apparaît à ce stade. Parmi les signaux simulés de la famille E1 , certains semblent se ressembler très fortement. Ceci conduit en pratique à réaliser plusieurs fois le même « calcul de structure », et donc à créer de l’information redondante et inutile. Pour une première illustration nous décidons, dans chacune des deux classes 9 et 10, d’isoler les signaux présentant un fort coefficient de corrélation, par exemple supérieur à 0,9, avec le premier mode (prépondérant) de la classe. La figure 3.11 présente les résultats sur l’intervalle de temps [4; 5] pour plus de lisibilité.
Détermination de la taille des classes
Pour ce qui suit, nous souhaitons regrouper les signaux d’entrée selon différents nombres de classes, jusquà 100, et les 10 000 signaux de la famille E1 ne pourront fournir des classes suffisamment fournies pour des résultats exploitables. La base de signaux réels E0 est alors utilisée pour générer, non plus 10000, mais exceptionnellement 100 000 accélérogrammes artificiels, successivement regroupés en 5, 10, 20, 30, 50 puis 100 classes de PGA.
Pour ces différents partages en classes, les figures 3.12 et 3.13 présentent, sans intervalle de confiance, les courbes de fragilité issues des structures respectivement linéaire et non-linéaire soumises à ces 100 000 signaux.
Représentativité pour la simulation de signaux de réponse
Enrichir la base de signaux d’entrée augmente d’autant plus le nombre de calculs mécaniques, coûteux en temps. Pour en limiter le nombre, nous proposons à présent d’enrichir plutôt la famille des signaux de réponse de chaque classe. Mais si le modèle K-L semble convenir pour enrichir une famille d’accélérogrammes, des signaux filtrés pourraient présenter un contenu spectral particulier et doivent être étudiésséparément.
Les 10 000 signaux d’entrée synthétiques de la famille E1 ont été triés selon 10 classes de PGA. Nous disposons donc, pour chacune des deux structures, de 10 familles de signaux de réponse, appelées « réponses d’origine » par la suite. Nous commençons par examiner si, oui ou non, la « ressemblance » par classes des signaux d’entrée, observée au § 3.3.1 s’est propagée aux signaux de réponse, dans le cas linéaire et nonlinéaire. Une fois ce point éclairci, chacune des classes sera à son tour enrichie pour former de nouvelles classes de 5 000 signaux de sortie : les résultats seront notés « réponses resimulées » sur les légendes.
Corrélation intra-classes des signaux de réponse
Le tableau 3.7 dresse, pour les cas linéaire et non-linéaire, les mêmes données que le tableau 3.6 : dans chaque classe, il signale les signaux de réponse présentant un coefficient de corrélation supérieur à 0,9 avec un des cinq premiers modes.
Prise en compte de l’incertitude
Les cas industriels ne peuvent être traités en pratique qu’avec un nombre très réduit de signaux de réponse, situation pour laquelle il convient également de valider notre méthode. Comme précisé au paragraphe 2.5, on souhaite construire autour des courbes des intervalles représentant les différents types d’incertitudes :
— incertitude statistique, liée à la taille des échantillons ;
— incertitude sur le modèle K-L.
Incertitude statistique
Comme précisé p. 38, les courbes-cibles sont accompagnées de l’intervalle de confiance habituel au seuil de confiance 95%, présenté sur les figures 3.22 et 3.23
Incertitude sur le modèle K-L
Resimulation successive des signaux de réponse
Comme précisé p 39, une première possibilité consiste, dans chacune des classes de réponse, à tirer aléatoirement une sous-famille de signaux de réponse, utilisée comme base pour générer 5 000 nouvelles réponses avec la méthode K-L. Cette opération est répétée 20 fois, jusqu’à obtenir 20 courbes différentes : leurs quantiles fournissent un intervalle.
Cette opération est réalisée lorsque la sous-famille sélectionnée contient :
— toutes les réponses de la classe : « resimulation intégrale » ;
— seulement une partie des réponses de la classe : « resimulation sélective ».
Les figures 3.24 et 3.25 comparent :
— en rouge : la courbe-cible et son intervalle de confiance statistique ;
— en bleu : la courbe précédente issue de la resimulation « intégrale » des réponses ;
— en noir (respectivement en magenta) : quantiles à 5% et 95% de 20 courbes de fragilité différentes obtenues en resimulant, dans chaque classe, 5000 réponses, après avoir identifié un modèle KL avec 50 (respectivement 200) réponses de la classe tirées au hasard (sans remise).
Discussion
Il est possible de resimuler des accélérogrammes à partir d’une famille de signaux réels grâce à la représentation de Karhunen-Loève. Les nouveaux signaux sont similaires aux anciens en termes de nocivité sismique, contenu spectral, et modes propres prépondérants. Certains signaux simulés se ressemblent toutefois beaucoup, en particulier dans les fortes classes. La probabilité d’occurrence de ces forts séismes (PGA > 3,5m.s −2 ) est toutefois faible, du moins en zone de sismicité moyenne comme la France, puisque le risque sismique est centré sur les faibles séismes. L’introduction de ce mémoire présentait en effet la notion d’« aléa sismique » : celle-ci précise la probabilité de dépassement d’une valeur caractéristique de l’intensité sismique au cours d’une période de référence. Elle décroît, en échelle logarithmique, de manière presque linéaire selon l’intensité sismique (voir par exemple [51]). Cette probabilité est donc en réalité inversement proportionnelle à une puissance positive de l’intensité sismique et, en France, devient très faible pour les séismes des classes fortes.
Le problème s’est de plus atténué au niveau des signaux de réponse, ceux-ci s’obtenant en prenant compte de l’incertitude sur les paramètres de la structure, comme nous l’avons précisé p. 48. Nos constatations invitent donc à ne pas s’inquiéter des problèmes pouvant survenir au niveau des fortes classes, quitte à ne représenter les courbes que pour les classes faibles, voire intermédiaires.
Après s’être assuré de la robustesse du tri par classes, nous avons pu nous assurer, à l’aide de deux structures simples, qu’il est possible de resimuler les signaux de réponse, sous réserve de prendre en compte ladépendance des coefficients de Karhunen-Loève. Ceci nous permet de construire ces courbes avec moins de signaux d’entrée, proposition intéressante pour des cas industriels où les modèles numériques sont très complexes et les calculs de structures numériquement très coûteux. Dans le but, enfin, de diminuer une nouvelle fois le nombre de signaux d’entrée strictement nécessaire à notre travail, nous avons examiné plusieurs manières d’insérer les incertitudes qui pèsent sur notre modèle. L’une d’elle consiste à manipuler la matrice R qui joue un rôle central dans notre méthode, même si les résultats ne sont pas totalement satisfaisants et mériteraient d’être menés plus avant.
|
Table des matières
Introduction et démarche
1 Bibliographie
1.1 Caractérisation du mouvement du sol
1.2 Modèles stochastiques de mouvement sismique
1.2.1 Modèles classiques paramétriques
1.2.2 Modèle empirique reposant sur la représentation de Karhunen-Loève
1.3 Les courbes de fragilité
1.3.1 Définition et généralités
1.3.2 Le modèle log-normal
1.3.3 Le scaling
1.4 Conclusion
2 Méthodologie
2.1 Enrichissement d’une famille de signaux : « méthode K- L »
2.1.1 Une forme du théorème de Karhunen-Loève
2.1.2 Identification de l’excitation : « modèle K-L »
2.2 Estimation d’une densité conjointe
2.2.1 Développement sur une base de polynômes orthogonaux
2.2.2 L’estimateur à noyaux
2.3 Simulation de variables dépendantes
2.4 Tri par classes et estimation des courbes de fragilité
2.5 Prise en compte des incertitudes
2.5.1 Incertitude épistémique
2.5.2 Incertitude statistique
2.5.3 Incertitudes sur le modèle K-L
3 Analyse et validation de la méthodologie sur un cas simple
3.1 Données
3.1.1 Base de signaux réels
3.1.2 Modèles mécaniques
3.2 Représentativité pour la simulation de signaux d’entrée
3.2.1 Paramètres statistiques globaux
3.2.2 Modes propres de Karhunen-Loève
3.2.3 Taille de base intermédiaire
3.3 Tri par classes
3.3.1 Corrélation intra-classes des signaux d’entrée
3.3.2 Détermination de la taille des classes
3.4 Représentativité pour la simulation de signaux de réponse
3.4.1 Corrélation intra-classes des signaux de réponse
3.4.2 Paramètres statistiques globaux
3.4.3 Courbes de fragilité
3.5 Prise en compte de l’incertitude
3.5.1 Incertitude statistique
3.5.2 Incertitude sur le modèle K-L
3.6 Discussion
4 Application à un cas réel
4.1 Présentation de la ligne .
4.2 Calcul de courbes de fragilité
4.3 Conclusion
A Rappels de probabilités réelles
A.1 Variables aléatoires
A.2 Vecteurs aléatoires
A.3 Processus stochastiques
A.3.1 Généralités
A.3.2 Processus stationnaires
B Echantillonnage
C Démonstration du théorème de Karhunen-Loève