Inversion cinématique de la source sismique: état de l’art

Les dégâts causés par les tremblements de Terre incitent les scientifiques à comprendre les phénomènes en œuvre lors des séismes pour réduire leurs effets destructeurs. Ces effets sont de plus en plus meurtriers du fait de l’urbanisation galopante de certaines villes, en particulier dans les pays en développement. Aujourd’hui nous savons que la source d’un séisme est liée à une rupture dans la roche. Les ondes que nous ressentons en surface sont émises par le glissement d’un compartiment de roche par rapport à l’autre, sur un plan de faille. Étant donné que la rupture s’initie, se développe et s’arrête à l’intérieur de la Terre solide (parfois sans atteindre la surface), le sismologue n’a pas les moyens d’étudier d’une manière directe ce phénomène, il ne peut qu’observer ses effets en surface. Il peut alors comparer les observations (quand elles sont disponibles) aux modèles analogiques, théoriques ou numériques. Cette comparaison permet essentiellement d’écarter les hypothèses n’expliquant pas la réalité.

L’étude des tremblements de Terre est devenue, en l’espace de quelques décennies, une véritable science. Elle regroupe plusieurs disciplines, physique, mathématiques, mécanique, géologie etc… Cette science a fait un progrès significatif dans la compréhension de la physique de base des tremblements de Terre. Dans le domaine particulier de l’étude de la source sismique, de plus en plus d’observations précises et abondantes sont disponibles pour étudier le phénomène à l’origine des ondes sismiques. Parmi ces enregistrements, les accélérogrammes sont particulièrement riches en information relative à la source. Ce type d’observation n’est possible qu’en champ proche, dans un rayon de quelques longueurs de failles. Les accéléromètres enregistrent, en effet, l’accélération du sol à très hautes fréquences (petites longueurs d’ondes). Ces dernières sont rapidement atténuées par la propagation entre la source et la station. De plus en plus de failles sont surveillées par ce type d’instrument. Cette thèse participe à l’effort de compréhension de la source sismique. L’histoire du déplacement en tout point sur le plan de la faille peut être reconstituée en inversant les observations proches de la zone de rupture. En champ proche, la fonction de Green varie beaucoup en fonction de la position sur le plan de faille. C’est ce qui permet d’imager en détail la distribution spatio-temporelle du glissement. L’inversion cinématique à basse fréquence reste d’actualité parce que les enjeux de telles inversions sont forts : leur résultats servent de données de base pour d’autres approches pour la compréhension de la source sismique (mécanique de la rupture) ou pour la réduction du risque sismique (scénarii de séismes).

Inversion cinématique de la source sismique aujourd’hui : état de l’art

Des observations directes permettant de décrire le déroulement d’un tremblement de Terre ne sont pas possibles à cause de deux obstacles majeurs : le premier est lié à la grande profondeur à laquelle le séisme s’initie et aussi, souvent, y prend fin. Le second est dû à la très courte durée de l’événement. Le seul moyen existant pour reconstituer le court instant d’un tremblement de Terre est donc la modélisation et l’inversion de données sismologiques. Les premières tentatives de construction d’un modèle de rupture ont été basées sur des procédures d’essai et erreur. Archuleta (1982) avait obtenu à cet effet un très bon accord avec les données du séisme d’Imperial Valley de 1979. A la même époque, Olson et Apsel (1982) ont proposé l’utilisation de méthodes inverses. Aujourd’hui, on trouve une classe importante de méthodes d’inversion basée sur l’optimisation de modèle de rupture par rapport aux séries temporelles (sismogrammes) avec différentes implémentations (Hartzell et Heaton, 1983 ; Fukuyama et Irikura, 1986 ; Beroza et Spudich, 1988 ; Das et Kostrov, 1990). Une autre approche consiste à optimiser le modèle par rapport au spectre complexe des sismogrammes (Cotton et Campillo, 1995).

Problème direct et problème inverse 

En général, il est plus facile de calculer l’effet d’une cause que d’estimer la cause d’un effet. On connaît en général le raisonnement mathématique ou physique à utiliser pour décrire les observations si les conditions, structure et propriétés de la Terre, sont bien connues. Ce type de calcul constitue le problème direct. Le problème direct est généralement formulé par l’expression d = G(m) où m est la fonction décrivant les paramètres du modèle et d un nombre fini de données, m et d sont tous deux des vecteurs.

Solution du problème inverse
Mathématiquement parlant, le problème inverse consiste à minimiser l’écart, que l’on appelle fonction coût, entre le sismogramme synthétique, calculé avec la modélisation directe, et le sismogramme réel. La fonction coût (C) est une fonction permettant d’évaluer la « différence » entre les données et le modèle. Elle peut être linéaire ou non linéaire et selon le cas, différents types de programmation sont appliqués.

Une recherche aléatoire (Monte-Carlo) du modèle qui explique le mieux les données peut être utilisée si le nombre de paramètres est restreint. Afin de s’assurer que l’espace des modèles a été suffisamment exploré, un très grand nombre de modélisations directes est nécessaire (inversion globale). Ce type d’inversion n’est donc réaliste que pour un nombre limité de paramètres à inverser (<10). L’avantage de cette approche est de détecter les non-unicités. Il va sans dire que ce type d’algorithme peut être très coûteux en temps de calcul.

Un algorithme de minimisation, par le critère des moindres carrés généralisés, résolu par une méthode de gradient est bien adapté pour réduire les écarts (fonction coût) entre les simulations et les observations. Le principe de cette méthode est le suivant: on fait l’hypothèse que la solution initiale est proche de la solution optimale. Il s’agit d’une linéarisation du problème autour de sa solution. On suppose aussi de pouvoir définir pour chaque itération une direction de descente vers le minimum de la fonction coût, ainsi qu’un pas de descente le long de cette direction.

Principe de l’algorithme génétique:
Les algorithmes génétiques, qui s’inspirent de la biologie, ne permettent pas d’obtenir assurément une solution optimale exacte, mais plutôt une solution de qualité avec peu d’efforts de calcul. L’algorithme génétique (résumé sur la Figure 5) part de plusieurs solutions possibles (population initiale) générées aléatoirement. Puis vient l’étape de l’évaluation et de la sélection en favorisant la « survie » des modèles donnant les simulations les plus proches des observations. Ceux-ci peuvent alors se reproduire (croisement…) et donnent naissance à une nouvelle génération. Pour favoriser la diversité, l’algorithme crée des mutations de façon aléatoire au moment de la reproduction, ce qui provoque l’apparition de « mutants » issus des meilleurs parents. Les mutants sont placés dans la population. Si la nouvelle population n’est pas satisfaisante, on effectue une autre sélection et on recommence. Ainsi les générations successives deviennent de mieux en mieux adaptées à la résolution du problème. L’avantage de cet algorithme est de produire une population de solutions acceptables à partir de laquelle on peut évaluer la variance des paramètres ou détecter des solutions multiples comme plusieurs « groupes » dans la population adaptée. Un algorithme génétique est capable de résoudre des problèmes dont on ne connaît pas de méthode de résolution ou dont la solution exacte est trop complexe pour être calculée en un temps raisonnable.

Enjeux des inversions cinématiques 

Hétérogénéité du glissement sur le plan de faille

Comprendre la distribution spatio-temporelle du glissement sur le plan de faille pendant les séismes est une étape fondamentale pour la simulation des mouvementsforts et la compréhension du cycle sismique. Avec la multiplication des réseaux sismologiques et autres géodésiques, il est possible aujourd’hui d’avoir une image de la distribution du glissement sur le plan de faille et de l’histoire de la rupture en inversant les formes d’ondes enregistrées. Le retour d’expérience montre que la distribution du glissement est très hétérogène dans l’espace et dans le temps comme il est montré dans des dizaines de modèles cinématiques. Cependant, la plupart de ces inversions ont été effectuées à basses fréquences (<0.5-1.0 Hz) à cause de la difficulté de modéliser les formes d’ondes plus hautes fréquences qui sont très complexes. Cette difficulté est due à la complexité du processus de la source et aux phénomènes de diffraction des ondes dans la croûte. A basses fréquences, seules les aspérités de grande taille sont imagées. On peut donc s’attendre à une distribution du glissement plus complexe si les hautes fréquences sont prises en considération lors de l’inversion. Il est connu que l’aspérité au passage du front de rupture produit une onde d’une période caractéristique proportionnelle à sa taille : plus l’aspérité est petite, plus la fréquence coin du spectre est grande, i.e., la gamme des fréquences émises en déplacement est plus large (voir par exemple le spectre de Haskell). La distribution du glissement devient de plus en plus hétérogène quand on augmente la fréquence maximale inversée. En comparant un modèle de glissement obtenu par inversion de données géodésiques (mesures du champ statique à la fréquence nulle) et un modèle obtenu par inversion de données sismologiques, pour un même séisme, le nombre de petites aspérités augmente considérablement .

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction générale
Chapitre I : Inversion cinématique de la source sismique: état de l’art
Introduction
1. Problème direct et problème inverse
2. Solution du problème inverse, diverses méthodes
3. Enjeux des inversions cinématiques
Hétérogénéité du glissement sur le plan de faille
Explication des formes d’ondes à basses fréquences (<1.0 Hz)
Effet de directivité
Vitesse de rupture
Inversion à hautes fréquences (> 1 Hz)
Résolution
4. Les images cinématiques comme données de base
Lois d’échelles
Sismicité déclenchée
Dynamique de la source
Conclusion
Chapitre II : Méthodologie
1. Les données en champ proche
Mouvements forts
Que peut-on tirer comme information d’un accélérogramme?
Géodésie
Distribution 3D des répliques
2. Méthode utilisée
Paramétrisation
Procédure d’inversion
Analyse de l’erreur et de la résolution
Le lissage
Contrainte et approximation
3. Modèles de croûte et modélisation des mouvements statiques
Chapitre III : Le séisme de Tottori (Japon), 06/10/2000
I/ Le séisme de Tottori : un fort séisme superficiel sans trace de rupture en
surface
Article: The 2000 Tottori earthquake: A shallow earthquake with no surface rupture and slip properties controlled by depth:
Abstract
1. Introduction
2. Data
Strong motion data
Data selection and site effects analysis
Data processing and weighting
Geodetic data
3. Waveform inversion methodology
Inversion method
Crustal structure model and Green’s functions
Origin time
Fault-plane geometry
4. Results
Fault-plane geometry selection
GPS inversion
Strong-motions inversion
Data and subfault size choices
Boreholes records and large subfaults parameterization
Boreholes records and small subfaults parameterization
Surface records and large subfaults parameterization
Surface records and small subfaults parameterization
Two-step inversion with slip allowed at the surface
Two-step inversion model with no slip at the surface
5. Discussion and conclusions
II/ Variation de contraintes statique et dynamique de Coulomb
Article : Fault interaction and triggering by dynamic and static stress changes:
application to the 2000 Tottori (Japan) earthquake
Abstract
1. Introduction
2. Static stress changes after the 2000 Tottori earthquake
Description of the 2000 Tottori earthquake
Static Coulomb stress changes calculations
3. Dynamic stress changes after the 2000 Tottori earthquake
Input parameters
Results on the fault plane of the largest aftershocks
4. Estimates of Dc of the largest aftershock
Description of the model
Triggering delay as a function of the critical slip Dc
5. Discussion
Friction law and aftershock triggering
Value of Dc for the largest aftershock
Implications for seismic hazard
6. Conclusions
References
Conclusion générale

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *