Variations de la sismicité islandaise pendant le doublet de Juin 2000 

Télécharger le fichier pdf d’un mémoire de fin d’études

1910-1960 : Essor de l’instrumentation, développements théo-riques

Les progrès de la première moitié du 20ème siècle sont intimement liés à la com-préhension grandissante des sismogrammes à la lumière des connaissances théo-riques préexistantes, et dont l’analyse est affinée grâce à l’essor d’instruments dont la qualité et la variété ne cessent de croître (premier sismomètre à torsion par Anderson et Wood en 1925, sismomètres longue-période de La Coste en 1934, et de Ewing et Press en 1954).
Turner [1922] découvre l’existence de séismes localisés à des profondeurs de plu-sieurs centaines de kilomètres, Jeans [1923] pose les bases de la théorie des modes propres de la Terre, et Stoneley [1924] prouve l’existence d’ondes se propageant aux interfaces solide-solide, ou fluide-solide (diffraction), dont l’application est d’un grand intérêt pour le domaine naissant de l’exploration géophysique. La structure interne de la Terre est également mieux comprise dès lors que Guten-berg [1926] révèle une zone à plus faible vitesse en superficie du manteau terrestre et par la découverte du noyau interne par I. Lehmann en 1936.
Sir Jeffreys [1926] donne les premières estimations de l’énergie dégagée par un tremblement de terre, conduisant Richter [1935] à proposer une échelle de ma-gnitude des séismes basée sur la réponse instrumentale du sismomètre (notée ML). Une meilleure classification des séismes de faible profondeur sera proposée quelques années plus tard par Gutenberg [1945] à partir de l’amplitude des ondes de surface. Ces deux sismologues sont en outre les premiers à réveler que la fré-quence des séismes dépend de leur magnitude [Gutenberg and Richter, 1944]. La loi de Gutenberg-Richter est expliquée dans l’ouvrage Seismicity of the Earth (pu-blié en 1954) qui répertorie la sismicité mondiale connue et localisée jusqu’à ce jour pour chacune des régions du monde. Cette loi décrit la fréquence d’occur-rence des séismes de magnitude M selon l’expression
log10 n(M ) = a − b.M (1.2)
où n(M ) est le nombre de séismes d’une région donnée dont la magnitude est égale à M , et a et b sont des constantes. La valeur de b, qui donne la pente de cette loi, est en général proche de 1, dans un intervalle allant de 0.8 à 1.5, selon la région et la periode considérée, voir figure 1.1. Cette loi s’applique avec b ≈ 1 quelque soit la taille du système considéré (émissions acoustiques, essaims de sismicité, grandes frontières de plaques), et reflète donc les propriétés d’auto-similarité5 de la fréquence des séismes [Mandelbrot, 1982].
Dans l’ensemble, les travaux scientifiques de cette période se focalisent principa-lement sur les chocs principaux, leurs mécanismes focaux et les signaux enregis-trés. Quelques rares auteurs étudient également les séquences de répliques, mais celles-ci ne sont vues que comme la manifestation d’un processus de relaxation inachevé après le choc principal. La théorie proposée par H. Benioff en 1951 et ba-sée sur la relaxation visco-élastique de la déformation cosismique est la première à tenter d’expliquer les délais observés entre le choc principal et les répliques, en s’inscrivant directement dans cette ligne de pensée.

1960-1980 : Sismicité globale, informatisation

La décennie suivante s’ouvre sur le séisme le plus puissant de l’histoire moderne de la sismologie. Le 22 mai 1960 à 19h11, c’est une secousse d’une rare violence (magnitude 9.5) qui a lieu au large des côtes chiliennes. Cet évènement causa plusieurs milliers de victimes, et près de 2 millions de sans-abris. Un tsunami se propagea jusqu’au Japon et en Californie, et l’on reporta de nombreux glisse-ments de terrains et d’importantes éruptions volcaniques à proximité de la zone épicentrale. Il semble à cette époque émerger une volonté d’appréhender et de surveiller les phénomènes géophysiques à l’échelle planétaire. A partir de 1963 un réseau mon-dial de 120 stations sismologiques est déployé dans 60 pays sur toute la surface du globe : le « WorldWide Standardized Seismographic Network » (WWSSN). Dans le même temps, on parvient à expliquer la localisation mondiale de la sismicité dans le cadre plus général de la théorie de la dérive des continents (tectonique des plaques) pourtant proposée par Wegener dès 1912. On comprend ainsi que les séismes sont localisés aux frontières de plaques tectoniques rigides et expriment donc l’accomodation de la déformation subie par le mouvement d’une plaque par rapport à l’autre. L’utilisation de l’informatique modifiera aussi considérablement la manière d’étu-dier les séismes. D’une part, avec l’installation du réseau WWSSN7 on met en place les premières procédures routinières de localisation des séismes. On peut également archiver de grands volumes de données sur bandes magnétiques.
D’autre part, l’avènement de l’informatique permet le développement d’outils de traitement numérique du signal (filtrage, transformée rapide de Fourier, filtrage F-K, analyse temps-fréquence) et la dynamique des systèmes d’acquisitions est décuplée grâce aux capacités des ordinateurs. Fort d’un catalogue de sismicité augmenté depuis la tentative de Omori en 1894, et cherchant à en éprouver l’universalité, Utsu [1961] revisite la loi d’Omori et montre qu’une forme plus appropriée est donnée par (t + c)p λ(t) = K (1.5) où l’exposant p varie sensiblement d’une séquence de répliques à l’autre autour de la valeur 1. Cette forme plus générale est une excellente description de la dé-croissance d’une séquence de répliques au premier ordre. Elle est aujourd’hui dénommée loi d’Omori-Utsu ou formule modifiée d’Omori, en hommage à ces deux sismologues.
Chinnery livre en 1963 le premier calcul de la contrainte induite dans un demi-espace élastique homogène suite au glissement le long d’un plan de dislocation. Cette étude annonce l’arrivée d’une nouvelle école de pensée qui adhère au prin-cipe qu’un séisme modifie profondément les propriétés mécaniques du milieu en-vironnant, non seulement en relaxant la contrainte accumulée, mais de manière plus complexe, chargeant et déchargeant ici et là l’état de contraintes du milieu en fonction de son mécanisme au foyer.

1980-1990 : Distribution spatiale des répliques

A partir de la fin des années 1970, plusieurs études montrent que la position des répliques en dehors de la faille est corrélée avec les zones chargées en contrainte par le choc principal. Yamashina [1978] mentionne ainsi l’observation de répliques du séisme de Izu-Hanto-Oki (Japon, 1974) localisées le long de plans nodaux char-gés en contraintes par un séisme antérieur, et propose donc que cette activité sis-mique soit induite par la redistribution des contraintes accompagnant ce séisme. Cette relation deviendra plus claire avec l’occurrence du séisme de Homestead Valley (Californie) en 1979. Les travaux de Das and Scholz [1981a] (voir aussi Stein and Lisowski [1983]) montrent que les répliques de cet évènement sont loca-lisées là où la contrainte cisaillante est maximale, c’est-à-dire en dehors de la zone de faille suivant une direction perpendiculaire à celle de la rupture, ou à l’extré-mité de la zone de rupture [Kostrov and Das, 1982]. Il est ici intéressant de noter que le travail de Stein and Lisowski [1983] s’appuie explicitement sur le critère de rupture de Coulomb, traditionellement utilisé en mécanique de la fracturation pour définir le seuil de rupture par cisaillement d’un échantillon soumis à une contrainte compressive. Cette approche était toutefois déjà sous-jacente dans la démonstration de Nur and Booker [1972] qui assimilent les effets d’une augmen-tation de la pression de fluide avec une diminution locale de la contrainte lithosta-tique sur le plan de faille. Elle se raccroche également aux idées de Scholz [1968c] en clarifiant toutefois les contributions respectives des contraintes normales et ci-saillantes, et définit la force de cohésion comme la résultante des actions opposées de la pression de fluide et de la contrainte normale. Revenons donc un instant sur l’application du critère de Coulomb au calcul de la variation de contrainte.
La fracture le long d’une surface Σ s’initie quand ce critère dépasse une valeur critique σc sur le plan de faille « cible » que l’on considère : σc = τ − (σn − p) (1.15)
où τ représente la contrainte tangentielle à la surface Σ, σn la contrainte nor-male à Σ, et p la pression de fluides sur cette surface. En sismologie, contrai-rement aux expériences de laboratoire, il est très difficile de calculer la valeur initiale du champ de contrainte dans la croûte. Nous utilisons donc plutôt la va-riation de contrainte induite par un séisme, c’est-à-dire la différence entre l’état de contrainte final, après perturbation, et l’état initial. Celle-ci engendre le calcul de la variation du critère de rupture de Coulomb ΔCRC comme un indicateur de l’avancement vers la rupture d’un plan de faille Σ : ΔCRC = Δτ − (Δσn − Δp) (1.16)
où Δτ correspond à la variation de la contrainte tangentielle projetée dans la di-rection du glissement, Δσn à la variation de la contrainte normale à Σ (Δσn > 0 dans le cas d’une compression), et Δp à la variation de la pression de fuides entre ces deux états distincts. Ainsi, une augmentation de la contrainte de Coulomb (ΔCRC > 0) indique un accroissement du potentiel de rupture sur la surface plane considérée, alors qu’une diminution (ΔCRC < 0) suggère une réduction de ce potentiel. La figure 1.4 montre la variation statique du critère de rupture de Coulomb estimée après le séisme de Homestead Valley (Californie, 1979) [Stein and Lisowski, 1983]. Les répliques de ce séisme sont localisées préférentiellement dans les zones où cette variation est positive [Das and Scholz, 1981a; Stein and Lisowski, 1983].

Idées contemporaines sur le déclenchement des séismes

Avant les années 1980, l’organisation temporelle des chocs principaux était vue comme aléatoire (au sens de Poisson) ou gouvernée par le concept de cycle sis-mique inspiré des travaux de Reid (chargement séculaire d’une faille, puis re-laxation soudaine des contraintes au delà d’une valeur limite). Depuis, il semble que l’occurrence des chocs principaux soit plus efficacement expliquée par des processus interactifs, où chaque séisme modifie tour à tour la probabilité qu’un autre tremblement de terre se déclenche dans une région donnée, dont l’extension s’avère plus large que le simple voisinage de la faille considérée.

Transfert statique de contrainte et séquences de forts séismes

L’étude rétrospective de successions de forts séismes ayant lieu au sein d’un même système de faille indique un contrôle, au moins partiel, des transferts co-sismiques de contraintes sur la localisation des épicentres. Plusieurs séquences analysées en lien avec les variations statiques du critère de Coulomb montrent un chargement au niveau du futur épicentre par les séismes antérieurs.
Par exemple, Stein et al. [1992] utilisent ce modèle pour expliquer la localisation du séisme de Landers (Californie, Mw 7.3, le 28 juin 1992) dans une zone préalable-ment chargée par les séismes de Homestead Valley (1979, ML5.2), de North Palm Springs (1986, ML6) et de Joshua Tree (1992, ML6.1). De surcroît, la plus forte réplique du séisme de Landers (le séisme de Big Bear, Mw 6.2) eu lieu quelques heures plus tard, elle aussi dans un lobe chargé par ce dernier évènement. Stein et al. [1994] montrent aussi que l’épicentre du séisme de Northridge (Californie, 1994, M 6.7) est localisé dans une zone préalablement chargée par les séismes de Long Beach (1933, M 6.4), de Kern County (1952, M 7.3) et de San Fernando (1971, M 6.7). Des études similaires en d’autres régions du monde appuient ces conclu-sions. Árnadóttir et al. [2003] indiquent, à propos du doublet islandais de Juin 2000, que l’épicentre du second séisme fut chargé par le premier évènement 3 jours plus tôt. Doser and Robinson [2002] expliquent de manière similaire la lo-calisation des séismes dans la région de Marlborough (Nouvelle-Zélande) depuis 1888.
La migration des grands séismes ayant eu lieu entre 1939 et 1992 le long de la faille Nord Anatolienne (Turquie) est également expliquée, dans 9 cas sur 10, par une augmentation de contrainte induite par les séismes précédents au lieu du futur épicentre [Roth, 1988; Stein et al., 1997]. Face à de tels succès, on comprend donc que cette théorie, mise tout d’abord en avant pour expliquer les positions des répliques vis à vis des propriétés mécaniques du choc principal, nous révèle de précieuses informations sur le comportement et les successions de forts séismes. S’appuyant sur le mécanisme de migration mentionné ci-dessus, quelques sismo-logues ont d’ailleurs signalé un risque accru au sud-est d’Istanbul, à proximité de la ville d’Izmit [Toksoz et al., 1979; Stein et al., 1997]. Bien qu’aucune date ne fut suggérée, leurs prévisions se sont avérées exactes lorsqu’eu lieu un séisme dévastateur le 17 août 1999 dans la zone concernée, causant plusieurs milliers de victimes.
Une conséquence indirecte de l’adéquation de ce modèle pour la localisation des répliques et des séquences de forts séismes est que ces deux phénomènes puissent être expliqués par le même mécanisme. Quelques travaux récents ont d’ailleurs testé cette conjecture dans un contexte plus général, et montré que la segmenta-tion de la sismicité suivant le schéma « précurseurs – choc principal – répliques » n’a pas vraiment lieu d’exister. Helmstetter et al. [2003b] et Felzer et al. [2004] sug-gèrent que les propriétés statistiques de ces différents types d’évènements sont complètement décrites par un modèle où n’existe qu’un type de séisme, aux pro-priétés invariantes d’échelle. Toutefois, le tableau n’est pas aussi simple que cela, et le transfert statique de contrainte n’est pas un modèle pleinement satisfaisant. D’autres séquences de séismes ne montrent pas un si bon accord avec cette approche. En effet, d’après ce modèle, le séisme de Landers relaxe les contraintes au lieu de l’épicentre du séisme de Hector Mine (1999, M 7.1) qui lui succède quelques années plus tard [Harris and Simpson, 2002]. De même, Horikawa [2001] signale que pendant le doublet de Kagoshima (Japan, 1997), l’épicentre et l’aspérité principale du se-cond séisme sont localisés dans une zone déchargée par le premier évènement. Ces deux types d’interactions ne sont pas expliquées par le transfert statique de contrainte, et il faut donc invoquer d’autres mécanismes, ou raffiner ce calcul, qui n’est qu’une estimation de premier ordre.
En outre, la simple comparaison des positions des répliques avec les lobes d’aug-mentation/diminution du critère de Coulomb ne fournit pas d’élements suffi-sants, en raison de sa négligence de l’activité préexistante. En effet, si les lobes positifs connaissent déjà une forte activité avant le séisme, alors cette comparai-son ne permet pas vraiment de vérifier la validité du modèle [Toda and Stein, 2003; Stein, 1999]. Il est donc plutôt recommandé de comparer l’augmentation (la diminution) du taux de sismicité avec le chargement (respectivement, le décharge-ment) de la contrainte de Coulomb par le choc principal. D’autres observations ne sont pas appréhendées et soulèvent donc quelques critiques quant à l’applica-bilité de ce modèle [King and Cocco, 2000] :
• Bien que la théorie semble expliquer la localisation des évènements à partir de leurs précédents, il convient de se demander si elle décrit convenablement la physique sous-jacente, notamment à propos du rôle des fluides et de la loi de la loi de friction. De plus, les variations nécéssaires au déclenchement de sismicité (typiquement entre 0.1 et 1 bar) sont faibles vis à vis de la chute de contrainte présumée pour les séismes, qui est plutôt de l’ordre de quelques dizaines de bars [Kanamori and Anderson, 1975].
• Comment expliquer l’observation de sismicité déclenchée dans les minutes après le séisme de Landers jusqu’à plusieurs centaines de kilomètres de l’épi-centre [Hill et al., 1993] ? En effet, à de telles distances du plan de faille (> 10 longueurs de rupture), le transfert statique de la contrainte de Coulomb est quasiment nul. On peut en effet montrer que la contrainte statique in-duite par le glissement le long d’une dislocation dans un milieu homogène décroît comme 1/r3 où r est la distance à ce plan [Aki and Richards, 2002], voir figure 1.5a. Ce modèle statique n’a donc aucune valeur prédictive sur la variation abrupte du taux local de sismicité à de telles distances du plan de faille.
• Comment expliquer les délais de déclenchements ? Le critère de rupture de Coulomb à coefficient de friction constant ne prédit rien ni sur le temps au-quel ont lieu les répliques, ni sur l’évolution de ce coefficient de friction. Il ne permet donc pas de livrer une explication raisonnable à cette décrois-sance. Une solution serait d’impliquer un mécanisme de friction dépendant du temps, comme par exemple des lois de friction « Rate-and-State » [Diete-rich, 1994]. Une autre possibilité est une croissance sub-critique de la zone de fracture, comme proposée par [Das and Scholz, 1981b], page ??. On peut aussi impliquer une relaxation élastico-visqueuse dans la croûte inférieure qui redistribue graduellement les contraintes dans la croûte supérieure, et donc influe sur le taux de sismicité pendant les mois qui suivent un fort séisme [voir Freed, 2005, ainsi que les references citées par cet article].
• L’existence d’apaisements du taux de sismicité dans les zones déchargées est encore une réalité controversée dans la communauté sismologique [Har-ris and Simpson, 1998; Felzer and Brodsky, 2005]. Si l’existence de celles-ci n’était pas prouvée, le mécanisme d’interaction pourrait tout aussi bien consister en un transfert dynamique, associé à quelque mécanisme favori-sant le délai à la rupture.
Bien entendu, le modèle statique évoqué ici n’a jamais eu vocation à expliquer toutes les observations en matière de sismicité. Il fut plutôt proposé initialement pour comprendre la distribution spatiale des répliques. Néanmoins, les limites mentionnées ci-dessous montrent l’invalidité de ce mécanisme pour expliquer les délais et le déclenchement à grandes distances. Il est donc nécéssaire d’y associer d’autres processus mécaniques de transferts afin d’expliquer le comportement de la sismicité.

Intérêt de cette étude et de l’approche adoptée

Nous étudions la réponse sismique de la croûte terrestre à un changement de contrainte. Pour cela, nous cherchons à caractériser la distribution spatiale et les écarts à la décroissance moyenne des répliques. Que penser de la rare observation des zones d’apaisements de sismicité suite à un séisme ? Ces zones existent-elles vraiment ? Comment discriminer les effets des déclenchements statiques et dynamiques sur la sismicité ? La composition géologique de la croûte terrestre favorise t-elle l’un ou l’autre de ces phénomènes, comme le pensent notamment Hill et al. [1993] ?
Afin de répondre à ces interrogations, notre approche est d’étudier les séquences de répliques liées aux doublets de forts séismes. Plus précisément, nous investiguons les taux de sismicité consécutifs aux seconds évènements de ces doublets.
Le principal avantage de cette méthode est qu’elle nous permet d’étudier de manière non biaisée les apaisements de sismicité, en raison de la forte activité sismique préexistante. Plus généralement, nous pouvons voir l’influence d’une forte perturbation sur un grand nombre de petites ruptures, et comment les temps d’occurrence de la microsismicité en seront affectés.
Comme nous étudions les variations du taux de sismicité entre les états précédant et suivant le second choc principal d’un doublet, notre étude reste limitée à la zone de répliques du premier évènement. Cette configuration nous donne de plus l’opportunité d’étudier les variations de sismicité dans la zone de faille du premier séisme, et de comprendre comment celle-ci réagit à l’occurrence du second évènement de la séquence.
Par ailleurs, nous essaierons de comprendre comment la répartition spatiale de ces répliques est influencée par l’activité préexistante. Les zones déclenchées par le premier séisme le sont-elles à nouveau après le second ? Comment ce déclenchement se démarque t-il alors de l’activité « normale » attendue si le second n’avait pas lieu ? Et comment évolue la loi d’Omori après le deuxième choc principal ?
Est-elle reproductible d’un séisme à l’autre si ces deux évènements ont lieu à des temps rapprochés ?

Etude globale des doublets de forts séismes

L’observation de doublets de séismes, successions rapides et d’extension géographique limitée, révèle l’existence d’interactions fortes entre failles ou segments de failles. Dans ce chapitre, nous cherchons à caractériser les propriétés générales de leur occurrence, ainsi que de celles de leurs séquences de répliques à l’échelle mondiale. Plus particulièrement, nous testons l’hypothèse nulle suivante : « Les répliques  ayant lieu après les 2nd chocs principaux de ces séquences correspondentelles à une simple juxtaposition de 2 séquences de répliques normales (impliquant donc une linéarité de la production de répliques en cas de doublet), ou impliquent-elles d’autres phénomènes conduisant à une modification de cette productivité (épuisement des sites de nucléation de séismes par le 1er évènement, non-linéarité de la loi de friction…) ? ».
Alors que la production de répliques augmente normalement en loi de puissance avec la magnitude du choc principal (équation 4.1), on observe toutefois des déviations notables pendant certaines crises sismiques comme les essaims de sismicité, ou quelques séquences de forts séismes. Les essaims de sismicité correspondent cependant à une catégorie spéciale de séismes, pour laquelle on soupçonne une influence importante de la migration de fluides sur cette productivité [Hainzl and Ogata, 2005; Vidale et al., 2006]. Par contre, la faible production de répliques observée pour quelques séquences de séismes pourrait révéler une dépendance de cette productivité vis à vis du délai entre les chocs principaux, ou l’implication de processus non-élastiques gouvernant ce processus. Par exemple, lors du doublet Kagoshima (Japon) de 1997, Toda and Stein [2003] montrent que le second séisme déclenche beaucoup moins de répliques que le premier en dépit de magnitudes similaires pour les deux évènements. Ce caractère est également perceptible au cours de la séquence de Hyuga-nada (Japon) de 1996 [Yagi et al., 1999], ou de la zone sismique sud-islandaise en juin 2000 [Árnadóttir et al., 2003, et chapitre 3 de ce volume].
L’étude des doublets de séismes constitue ici l’outil idéal pour étudier les mécanismes gouvernant la production des séquences de répliques. Elle permet notamment de révéler les déviations des taux de répliques par rapport à la loi d’Omori, et de mettre en avant des interactions de second ordre, invisibles dans le cas de séismes seuls. Nous comptons donc sur la forte activité générée suite au premier séisme de ces doublets pour constituer un signal suffisamment fort, autour duquel pourront se révéler des déviations significatives, et dont l’analyse pourrait potentiellement s’appliquer à toutes les échelles de la sismicité.
Cette étude montre que la probabilité d’observer un second fort séisme après un premier, dans une petite fenêtre spatio-temporelle (zones de ruptures juxtaposées ou se recouvrant partiellement, et délais maximums d’un an), peut être simplement décrite à partir des propriétés habituelles des répliques (lois d’Omori-Utsu et de Gutenberg-Richter). En ce sens, ces seconds évènements sont donc des répliques de forte magnitude du 1er séisme (parfois si fortes qu’elle peuvent même être supérieures à ce premier évènement). L’investigation de la production des répliques après le second de ces deux séismes dévoile par ailleurs que celui-ci correspond à celui d’un séisme isolé de même magnitude. Cette conclusion est corroborée par les résultats similaires d’une méthode paramétrique et d’une méthode plus objective (n’impliquant pas de modèle a priori) pour différencier les chocs principaux de leurs répliques respectives.
Il est interessant de noter ici que ce résultat moyen, caractérisant l’ensemble de notre population de doublets, va à l’encontre des observations mentionnées précédemment, et d’un modèle où les failles sismogéniques seraient gouvernées par des lois de friction « Rate-and-State » [Dieterich, 1994], et soumises à de faibles perturbations de contraintes. Dans le cas de chargement plus forts en contraintes, les prévisions de ce modèle ne sont pas appréhendables avec la résolution de notre jeu de données.
Nous nous retrouvons donc face à deux possibilités. Soit aucune différence n’existe entre la productivité de répliques des séismes isolés et celles de séismes impli95 qués dans des doublets, comme suggéré par nos résultats. Dans ce cas, il convient d’expliquer les observations à Kagoshima et en Islande. Par exemple, le fort déclenchement dynamique de sismicité en Islande pourrait élucider la raison d’une forte productivité de répliques suivant le premier séisme par rapport au second. Soit il existe bien une différence de productivité entre les séismes isolés et les seconds des doublets, mais celle-ci est faible (ne concerne pas la majorité des doublets), et nous n’avons pas ici la résolution suffisante pour isoler ce phénomène.
Nous proposons alors de pousser plus loin cette investigation en utilisant des catalogues de sismicité régionaux, dont le seuil minimal de détection est bien plus bas. Ce genre d’analyse requerrait d’explorer la sismicité de plusieurs doublets au cas par cas, afin de distinguer d’éventuelles déviations de la production moyenne de répliques, et de chercher des corrélations avec le délai séparant les deux évènements, leurs magnitudes, ou le contexte géologique de la région considérée.
Enfin, une autre faiblesse de notre jeu de données réside dans son impossibilité à distinguer les comportemements à très court-terme (quelques jours) après les 2nds séismes des doublets, en raison de la trop grande rareté des répliques à l’échelle que nous consiérons.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction générale
1 Des premières études sur les répliques à l’identification d’interactions 
1.1 Historique contextuel de l’étude des répliques
1.1.1 1890 – 1910 : Travaux pionniers
1.1.2 1910-1960 : Essor de l’instrumentation, développements théoriques
1.1.3 1960-1980 : Sismicité globale, informatisation
1.1.4 1980-1990 : Distribution spatiale des répliques
1.2 Idées contemporaines sur le déclenchement des séismes
1.2.1 Transfert statique de contrainte et séquences de forts séismes
1.2.2 Apaisements de sismicité
1.2.3 Déclenchement dynamique
1.3 Récapitulons…
1.4 Intérêt de cette étude et de l’approche adoptée
1.5 Doublets de séismes
1.5.1 Détection d’un apaisement de sismicité
1.5.2 Quelques mots sur l’estimation des variations du taux de sismicité
2 Réactivation de sismicité après le séïsme de Düzce
2.1 Résumé
2.2 Introduction
2.3 Data
2.4 Method for Measuring Seismicity Triggering and Quiescence
2.5 Changes in Seismic Activity Along the North Anatolian Fault
2.5.1 Eastern Region
2.5.2 Western Region
2.5.3 Yalova Cluster
2.6 Conclusion
2.7 Acknowledgments
3 Variations de la sismicité islandaise pendant le doublet de Juin 2000 
3.1 Résumé
3.2 Introduction
3.3 Investigating seismicity rates variations of an incomplete catalogue
3.3.1 General outline of the method
3.3.2 Accounting for a non-stationary detection threshold
3.3.3 Practical implementation of the method
3.3.4 A test of the method
3.4 Rate changes in Southern Iceland following the June 21st earthquake
3.4.1 Short-term triggering following the June 21, 2000 earthquake
3.4.2 Delayed quiescences
3.4.3 Comparing dynamic triggering of both June 2000 mainshocks
3.5 Conclusion
3.6 Acknowledgments
4 Etude globale des doublets de forts séismes 
4.1 Résumé
4.2 Introduction
4.3 Selection of mainshocks and doublets
4.3.1 Dataset
4.3.2 Mainshock identification and aftershock sequences
4.3.3 Doublets of large earthquakes
4.4 Characteristics of earthquake doublets
4.4.1 Doublets occur as large aftershocks of large mainshocks
4.4.2 Relative azimuth of aftershocks
4.5 Comparing aftershock production of doublets and of single mainshocks
4.5.1 Aftershocks located within one rupture length of mainshocks
4.5.2 Bare aftershock rates
4.6 Discussion
Conclusion générale 
A Ajustement d’un modèle parMaximum de Vraisemblance 
A.1 Vraisemblance d’un processus de Poisson
A.2 Estimation par maximum de vraisemblance
A.2.1 Quelques exemples
A.2.2 A propos de la minimisation
B Mean-Field Extrapolation of the ETASModel 
B.1 Theory
B.2 Examples
C Détermination automatique de la complétude d’un catalogue 
C.1 Modélisation de la sismicité incomplète
C.2 Zoom : calcul de ϕ
C.3 Estimation de l’incertitude sur les paramètres
Bibliographie 

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *