Télécharger le fichier pdf d’un mémoire de fin d’études
Les différentes techniques de prévision numérique
La prévision déterministe
La prévision numérique déterministe a pris un élan avec le développement des moyens de calcul numérique. Introduite par V. Bjerknes en 1904, la prévision déterministe se base sur deux principes : un état initial de l’atmosphère établi à l’aide d’observations et une modélisa-tion des équations décrivant l’évolution dynamique et physique de l’état initial. La prévision déterministe peut être globale, régionale ou locale en fonction des échelles géographiques et temporelles des phénomènes ciblés. Les équations modélisées ainsi que leurs approximations doivent tenir compte de ces échelles. La prévision déterministe a bénéficié de l’évolution des réseaux et techniques d’observation, permettant ainsi une meilleure description de l’état ini-tial de l’atmosphère. La figure II.2 présente un exemple de prévision du modèle AROME pour la température de surface pour le 02 juillet 2020 à 00 UTC.
Toutefois, l’état initial reste une source d’erreur considérable dans la prévision. En effet, une différence infime par rapport à l’état réel de l’atmosphère peut croître avec les échéances de prévision, ce qui reflète les limites de la prévision déterministe à moyen terme (au-delà de trois jours et jusqu’à trois semaines) et long terme (de plus d’un mois, jusqu’à deux ans). Par ailleurs, les équations modélisent l’évolution dynamique et physique de l’état initial de manière imparfaite, elles présentent une source supplémentaire d’erreur. L’évolution des moyens de calcul a permis de développer davantage ces équations en représentant les processus physiques de manière plus réaliste et d’augmenter les résolutions spatiales et en réduisant les pas de temps des modèles numériques. Toutefois, ces équations restent une approximation de l’évolution de l’atmosphère qui est beaucoup plus complexe.
La prévision d’ensemble
La prévision d’ensemble est une forme de prévision probabiliste, qui consiste à remplacer la prévision de l’état futur d’une variable météorologique par une fonction de densité de probabilité. La prévision d’ensemble propose une approche réaliste de la prévision probabiliste avec les moyens de calcul actuels, en représentant une approximation de la fonction de densité de probabilité par un ensemble fini d’éléments. Ceci consiste à échantillonner la fonction densité de probabilité par un ensemble de N échantillons représentatifs, appelés membres. Cette approche, permettant de réduire le coût de calcul, est largement utilisée dans l’étude du changement climatique afin de réaliser des projections climatiques sur de nombreuses années et d’estimer leurs incertitudes.
La prévision d’ensemble est également utilisée à des fins de prévision numérique du temps surtout avec le développement considérable des moyens de calcul. La figure II.3 montre à titre d’exemple les sorties du modèle de prévision d’ensemble AROME pour le cumul de 24h des précipitations du 1er novembre 2008 sur le sud de la France. Pour le modèle AROME, un ensemble de N=10 membres est considéré.
Les modèles numériques de Météo-France
Le modèle global ARPEGE
ARPEGE (Action de Recherche Petite Echelle Grande Echelle) est le modèle global de prévision numérique du temps à Météo-France [Courtier et al., 1991]. ARPEGE est un modèle spectral à troncature triangulaire. Le modèle ARPEGE fait partie du code ARPEGE-IFS (Integrated Forecasting System) développé et maintenu conjointement avec le CEPMMT (Centre Européen pour les Prévisions Météorologiques à Moyen Terme). ARPEGE est un modèle hydrostatique. L’approximation hydrostatique consiste à négliger l’accélération ver-ticale des particules devant d’autres forces telles que la gravité, mais ne reste applicable qu’à des résolutions horizontales assez importantes comme l’échelle synoptique. Celle-ci qualifie les phénomènes qui s’étendent horizontalement sur quelques milliers de kilomètres, verticale-ment sur quelques kilomètres et dont la durée de vie est de quelques jours. ARPEGE a subi de nombreuses évolutions (46 cycles actuellement) depuis sa création en 1987 afin de suivre les avancées technologiques et scientifiques dans les domaines de la prévision numérique, de l’assimilation de données et du calcul intensif.
Afin d’avoir une haute résolution sur la France tout en limitant le coût de calcul le modèle ARPEGE adopte une grille non régulière dite étirée. Elle est de l’ordre de 5 km sur la France et atteint 25 km aux antipodes comme décrit sur la figure II.4.
Dans le modèle ARPEGE, l’état initial de l’atmosphère est déterminé par un système d’assimilation permettant d’ingérer différentes observations conventionnelles (radiosondages, stations terrestres, données avions, bouées, etc) et télédétectées depuis l’espace (satellites de géolocalisation (GNSS), capteurs infrarouges, capteurs micro-ondes, etc). Le système d’as-similation sera détaillé dans la section II.4.3. Les différents types d’observations assimilées seront détaillés davantage dans la section 2.4.3.
Le modèle à maille fine AROME
AROME (Applications de la Recherche à l’Opérationnel à Méso-Echelle) est le modèle à aire limitée non hydrostatique de Météo-France, devenu opérationnel en décembre 2008 [Seity et al., 2011]. Le développement du modèle AROME a pour but de produire de meilleures prévisions à méso-échelle et courte échéance de phénomènes locaux en basses couches tels que le brouillard et les orages grâce à une résolution explicite de la convection. AROME est un modèle bi-spectral et combine une partie du schéma physique du modèle de recherche Meso-NH (modèle de recherche non-hydrostatique à maille fine développé conjointement par le CNRM et le Laboratoire d’Aérologie) [Lafore et al., 1997] avec la version non-hydrostatique du schéma dynamique du modèle ALADIN (Aire Limitée Adaptation dynamique Développement InterNational) [Bubnová et al., 1995].
Différentes configurations du modèle AROME ont été développées à Météo-France telles que AROME-PI pour l’élaboration des prévisions immédiates [Auger et al., 2015], AROME-WMED (AROME West Mediterranean Sea) [Fourrié et al., 2015] qui se situe dans le cadre de la campagne HyMeX [Ducrocq et al., 2019] et qui couvre la région ouest de la Méditer-ranée, AROME-OM qui couvre les différents domaines géographiques d’Outre-Mer à savoir les Antilles, la Guyane, la Réunion-Mayotte, la Polynésie et la Nouvelle-Calédonie [Faure et al., 2020] ou AROME-France que nous avons utilisé au cours de ce travail de thèse. Le domaine du modèle AROME centré sur la France s’étend en sa version opérationnelle, avec un maillage horizontal de 1.3km, selon une projection CCL (Conform Conical Lambert) de -12.45◦ E jusqu’à 16.67◦ E et de 37.26◦ N jusqu’à 55.69◦ N comme le montre la figure II.5. Le domaine AROME est composé à plus de 57 % de surfaces continentales. Nous constatons sur la figure II.5 une plus grande variabilité de la température de surface sur continent que sur mer et des échelles de variations plus fines. La modélisation de la température de surface constitue alors un plus grand défi sur continent que sur océan.
Différentes observations sont assimilées dans le modèle AROME telles que les observations de stations au sol, les données de radars et les observations satellitaires avec une fenêtre d’assimilation (intervalle pendant lequel les observations sont considérées dans l’assimilation) d’une heure. Le tableau II.2 résume les caractéristiques principales de la version opérationnelle depuis décembre 2015 utilisée dans ce travail de thèse.
Les modèles atmosphériques AROME et ARPEGE sont couplés implicitement [Best et al., 2004] à la plateforme de modélisation SURFEX pour les surfaces continentales et océaniques.
Le modèle SURFEX
SURFEX (SURFace EXternalisée) [Masson et al., 2013] est une plateforme de modéli-sation de surface, développée par Météo-France, qui regroupe plusieurs modèles. SURFEX est un modèle autonome et peut être exploité en mode forcé (avec atmosphère imposée) par des champs atmosphériques ou bien en mode couplé avec un modèle atmosphérique. Comme décrit par la figure II.6, SURFEX modélise les flux échangés entre la surface et l’atmosphère. SURFEX prend comme variables d’entrées les données du modèle atmosphérique pour dif-férents paramètres tels que la température, le rayonnement, le vent, etc. Ces paramètres correspondent au premier niveau vertical du modèle atmosphérique (qui se situe à 5 m pour AROME et 10 m pour ARPEGE). D’autre part, d’autres flux de surface tels que les flux de chaleurs latente et sensible, l’albédo et l’émissivité de surface sont échangés implicitement entre SURFEX et le modèle atmosphérique. La figure II.6 montre également la classification des types de couvertures de sol dans SURFEX. En effet, SURFEX divise les points de grilles du modèle atmosphérique en tuiles (fractions de la maille du modèle correspondant à un type de surface) correspondant à des surfaces de quatre types (mer, lac, ville ou nature). Chacune de ces surfaces, ou tuiles, est modélisée d’une façon indépendante. La tuile nature peut se diviser à son tour en différents types de sol (ou patchs). Un patch contient des pourcentages des différentes couvertures de sol (covers) qui le constituent. La version utilisée au cours de ce travail contient 243 « covers ».
Les flux échangés vers le modèle atmosphérique sont moyennés d’une façon pondérée en fonction des fractions des différentes tuiles. Par exemple, la température de surface calculée par SURFEX est la somme des température de surface de la mer SST (Sea Surface Tem-perature), température de surface des lacs (TLake), température de surface de route (TRoad) et température de la première couche de sol naturel (Tg1) pondérées respectivement par les fractions mer, lac, ville et nature. Par ailleurs, SURFEX intègre différents schémas correspon-dant aux différentes tuiles. Nous présentons dans ce qui suit les caractéristiques principales des différentes tuiles SURFEX.
22 Les modèles numériques de Météo-France
La tuile Nature
La tuile Nature correspond à tout type de surface continentale non urbanisée. Elle se divise en 12 types de sol en fonction du couvert végétal. Ceci peut représenter des forêts, des prairies, des champs, etc. La tuile nature utilise le modèle de surface à trois couches de sol ISBA-3L (Interaction Sol-Biosphère-Atmosphère) afin de modéliser les interactions au niveau de la surface entre le sol, l’atmosphère et la couverture végétale. La première couche est d’une profondeur de 1 cm. La seconde couche est d’une profondeur allant de 1 m à 2 m. Les variables pronostiques du schéma de surface sont la température et le contenu en eau des deux premières couches du sol. La température de la première couche du sol est notée ici Tg1 et la température de la seconde couche Tg2. En ce qui concerne le contenu en eau, le contenu en eau de la première couche est noté Wg1 et le contenu en eau de la seconde couche est noté Wg2.
La tuile Ville
La tuile Ville correspond aux surfaces urbanisées. SURFEX utilise le schéma de ville TEB (Town Energy Balance) [Masson, 2000] afin de modéliser la tuile ville dans AROME (TEB n’est pas activé dans le modèle ARPEGE, les fractions ville sont remplacées par des surfaces rocheuses). Le schéma TEB se base sur le principe de canyon urbain et simplifie la ville, comme décrit sur la figure II.7, en trois composantes : route, mur et toit.
Une ville est alors schématisée par un canyon moyen comprenant une route droite, un toit plat et deux murs.
Les tuiles Lac et Mer
Les tuiles Lac et Mer correspondent aux surfaces couvertes par des eaux intérieures (tuile Lac) et aux surfaces de mer et d’océan (tuile Mer). Dans la version intégrée dans AROME, ces tuiles sont modélisées à l’aide de paramétrisations simples. Les variables pronostiques (SST mer et lac) sont maintenues constantes alors que la longueur de rugosité Z0 est calculée avec la formule de Charnock : Z0 = αc u∗2 (II.1) où αc est le coefficient de Charnock (valeur typique :0.011-0.012), u∗ est la vitesse de friction et g est l’accélération de la pesanteur.
Pour une température de surface inférieure à 271.15 K, la tuile est supposée couverte de glace de mer et la longueur de rugosité ainsi que l’albédo considérés sont ceux des surfaces couvertes de neige.
Par ailleurs, les surfaces de lacs peuvent être modélisées avec le schéma FLAKE [Le Moigne et al., 2016] mais ce schéma n’est pas encore activé dans la version opérationnelle d’AROME. Ce schéma offre une paramétrisation physique dédiée et modélise le profil vertical de tempé-rature ainsi que les conditions de mélange à différentes profondeurs.
L’assimilation de données
Principe
L’assimilation de données est une technique permettant de corriger un système donné à l’aide d’observations en produisant une analyse. Cette analyse constitue un compromis entre des observations et une estimation a priori du système, en tenant compte de leurs incertitudes respectives. L’assimilation de données se base sur une information objective, sous forme d’observations, et une estimation a priori du système, souvent une prévision à courte échéance produite par un modèle numérique.
Un cycle d’assimilation de données commence avec une prévision à courte échéance de l’état d’un système donné, appelée également ébauche (ou background), et qui est entachée d’erreurs modèle, à laquelle s’ajoute un ensemble d’observations disponibles sur une fenêtre temporelle donnée, qui sont elles aussi entachées d’erreurs d’observation. En se basant sur ces deux sources d’information, le système d’assimilation de données produit, d’une façon optimale, un nouvel état du système le plus probable et dont l’incertitude est inférieure à celle de l’ébauche. Ce nouvel état, appelé analyse, sert ensuite comme état initial à une nouvelle prévision. Le cycle d’assimilation est ainsi terminé. La nouvelle prévision produite servira d’ébauche pour le cycle d’assimilation suivant.
Plus concrètement, la figure II.8 présente le principe de l’assimilation de données à chaque cycle d’assimilation (t1, t2,… ,tn). À chaque cycle i, le système d’assimilation agit en vue de trouver un compromis entre la prévision récente Pi (background) et l’observation Oi établie dans la fenêtre d’assimilation. Ce compromis, pondéré en fonction des erreurs de l’observation et du modèle, constitue l’analyse Ai qui sert de base de prévision pour le cycle suivant.
Méthodes d’assimilation de données
Il existe plusieurs méthodes d’assimilation de données, qui diffèrent en terme d’approche, de complexité ou de coût. Dans cette section, nous allons décrire quelques techniques parmi les plus utilisées en prévision numérique du temps.
Best Linear Unbiased Estimator (BLUE)
Le BLUE, ou le meilleur estimateur linéaire non-biaisé est une méthode d’interpolation statistique aux moindres carrés et représente la base de la plupart des méthodes d’analyse en météorologie. C’est une forme de régression linéaire dans laquelle on apporte une correction linéaire à l’état du modèle à partir des observations. La méthode du BLUE se base sur les deux équations II.2 et II.3 suivantes :
L’analyse xa à l’instant t s’écrit [Ide et al., 1997] : xa(t) = xb(t) + Kd (II.2)
où d = yo − H[xb(t)] est le vecteur innovation, xa est l’analyse, xb est l’ébauche, yo est l’observation, H est l’opérateur d’observation et K est la matrice de gain.
La matrice de gain K s’écrit sous la forme : K = BHT(HBHT + R)−1 (II.3)
où B est la matrice de covariances d’erreurs d’ébauche, H est l’opérateur d’observation li-néarisé et R est la matrice de covariances d’erreurs d’observation.
Pour que l’analyse soit optimale, différentes hypothèses doivent être vérifiées. D’abord, le BLUE suppose que les erreurs d’ébauche (xb − xt) et les erreurs d’observation (yo − H(xt)), où xt est la réalité, ont des moyennes nulles. L’analyse BLUE suppose également que les erreurs d’ébauche et d’observation ne sont pas corrélées entre elles. Les variations de l’opéra-teur d’observation au voisinage de l’ébauche sont supposées linéaires. Finalement, l’analyse BLUE suppose une connaissance a priori des matrices de covariances d’erreurs d’ébauche et d’observation.
Outre sa forme matricielle, la méthode BLUE admet une écriture d’optimisation variation-nelle sous la forme : J(x) = Jb(x) + Jo(x) (II.4)
1 1 = [x − xb]TB−1[x − xb] + [y − H(x)]TR−1[y − H(x)]
où J est la fonction coût de l’analyse, Jb est son terme d’ébauche et Jo est son terme d’observation. L’équation II.4 est équivalente à l’équation II.2 avec J’(xa) = 0. La différence entre les deux formes, matricielle et variationnelle, réside dans le cas d’une grande dimension du système où le calcul explicite de la matrice gain K devient compliqué.
L’Interpolation Optimale (OI)
L’Interpolation Optimale [Lorenc, 1986] est une application simplifiée de l’analyse sta-tistique aux moindres carrés (BLUE). Elle se base sur le principe de blocs. En effet, l’In-terpolation Optimale suppose que pour chaque variable un nombre restreint d’observations est suffisant pour le calcul de l’incrément d’analyse. Ainsi, l’espace du modèle est découpé en blocs, et à chaque bloc est associée une sélection d’un nombre limité d’observations à assimiler comme décrit sur la figure II.9. Il est alors nécessaire de définir les paramètres de sélection des observations afin de dimensionner les blocs d’observations à assimiler en chaque point de grille.
L’approche de l’Interpolation Optimale est de calculer la matrice de gain K (II.3) par blocs d’observations. Ainsi, la quantité d’observations sélectionnée dimensionne la matrice de gain à calculer.
L’intérêt de la méthode d’Interpolation Optimale réside en son efficacité lorsqu’un nombre limité d’observations est disponible vu son faible coût de calcul. Cette méthode présente éga-lement des limitations. Par exemple, les analyses des différents blocs d’observations sont réalisées indépendamment les unes des autres. D’autre part, plus la dimension de la ma-trice gain est grande, plus il est complexe de la calculer et ainsi de réaliser l’analyse. Cette limitation favorise le choix de la forme variationnelle de l’équation d’analyse du BLUE (II.4).
L’assimilation variationnelle 3D-Var
Dans des problèmes d’analyses complexes, où il devient difficile voire impossible de calculer la matrice de gain K, l’objectif est de se rapprocher de la solution sans avoir à la calculer direc- tement. Ainsi, l’analyse devient une approximation de cette solution. La forme variationnelle (II.4) de la méthode BLUE représente une alternative efficace. La méthode d’assimilation variationnelle 3D-Var se base alors sur cette approche qui procède à la minimisation d’une fonction coût J (II.4). Par ailleurs, le problème de minimisation étant très complexe, une approche de résolution par la méthode du gradient est favorisée. Ce problème se réduit alors en l’annulation du gradient de la fonction coût : rJ(x) = B−1(x − xb) − HTR−1(y − H(x)) (II.5)
|
Table des matières
Remerciements
I Introduction
II La prévision numérique du temps
II.1 Introduction
II.2 Les différentes techniques de prévision numérique
II.2.1 La prévision déterministe
II.2.2 La prévision d’ensemble
II.3 Les modèles numériques de Météo-France
II.3.1 Le modèle global ARPEGE
II.3.2 Le modèle à maille fine AROME
II.3.3 Le modèle SURFEX
II.3.3.1 La tuile Nature
II.3.3.2 La tuile Ville
II.3.3.3 Les tuiles Lac et Mer
II.4 L’assimilation de données
II.4.1 Principe
II.4.2 Méthodes d’assimilation de données
II.4.2.1 Best Linear Unbiased Estimator (BLUE)
II.4.2.2 L’Interpolation Optimale (OI)
II.4.2.3 L’assimilation variationnelle 3D-Var
II.4.2.4 L’assimilation variationnelle 4D-Var
II.4.3 L’assimilation de données à Météo-France
II.4.3.1 L’assimilation d’altitude
II.4.3.2 L’assimilation de surface
II.5 Les observations satellitaires
II.5.1 Les satellites météorologiques
II.5.1.1 Les satellites géostationnaires
II.5.1.2 Les satellites à orbite polaire
II.5.2 Les capteurs infrarouges
II.5.2.1 Le capteur AVHRR
II.5.2.2 Le capteur IASI
II.5.2.3 Le radiomètre imageur SEVIRI
II.5.3 Les sondeurs micro-ondes
II.5.3.1 Le sondeur AMSU-A
II.5.3.2 Le sondeur MHS
III Le transfert radiatif et la restitution de la LST
III.1 Le transfert radiatif
III.2 Le modèle de transfert radiatif RTTOV
III.3 Les atlas d’émissivité
III.3.1 Atlas d’émissivité UW/CIMSS de l’université du Wisconsin
III.3.2 Atlas d’émissivité pour SEVIRI
III.3.3 Atlas d’émissivité CNRM-MW
III.4 La restitution de la température de surface sur continents (LST)
III.4.1 Problématique
III.4.2 Méthodes de restitution de la LST avec émissivité connue
III.4.2.1 Méthode mono-canal
III.4.2.2 Méthode multi-canal ou Split-window
III.4.2.3 Méthode multi-angulaire
III.4.3 Méthodes de restitution de la LST avec émissivité inconnue
III.4.3.1 Méthode de restitution TES
III.4.3.2 Méthode de restitution Jour/Nuit
III.4.3.3 Méthode de restitution NBEM
III.4.3.4 Méthode de restitution simultanée de la LST, de l’émissivité et du profil atmosphérique
III.4.4 Restitution à Météo-France
III.4.5 Conclusions
IV Synergie des observations satellitaires
IV.1 Synergie des sondeurs infrarouges
IV.1.1 Objectifs
IV.1.2 Résumé de l’article
IV.1.3 Publication
IV.1.4 Résultats complémentaires
IV.1.4.1 Impact de la position de scan de IASI
IV.1.4.2 Les différences d’émissivité de surface
IV.1.4.3 Impact de la variabilité saisonnière sur les simulations des TB
IV.1.5 Conclusions
IV.2 Synergie des sondeurs infrarouges et micro-ondes
IV.2.1 Introduction
IV.2.2 Les sondeurs micro-ondes
IV.2.3 Sélection de données
IV.2.4 Intercomparaison des LST restituées
IV.2.4.1 Le sondeur AMSU-A
IV.2.4.2 Le sondeur MHS
IV.2.4.3 Synthèse des résultats
IV.2.4.4 Simulation des températures de brillance AMSU-A et MHS 116
IV.2.5 Conclusions
V L’assimilation des LST restituées dans l’analyse de surface
V.1 Introduction
V.2 Technique et méthode employées pour l’assimilation
V.3 Diagnostics
V.3.1 Diagnostic d’erreurs d’observation
V.3.2 Diagnostic d’erreurs d’ébauche
V.3.3 Corrélations horizontales
V.3.4 Conclusions
V.4 Études de cas d’assimilation de LST
V.4.1 Cas du bassin de la Loire
V.4.2 Cas du bassin de la Garonne
V.4.3 Cas du plateau ibérique
V.5 Impacts et validations de l’assimilation de la LST sur le domaine AROME-France1
V.5.1 Impact de l’assimilation de la LST sur l’assimilation de données dans AROME
V.5.2 Impact de l’assimilation de la LST sur les prévisions dans AROME
V.5.2.1 Impact de l’assimilation de la LST restituée sur la prévision de la température de surface
V.5.2.2 Impact de l’assimilation de la LST sur la prévision d’autres paramètres
V.6 Conclusions
VI Conclusions et perspectives
VI.1 Conclusions
VI.2 Perspectives
Bibliographie
Télécharger le rapport complet