Considérations générales sur la modélisation hydrologique

Télécharger le fichier pdf d’un mémoire de fin d’études

Considérations générales sur la modélisation hydrologique.

Classification des modèles hydrologiques.

D’une façon très globale, les modèles hydrologiques peuvent être divisés en deux catégories :
Les modèles physiques et les modèles abstraits.
Parmi les modèles physiques nous retrouverons les modèles réduits (maquette), utilisés pour la représentation des systèmes à une échelle réduite équivalente ; et les modèles analogues qui utilisent d’autres systèmes physiques possédant des caractéristiques similaires au système original.
Les modèles abstraits représentent le système sous sa forme mathématique. Dans ce cas, l’opération du système est décrite à travers un ensemble d’équations liant les variables d’entrée et de sortie. Ces variables sont généralement des fonctions de l’espace et du temps ; Les variables d’entrée et de sortie peuvent être soit probabilistes (ou stochastiques), soit déterministes définissant des modèles ayant les mêmes caractéristiques.
Les variables probabilistes ou stochastiques correspondent à des variables qui n’ont pas une valeur fixe dans un intervalle d’espace ou/et de temps ; mais qui peuvent, au contraire, être décrites par une distribution probabiliste. Un exemple typique de variable stochastique correspond à la pluie, une variable très aléatoire dans l’espace et dans le temps.
Dans le cas des modèles déterministes, la sortie du système dépend uniquement des variables d’entrée, même si elles sont aléatoires, c’est-à-dire que l’entrée produira toujours une même sortie. En général, nous pouvons dire que les modèles déterministes font des pronostics, tandis que les modèles stochastiques font des prédictions.
Pour développer un modèle, Chow (1988) propose trois bases de décision : Connaît-on le fonctionnement interne du système ? Va-t-il varier dans l’espace ? Sera-t-il constant dans le temps ? Un modèle peut être alors placé dans un arbre en fonction des réponses données à ces questions (Figure 1-2)

L’analyse hydrologique.

Dans cette section nous allons présenter les caractéristiques principales de deux familles de  modèles, déterministes, très souvent utilisés pour l’analyse du comportement hydrologique des bassins versants : les modèles pluie/débit et les modèles d’écoulement de surface.

Les modèles pluie/débit.

Ce type de modèles tente de représenter la partie du cycle hydrologique qui concerne l’occurrence d’une précipitation et sa transformation en ruissellement ; ceci inclut en principe la représentation de la précipitation, des pertes par interception, de l’évapotranspiration, de l’infiltration dans le sol, des écoulements en surface, en sub-surface et dans les nappes souterraines. Ils permettent de simuler le débit des rivières à partir de l’observation des pluies tombées sur le bassin versant. Les objectifs de ce type de modélisation sont variés et on peut notamment citer : la simulation et la prévision des débits en temps réel dans les cours d’eau, la pré détermination des débits de crue ou d’étiage ; ainsi que la détermination des conséquences d’aménagements anthropiques (barrages, occupation des sols, etc.) sur l’hydrologie des rivières. A ce jour, un grand nombre de modèles hydrologiques, qui intègrent partie ou totalité des processus assurant la transformation de la pluie en écoulement selon des formulations empiriques, semi empiriques ou à base physiques, ont été développés. La grande diversité des modèles développés reflète la diversité des approches que l’on peut emprunter pour modéliser le comportement d’un bassin versant en particulier, selon les objectifs posés pour la modélisation, les connaissances acquises sur le milieu et les données disponibles.
Comme évoqué précédemment, les modèles pluie/débit peuvent être classés en fonction des critères de sous division spatiale retenus pour la représentation du bassin versant (Figure 1-2)
x Non-distribué : Tout le bassin est représenté par une précipitation moyenne et les processus hydrologiques par des variables concentrées dans l’espace. Ce type de structure est normalement utilisé pour des petits bassins où la distribution spatiale des paramètres et variables sera toujours cohérente par rapport aux résultats attendus.
x Semi distribué : Cette structure permet la division du bassin versant par sous bassins en fonction du drainage principal de celui-ci. Ce type de sous division est basée sur la disponibilité des données, zone d’intérêt, et la variabilité des paramètres physiques du bassin.
x Distribué : Ici la discrétisation est réalisée sous des formes géométriques (mailles carrées, rectangulaires…), chaque variable d’entrée et chaque processus est défini et calculé au sein de la maille.

Classification des modèles déterministes pluie/débit.

Comme nous l’avons présenté, les modèles pluie/débit peuvent être classés en fonction de la discrétisation du bassin considéré : Non-distribué, semi-distribué et distribué. Cependant, il existe aussi une classification en fonction de la conceptualisation des formulations prises en compte, ainsi, les modèles peuvent être classés comme :
x Empiriques : Ici, les modèles tentent de reproduire le fonctionnement observé des bassins versants en faisant abstraction dans cette évaluation de notre connaissance théorique a priori des phénomènes physiques en jeu.
x Conceptuels : Ces modèles utilisent l’équation de continuité associée à une ou plusieurs équations empiriques mettant en rapport des variables et paramètres des processus. De façon générale, les modèles conceptuels représentent les effets de stockage et introduisent des équations empiriques pour la représentation des effets dynamiques.
x Mécanistes : Les formulations adoptées pour décrire les processus sont basées sur les équations de continuité et dynamique pour reproduire le fonctionnement d’un bassin versant et cherche à intégrer la description exhaustive de tous les processus physiques participant à la transformation de la pluie en ruissellement. C’est le cas par exemple du modèle MIKE SHE (DHI Water and Environment). Ces modèles sont complexes, nécessitent une connaissance importante du milieu et une grande quantité de données est nécessaire pour leur calibration et validation.
Les modèles pluie/débit peuvent aussi être classés selon l’utilisation et les objectifs pour lesquels ils ont été conçus (Tucci, 1998). Dans ce cadre nous trouvons des modèles qui simulent, par exemple, les conditions stationnaires du bassin avec l’objectif d’ajuster l’hydrogramme de sortie de la façon la plus précise. Ce type de modèle ne s’intéresse pas aux résultats partiels de la simulation ni aux variables dérivées de celle-ci, son application est plutôt réservée à l’extension des séries pour le dimensionnement de réservoirs, prévision en temps réel et détermination de flux maximum. Dans cette classification se trouvent aussi les modèles simulant les altérations du bassin versant et le comportement des processus hydrologiques en cherchant l’analyse distribuée des phénomènes impliqués. Ce deuxième type de modèles est souvent utilisé pour la simulation du ruissellement causé par l’urbanisation, la déforestation, etc.
Un certain nombre d’études comparatives ont été menées (Perrin, 2000) et il n’en ressort pas de tendance nette: si certains modèles sont en moyenne plus performants que les autres, aucun ne l’est de façon systématique. Ceci reflète la diversité des approches que l’on peut emprunter pour modéliser le comportement d’un bassin versant en particulier. Dans les bassins non jaugés ou peu jaugés par rapport à leur superficie, la recherche du meilleur modèle est particulièrement difficile, voir impossible. En effet, c’est quand aucune information de débit n’est disponible pour optimiser les paramètres des modèles, qu’une simulation par un modèle pluie/débit présente le plus d’incertitudes. Or, sachant que les bassin versants peu jaugés constituent la majeure partie des sous bassins amazoniens il devient nécessaire de tester des méthodes alternatives qui permettraient d’accroître les performances des simulations sur ce type de milieux.

Les modèles d’écoulement de surface.

Contrairement aux modèles pluie/débit, les modèles d’écoulement de surface ne sont pas utilisés pour analyser la génération des écoulement à partir des précipitations, mais pour analyser la quantité de flux qui est propagée et distribuée tout au long d’un tronçon de rivière ou d’une surface considérée en fonction des caractéristiques physiques du tronçon et le type d’écoulement affectant directement la dynamique de sa propagation.
En général, le principe des modèles non-distribués et semi-distribués est basé sur les équations de continuité (principe de conservation de masse). Les modèles déterministes distribués sont basés sur un ensemble d’équations différentielles unidimensionnelles connues sous le nom de système d’équations de Saint-Venant, déduites elles mêmes des équations de conservation de masse et de la quantité de mouvement (équation de momentum). Comme nous le verrons plus loin, les équations de Saint-Venant possèdent plusieurs formes simplifiées, chacune de ces formes offre la possibilité de définir un modèle distribué unidimensionnel d’écoulement de surface.

Les types d’écoulement.

Pour mieux comprendre les bases du fonctionnement des modèles distribués, il est indispensable de définir les différents types d’écoulement de surface.
L’écoulement dans des canaux à surface libre peut être classé en plusieurs types et être décrit de multiples façons. Chow (1959) présente une classification en fonction de la variation de l’écoulement par rapport à la profondeur du flux dans l’espace et dans le temps :
En prenant le temps comme critère, le régime peut être soit permanent , soit transitoire. Un régime est considéré permanent si la profondeur du flux ne change pas –ou que l’on peut le supposer constant- dans un intervalle de temps donné. Par contre, le régime sera transitoire ou non permanent si cette profondeur change dans le temps.
Considérant l’espace comme critère , le régime peut être considéré uniforme ou varié. Le régime dans un canal à surface libre est uniforme si la profondeur du flux reste la même à chaque section du canal ; et varié, quand cette profondeur change de section à section.
Or, la combinaison de ces deux critères, temps et espace, donne une classification beaucoup plus stricte du régime des écoulements de surface :
x Régime permanent uniforme : La profondeur reste constante dans le temps et l’espace. Comme la condition d’un régime uniforme transitoire (variation de la profondeur dans le temps mais constante dans l’espace) est pratiquement impossible dans le milieu naturel, le régime permanent uniforme est connu simplement comme régime permanent.
x Régime permanent varié : La profondeur reste la même dans le temps mais elle change tout au long du canal. Ce régime est considéré rapidement varié si le changement de la profondeur du flux change de façon abrupte (ressauts hydrauliques, déversoirs, chutes hydrauliques…), dans le cas contraire, le régime est considéré graduellement varié.
x Régime transitoire varié : Comme pour le régime permanent uniforme, un régime transitoire varié est considéré simplement comme un régime transitoire. De la même façon, celui ci peut être soit rapidement varié (une onde de crue par exemple) ou graduellement varié (courbe de remous).
De plus, le type d’écoulement est gouverné par les effets de la viscosité et de la gravité par rapport aux forces d’inertie du flux (Chow, 1959). En fonction de la viscosité, le flux peut être considéré laminaire, turbulent ou de transition. Cette relation entre la viscosité et les forces inertielles du flux est représentée par le nombre de Reynolds (R) : V .L R (2-1) Q

Modélisation hydrologique du Bassin Amazonien.

Dans cette section, nous présentons quelques études de modélisation les plus significatives appliquées au Bassin Amazonien.
Un premier type d’approche concerne la modélisation pluie/débit à l’échelle de l’ensemble du bassin. En particulier, Coe et al. (2002) propose l’estimation des débits du cours principal et des zones d’inondation du Fleuve Amazone par utilisation conjointe d’un modèle de simulation d’écosystèmes terrestres (IBIS) et un algorithme de transfert de débits (HYDRA). Concrètement dans cette étude, IBIS et HYDRA ont été utilisés pour la simulation du bilan hydrique du système qui représente le Fleuve Amazone. De son côté, IBIS simule les écoulements de surface et de sub-surface dont les résultats vont alimenter le modèle HYDRA qui permettra d’estimer les variations de flux sur le cours principal du fleuve et des zones d’inondation. Coe (2000), Donner et al. (2002), Foley et al. (1996) et Kucharik et al. (2000) présentent une description détaillée de ces deux modèles.
Très brièvement, le modèle IBIS (Integrated Biosphere Simulator) représente les processus de surface (notamment les échanges d’énergie, d’eau, de momentum entre le sol, la végétation et l’atmosphère), la physiologie de la canopée, la phénologie de la végétation et à plus long terme, la dynamique de l’écosystème (dynamique de la végétation et le cycle du carbone).
HYDRA, par contre, simule la variation des débits dans le temps des cours d’eau, zones d’inondation, lagunes et réservoirs naturels ou d’origine anthropique.
Cette simulation, faite pour la période de 1935 à 1998, met en évidence la difficulté d’appliquer un modèle Pluie/Débit dans un bassin aussi complexe que le Bassin Amazonien. Les résultats de cette étude montrent, par exemple, que les débits estimés sont, d’une façon générale, sous-estimés par rapport aux mesures observées in-situ (différences supérieures à 20%). Cette situation, selon les auteurs, est principalement liée à une sous-estimation des précipitations, celles-ci étant issues de la base de données de l’Unité de Recherche Climatologique de l’Université d’East Anglia. En effet, le bassin de l’Amazone est caractérisé par une grande variabilité climatique, liée principalement à la variabilité spatiale et temporelle des précipitations, ce qui rend très difficile une estimation précise de cette variable par des modèles de simulation climatique.
Des résultats similaires ont été présentés par Chapelon et al. (2002). Dans ce cas, l’estimation des écoulements dans le Bassin Amazonien est faite en utilisant TRIP, un modèle distribué pour la propagation des flux de surface, basé notamment sur les données du GSWP (The Global Soil Wetness Project) chargé de produire, pendant deux ans, des données globales d’humidité du sol par information dérivée du ISLSCP (International Satellite Land Surface Climatology Project).
Les données du ISLSCP ont permis au GSWP de produire non seulement une estimation globale de l’humidité du sol mais aussi des estimations globales d’évaporation et d’écoulements de surface pour la période de 1987 à 1988. L’utilisation du modèle TRIP, qui est un modèle basé sur l’algorithme D8 (simulation du ruissellement de cellule à cellule en considérant 8 directions possibles d’écoulement), a permis de spatialiser les écoulements sur le réseau principal du bassin où ils sont comparés avec les données d’observation in-situ. De plus, cet ensemble d’information a été complété par des données de précipitation, sol et végétation de la base de données Whybam (http://www.mpl.ird.fr/hybam/).
Les résultats de la modélisation ont montré que l’ISLSCP conduit à une sous-estimation des précipitations et de la profondeur du sol sur une grande partie du Bassin Amazonien. Bien sur, ces erreurs ont un impact très important pour l’estimation du bilan hydrique du bassin comme le notent Coe et al. (2002). Les tests de sensibilité de TRIP ont permis de conclure que la complexité du réseau hydrographique et de la vitesse du flux ont un impact important sur les estimations de débits. En général, les résultats présentent une sur estimation en hautes eaux et une sous-estimation en bases eaux des débits calculés par rapport aux débits mesurés.
Contrairement à ces approches globales de modélisation, Richey et al. (1989) ont estimé les débits dans le cours principal de l’Amazone avec des différences inférieures à 10% en moyenne entre le débit observé et le débit mesuré aux stations hydrométriques. Cette étude, basé principalement sur la méthode de Muskingum, a été développée sur 2.000 km du cours principal de l’Amazone, en prenant pour le modèle de transfert une section de contrôle chaque 100 km, entre les stations de Sao Paulo de Olivença et Obidos.
Le bilan hydrologique considéré dans le modèle suppose que le stockage de la section considérée est fonction de la différence entre les apports au long du fleuve et les flux à la sortie du tronçon. Ces auteurs considèrent comme des apports les flux en provenance à l’amont de Sao Paulo de Olivença, les flux des tributaires jaugés et les échanges entre les plaines d’inondation et le canal principal. Avec des hydrographes disponibles à l’entrée et à la sortie de la section considérée, ainsi que pour chaque confluence des affluents les plus importants, le problème à résoudre est l’estimation des apports par les tributaires non jaugés et les échanges entre les zones d’inondation et le fleuve. Ces apports ont été calculés principalement par l’estimation du ruissellement potentiel, les variations dans le stockage et un bilan de masse isotopique du G18O.
Des mesures in-situ (mesure de la bathymétrie moyenne des zones d’inondation et mesure isotopique) ont été acquises. De la même façon que pour les études précédemment mentionnées, la précipitation a été distribuée puis ajustée de manière uniforme sur la zone d’étude ; les données de pluie provenant mesures prises in situ a permis de réduire les erreurs.
Les résultats présentés dans ces études amènent à la conclusion suivante: compte tenu de la forte variabilité climatique sur Bassin Amazonien, en particulier, de la variabilité spatio-temporelle des précipitations, et de la faible quantité de données in situ disponibles, il est nécessaire de chercher d’autres types d’approches permettant l’estimation des écoulements de surface du bassin. Richey et al. (1989) ont montré les avantages d’une modélisation basée sur un modèle de transfert alimenté par des mesures in-situ, en particulier des hydrogrammes en entrée et en sortie du système. Dans les chapitres suivants nous montrerons l’application d’un modèle de transfert, basé principalement sur les caractéristiques physiques des rivières et les données in-situ disponibles, permettant des estimations de débits de surface régionalisés.

L’altimétrie satellitaire.

Le principe de l’altimétrie satellitaire.

Les techniques radar (Radio Detection and Ranging) consistent à mesurer l’intervalle de temps ǻt qui sépare l’émission d’une impulsion électromagnétique en direction d’une cible réfléchissante et le retour de son écho. La distance qui sépare l’émetteur de la cible, connue sur le nom de range (R), est déduite de la durée du trajet aller-retour de l’onde en supposant que celle-ci se déplace à la vitesse de la lumière.
Le principe de l’altimétrie radar satellitaire consiste alors à embarquer un radar altimètre à bord d’un satellite. Ce radar émet un signal (pulses micro-ondes) en direction de la surface terrestre et reçoit comme réponse un écho réfléchi par une surface en eau. L’analyse de cet écho permet d’extraire une mesure assez précise du temps que met l’onde pour toucher la surface d’eau et revenir vers l’émetteur. Ce temps est alors transformé en distance en multipliant sa valeur par la vitesse de la lumière (AVISO, 2004).
Ce principe est illustré sur la figure 2-1 dans le contexte océanique. La grandeur utilisée en pratique est la hauteur notée h qui correspond à la mesure instantanée de la hauteur de la mer (Fu et Caznave, 2001) et qui est ensuite convertie en distance qui sépare la surface en eau réfléchie et une surface mathématique de référence, normalement prise comme un ellipsoïde de référence (lequel peut varier d’un satellite à autre). Cette hauteur h est estimée à partir de la différence de deux grandeurs : d’un côté la distance qui sépare le satellite de la surface terrestre connue comme le range R ou distance altimétrique, et l’altitude du satellite par rapport à l’ellipsoïde de référence à une latitude et longitude données H.
On notera que sur la figure 2-1, la grandeur h est en fait la somme de deux composantes: une topographie permanente ou hauteur du géoïde hg par rapport à l’ellipsoïde de référence et une topographie dynamique qui se superpose au géoïde. En domaine océanique, la topographie dynamique qui traduit une élévation variable dans le temps et l’espace causée par divers phénomènes comme les marées océaniques, les courants, l’état de la mer, etc. Pour les eaux continentales, cette contribution, liée cette fois à l’hydrodynamique, est beaucoup plus faible, de l’ordre de quelques centimètres.

Le géoïde.

Le géoïde est défini comme l’équipotentielle du champ de gravité coïncidant avec le niveau moyen de la mer au repos. Ce géoïde ne peut pas être mesuré directement en domaine continental puisqu’il est souvent à l’intérieur des reliefs. En domaine continental, le géoïde estimé comme la somme de deux contributions, en fonction de leur longueur d’onde. A l’échelle globale, le géoïde est estimé à partir des perturbations d’orbite des satellites. La résolution de cette technique est actuellement de l’ordre de 400 km à l’équateur. A l’échelle locale, les ondulations du géoïde sont déduites déduit de mesures d’anomalies de gravité et/ou de déflexions de la verticale. Le géoïde total est donné par addition de ces deux composantes. La meilleure solution actuelle de géoïde est celle obtenue par Tapley et al. (2004) comme combinaison des solutions globales –statiques- de la mission GRACE et des termes d’ordre et degré élevés de la solution EGM96 qui incorporait l’ensemble des données d’anomalie de gravité alors disponibles.
En hydrologie, la connaissance du géoïde est essentielle pour déterminer la force de gravité qui s’exerce effectivement sur l’eau en écoulement : cette force n’est pas la projection directe de la force de gravité sur la pente du relief mais la projection sur la variation d’altitude du lit du fleuve (élévation rapportée au géoïde)

La mission GRACE

Conçue par la NASA et le DLR pour observer les variations du champ de gravité terrestre, chaque mois, la mission GRACE (Gravity Recovery And Climate Experiment) a été lancée en mars 2002 pour une durée de vie de 5 ans (Watkins et Bettadpur, 2000 ; Tapley et Reigber, 2001). Son objectif fondamental est de cartographier les variations spatiales et temporelles du champ de gravité. Les variations spatiales moyennes (hypothèse d’un champ statique) sont obtenues avec une résolution spatiale de 400 km (Tapley et al., 2004). Les variations temporelles mensuelles sont produites avec une résolution de ~2000 km.
Suivant une orbite quasi circulaire à 500 km d’altitude et une inclinaison de 89,5°, cette mission est composée par deux satellites identiques séparés l’un de l’autre par une distance d’environ 220 kilomètres. Cette distance est mesurée avec précision grâce à un système de télémétrie micro- onde (en bande K). A bord de chaque satellite se trouve embarqué un récepteur GPS et des capteurs d’attitude (Dunn et al., 2003), ainsi qu’un accéléromètre pour mesurer, les effets des forces non gravitationnelles, à savoir, la pression solaire, le frottement atmosphérique et d’autres phénomènes non modélisés (Touboul et al., 1999).
Normalement, les mesures du déphasage réalisées par le système de télémétrie sont retirées au sol. Ward et al. (2002) montre que cette procédure permet d’obtenir une erreur inférieur à 2 cm sur les modèles de géoïde. Pour obtenir la composante purement gravitationnelle liée à la distribution de masse à l’intérieur de la Terre, les effets des forces non-gravitationnelles, mesurés par les accéléromètres, sont retirés du signal observé. Les récepteurs GPS, présents sur chaque satellite, permettent de dater précisément les mesures utilisées pour déduire les changements de distance entre satellites et d’obtenir les positions absolues des satellites. L’orientation inertielle du satellite est fourni par les capteurs d’attitude (Tapley et al., 2004).

Les géoïdes mensuels.

Les données utilisées en pratique par la communauté scientifique se composent d’un jeu de coefficients du géoïde et de leurs incertitudes corrigés de l’effet de l’atmosphère et des marées océaniques pour la période avril 2002 à mai 2004. Ces coefficients sont calculés à partir des paramètres orbitaux (positions, vitesses et accélérations) des satellites jumeaux qui constituent la mission GRACE, par trois équipes dans le monde : CSR (Center for Space Research) de l’Université d’Austin au Texas (Etats-Unis), le GFZ (GeoForschungsZentrum) de Potsdam en Allemagne et le Groupement de Recherche en Géodésie Spatiale (GRGS) de l’Observatoire Midi-Pyrénées. Les variations temporelles des coefficients du géoïde proviennent principalement des changements du contenu continental en eau, de la masse intégrée des océans et de bruits atmosphérique résiduels.

Les différentes missions d’altimétrie satellitaire.

Comme nous l’avons mentionné en introduction de ce document, les missions d’altimètrie radar à bord d’un satellite ont commencé à tire expérimental en 1973 avec le radar embarqué dans le satellite Skylab. Cette mission a permis d’observer les ondulations du géoïde associées aux grandes fosses océaniques le long de quelques courts segments d’orbite, mettant ainsi en évidence le potentiel de l’altimètrie satellitaire dans le domaine de la géophysique. Peu après, en 1975, la NASA mettait en orbite le premier satellite dédié exclusivement à l’altimétrie, le GEOS-3 (Geodynamics Experimental Ocean Satellite). Pendant les 3 ans de mission, GEOS-3 a fourni environ 1900 heures des données de qualité assez modeste (précision métrique). Le niveau de performance atteint n’était pas encore suffisant pour pouvoir extraire une véritable information scientifique des données acquises.
C’est en 1978 que la NASA lance Seasat (figure 2-2), le premier satellite qui a atteint un degré de technologie satisfaisant en apportant à la communauté scientifique, notamment aux océanographes, une somme considérable de données. Cette mission a permit l’étude des océans avec un bruit instrumental inférieur à 10 cm, cependant, son orbite, calculée à 800 km d’altitude, présentait encore une erreur de l’ordre de 50 cm.
Provisionné d’un radar à ouverture de synthèse (SAR), opérant en bande-L (1.26 Hz) et un radiomètre, ce satellite n’a enregistré qu’environ 42 heures de mesures avant qu’un court-circuit dans le système 105 jours de mission.
Sept ans après, en mars 1985, l’US Navy mettait en orbite GEOSAT (GEOdetic SATellite) (figure 2-3), une mission radar avec des objectifs prioritairement militaires, en particulier pendant ses premiers 18 mois de fonctionnement. Pendant cette période les données acquises ont permis de produire une carte du géoïde marin jusqu’à 72° de latitude. De 1986 à 1990, la mission a assuré une mission scientifique dédiée à l’étude des océanes. GEOSAT fut alors placé sur une orbite répétitive de 17 jours avec une distance inter trace de 164 km suivant le même parcours que Seasat. Pendant ces 3 ans de mission, GEOSAT a pu réaliser 66 cycles répétitifs de données de très haute qualité avec un bruit instrumental inférieur à 5 cm.
A partir de 1990, vu le succès des missions précédentes, la communauté scientifique a élaboré deux familles de mission altimètriques. La première, développée conjointement par la NASA et le CNES, est spécifiquement consacrée au suivi des océans. Il s’agit des missions Topex/Poseidon (T/P) et de son successeur Jason-1. La deuxième famille, conçue par l’ESA, a été développée no seulement pour l’étude des océans mais aussi des terres émergées grâce au mode « continent ». Cette famille a été embarquée à bord des plate-formes multi-capteurs ERS-1, ERS-2 et ENVISAT. Par la suite, la mission GFO (Geosat Follow-On) a été lancée en février 1998 comme successeur de Geosat. Enfin en 2003, la NASA lançait la mission ICESat, l’unique mission d’altimétrie laser scientifique à ce jour.

La mission Topex/Poseidon

Comme nous avons noté précédemment la mission TOPEX/Poséïdon (T/P par la suite) (Zieger et al., 1991) est le résultat d’une coopération entre les équipes de la NASA aux Etats Unis et le CNES en France(figure 2-4). Lancé en août 1992, ce satellite à été placé sur une orbite à 1336 km d’altitude et 66° d’inclinaison. Le satellite couvre la quasi-totalité des océans avec un total de 254 traces espacées de 315 km à l’équateur. La tolérance pour la répétitivité géographique des traces est de r 1 km de parte et d’autre de la trace théorique. A bord du satellite il y a 6 instruments pour l’enregistrement de mesures : 4 apportés par la NASA et 2 par le CNES.
D’un côté se trouvent deux radars altimètres, le NASA Radar Altimeter qui opère 90% du temps sous une double fréquence (bandes Ku et C ; 13.6 et 5.3 GHz respectivement) et Poseidon, un altimètre expérimental du CNES qui travail uniquement sur la bande Ku 10% du temps à cause de son partage de l’antenne avec le NRA. De plus, il se trouve à bord du satellite le TMR (Topex Microwave Radiometer), un radiomètre à triple fréquence (18. 21 et 37 GHz) destiné à la mesure des contenus en vapeur d’eau et eau liquide de l’atmosphère à des fins de correction de propagation de l’onde radar dans l’atmosphère utilisées pour le calcul de la correction de troposphère humide au-dessus des océans. Un récepteur de double fréquence (401.25 MHz et 2036.25MHz) DORIS (Détermination d’Orbite et Radiopositionnement Intégrés par Satellite) développé pour le détermination précise de l’orbite du satellite ainsi que pour la correction ionosphérique des mesures prises par Poseidon. Finalement, un récepteur expérimental GPS et un LRA (Laser Retroreflector Array) qui servent pour le calcul de l’orbite. Une description plus détaillée de ces instruments est disponible sur le site du projet AVISO (http://www.jason.oceanobs.com/html/missions/tp/welcome_uk.html).
Le 15 septembre 2001 le satellite a été placé sur une nouvelle orbite. En effet il a été décalé une demi-orbite par rapport à sa position d’origine en laissant la place à la mission Jason-1. T/P a été définitivement arrêté en décembre 2005, soit après plus de 13 ans de fonctionnement.

La mission Jason-1

Positionné donc sur l’ancienne orbite de T/P, La mission Jason-1 a été lancée le 7 septembre 2001 (figure 2-5). Elle reprend les mêmes caractéristiques d’instruments à bord et précision de mesures que T/P. Encore issu de la coopération entre la NASA et le CNES le satellite est équipé de 5 instruments : Un seul radar altimètre de double fréquence (13.6GHz et 5.3 GHz) nommé Poseidon-2, un radiomètre de tripe fréquence (Jason Microwave Radiometer) avec les mêmes caractéristiques que le TMR et le mêmes systèmes de localisation DORIS, LRA et GPS. Cependant, à la différence de T/P, la mission Jason-1 a été conçue pour des objectifs plus complexes dans les domaines de l’océanographie et les prévisions océaniques, la climatologie et les prévisions climatiques ainsi que pour la météorologie marine et physique.

Les missions ERS-1 et ERS-2

ERS-1 (Eropean Remote Sensing Satellite) est le premier satellite européen équipé d’un radar altimètre. Il a été lancé le 17 juillet 1991 sur une orbite à 800 km d’altitude et une inclinaison de 98.5°. Les premiers 5 mois de mission, le satellite a été placé sur une orbite répétitive de 3 jours, et cette période a été consacrée à la calibration et la validation de chacun des instruments à bord. Après cette période de validation, le satellite a suivi, pendant 3 mois une nouvelle orbite de même répétitivité que la précédente dont la priorité était accordée au SAR.
La phase suivante était caractérisée par une orbite répétitive de 35 jours avec une inter-trace à l’Equateur de 80 km, ce qui a permis d’enregistrer 18 cycles de mesures pendant 18 mois. Finalement, une dernière phase à 3 jours a précédé deux phases géodésiques pour lesquelles la priorité était accordée à l’altimètrie dans le but de cartographier le géoïde marin. Ces deux phases correspondent à une répétitivité temporelle de 168 jours avec une inter-trace de 16 km à l’Equateur, inter-trace réduit finalement de moitié compte tenu que la deuxième phase avait été décalée 8 km de manière à remplir les espaces laissés vides par la phase précédente.
Finalement, un laser retro-réflecteur LRR permet lui aussi de déterminer l’orbite à partir de stations de télémétrie laser sur terre.
Le satellite ERS-2 fut lancé le 21 avril 1995 pour suivre la même orbite que ERS-1 avec 24 heures exactes d’intervalle sur la trace au sol pendant un an. Le 10 mars 2000, l’ESA a perdu le contrôle définitif d’ ERS-1 et c’est ERS-2 qui a poursuivi ses mesures sous les même caractéristiques d’orbite, répétitivité et inclinaison. Des détails sur les caractéristiques de ces deux missions se trouvent sur le site de l’ESA (http://earth.esa.int/ers/).

La mission ENVISAT

Après le succès des missions ERS-1 et 2, le 10 mars 2002 l’ESA a mis en orbite ENVISAT (Environement Satellite) à 800 km d’altitude, 35 jours de répétitivité et 98.5° dégrées d’inclinaison (soit la même orbite que pour les satellites ERS). Ce satellite a été conçu pour l’étude de l’environnement et en particulière le suivi des changements climatiques. La communauté scientifique attend que cette mission contribuera à l’amélioration des décisions prises pour la gestion des ressources de la Terre et de la caractérisation des processus affectant la Terre solide
A bord d’ENVISAT 9 instruments ont été embarqués (figure 2 -7) dont 5 sont des versions plus modernes des équipements embarqués sur ERS-2. Un radar altimètre RA-2, un radiomètre à micro-ondes MWR, le LRR et l’ASAR (Advanced Synthetic Aperture Radar). En remplacement du PRARE on trouve un récepteur DORIS. Ceci est un système de haute précision d’orbitographie et localisation par effet Doopler basé sur un réseau de 52 stations distribuées sur l’ensemble de la surface terrestre. Développé par le CNES, ce système DORIS se retrouve sur les satellites T/P, Jason-1 et Spot 2, 4 et 5.
Pour compléter les instruments embarqués à bord d’ENVISAT pour l’observation de la Terre se trouvent : Un spectromètre MERIS (MEdium Resolution Image Spectrometer Instrument) dont la fonction principale est de mesurer la couleur des océans et le zones côtières. A partir de cette information il devient possible d’estimer la concentration en chlorophylle et des matières en suspension. Un outil nommé GOMOS (Global Ozone Monitoring by Occultation of Stars) qui assure un suivi continu des profiles d’ozone, NO2, NO3, OCIO, température et vapeur d’eau. Un interféromètre MIPAS (Michelson Interferometer for Passive Atmospheric Sounding) qui mesure la concentration de différents types de gaz de l’atmosphère. Finalement, on y trouve un spectromètre pour la cartographie de l’atmosphère SCIAMACHY (Scanning Imaging Absorption Spectrometer for Atmosferic Cartography).
Plus de détails sur chacune des caractéristiques de la mission sont disponibles sur le site de l’ESA (http://envisat.esa.int/instruments/tour-index/)

La mission ICESAT

Conçu dans sa totalité par la NASA, ICESat (Ice, Cloud and land Elevation Satellite) fut lancé le 12 janvier 2003 avec l’objectif fondamental d’enregistrer des mesures pluri-annuelles de l’élévation des surfaces polaires. Ces mesures sont utilisées pour l’estimation du bilan de masse des glaciers ; de plus, il enregistre de l’information sur l’altitude et d’autres propretés des nuages ainsi que des caractéristiques de la topographie, et la végétation sur la surface terrestre. Situé à une altitude de 600 km et une inclinaison de 94° ce satellite a eu une répétitivité de 8 jours pendant les cycles de correction et validation ; et de 183 jours pour les cycles dédiés à la mission scientifique.
A bord d’ICESar il n’y a qu’un seul instrument de mesure, le GLAS (Geoscience Laser Altimeter System). Cet instrument, à différence de ceux décrits précédemment, met en oeuvre une technologie laser, en émettant des pulses infrarouges 40 fois par seconde à 1064 et 532 mm. Chaque écho enregistre l’information d’un disque d’environ 70 m de diamètre sur le sol et éloignés 170m l’an de l’autre.

La mission WatER

Après la présentation des caractéristiques des principales missions altimètriques, nous allons consacrer quelques mots à la première mission altimètrique pour le suivi spécifique des eaux continentales, la missionWatER (Water Elevation Recovery). Il s’agit d’une mission de mesure des hauteurs d’eau et de leurs dérivées spatio-temporelles des fleuves, lacs et zones inondées, basée sur l’altimétrie interférométrique (figure 2-8). Par rapport à l’altimétrie conventionnelle qui fournit des données ponctuelles le long de profils espacés de plusieurs dizaines/centaines de km, l’altimétrie interférométrique fournit une image bi-dimensionnelle avec une résolution horizontale de l’ordre de 50-100 m.
De ce fait, cette technique permet de s’affranchir des problèmes de l’altimétrie conventionnelle (optimisée pour l’océan), à savoir les problèmes de réflexions parasites dues aux sols secs, à la végétation et au relief. Ces limitations de l’altimètrie radar sur les eaux continentales, à partir des missions conçues pour le milieu océanique, seront traitées avec plus de détails dans la section 3.4 de ce chapitre.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

INTRODUCTION
I. MODÉLISATION HYDROLOGIQUE DU BASSIN AMAZONIEN
1. Introduction
2. Considérations générales sur la modélisation hydrologique
2.1. Classification des modèles hydrologiques
2.2. L’analyse hydrologique
2.2.1. Les modèles Pluie-Débit
2.2.1.1. Principe des modèles Pluie-Débit
2.2.1.2. Classification des modèles déterministes Pluie-Débit
2.2.2. Les modèles d’écoulement de surface
2.2.2.1. Les types d’écoulement
2.2.2.2. Les équations de Saint-Venant
2.2.2.3. Classification des modèles déterministes d’écoulement
3. Modélisation hydrologique du Bassin Amazonien
II. L’ALTIMÉTRIE SPATIALE
1. Introduction
2. L’altimétrie satellitaire
2.1. Le principe de l’altimétrie satellitaire
2.2. Le géoïde
2.2.1. La mission GRACE
2.2.2. Les géoïdes mensuels
2.3. Les différentes missions d’altimétrie satellitaire
2.3.1. La mission Topex/Poseidon
2.3.2. La mission Jason-1
2.3.3. Les missions ERS-1 et ERS-2
2.3.4. La mission ENVISAT
2.3.5. La mission ICESAT
2.3.6. La mission WatER
3. La mesure altimétrique
3.1. Le principe de la mesure radar
3.2. Traitement des mesures altimétriques
3.2.1. Tracking et Retracking
3.2.2. Les formes d’onde au milieu continental
3.3. Les corrections apportées aux mesures altimétriques en domaine continental
3.3.1. Les corrections de propagation
3.3.2. Les corrections géophysiques
3.4. Limitations des mesures altimétriques en milieu continental
4. Sélection des mesures altimétriques pour l’application en hydrologie
4.1. Les produits altimétriques utilisées dans cette thèse
4.2. Obtention des séries temporelles de hauteur altimétrique
4.2.1. Extraction des mesures à partir de la base de données du CTOH
4.2.2. Correction et sélection des mesures valides
4.2.3. Séries temporelles de hauteur d’eau
4.2.4. Validation initiale des données altimétriques
III. REGIONALISATION DES DEBITS SUR LE BASSIN VERSANT DU RIO NEGRO A L’AIDE D’UN MODELE DE TRANSFERT DE FLUX
1. Introduction générale
2. Résumé
3. Conclusion
IV. Estimation de courbes de tarage aux stations virtuelles par utilisation conjointe des mesures altimétriques et débits propagés
1. Introduction générale
2. Résumé
3. Conclusion
V. APPLICATION ET TRANSFERT DE LA MÉTHODOLOGIE SUR UN BASSIN VERSANT PEU INSTRUMENTE
1. Introduction générale
2. Résumé
3. Conclusion
VI. AUTRES APPLICATIONS DES MESURES ALTIMETRIQUES SUR LES EAUX CONTINENTALES
1. Introduction
2. Variations de volume d’eau dans les plaines d’inondation
3. Application des mesures altimétriques pour le nivellement de stations hydrologiques
4. Comparaison des pentes de la surface libre du Rio Negro estimées par altimétrie, GPS et mesures in-situ
5. Conclusions
CONCLUSION
BIBLIOGRAPHIE

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *