Le suivi des états de surface par télédétection radar

Télécharger le fichier pdf d’un mémoire de fin d’études

Cartographie des zones irriguées

Historiquement, les premières cartes de zones irriguées à l’échelle mondiale ont été produites sur la base de compilations des cartes existantes des principales zones d’irrigation et d’enquêtes statistiques : à titre d’exemple, la carte GMIA (Global Map of Irrigated Areas) avec une résolution de 0.5° (Döll and Siebert, 2002) cartographie les zones irriguées pour la période entre 1990 et 1995 ; ensuite, une nouvelle version mise à jour en 2000 a été distribué avec une résolution améliorée (Siebert et al., 2005) ; plus tard, Siebert et al. (2015) ont développé l’ensemble de données historiques sur l’irrigation en rassemblant des statistiques infranationales sur l’irrigation provenant de diverses sources pour estimer le développement des zones irriguées entre 1900 et 2005 à une résolution de 5 arcmin. Toutes ces cartes ont utilisé comme base les zones équipées pour l’irrigation telle que définie par la FAO qui ont été inventoriées par les autorités nationales ou locales. Elles excluaient donc les zones non contrôlées comme les zones de culture en décrue, les zones humides cultivées et toutes les fermes privées (Massari et al., 2021). Ces cartes sont pourtant encore utilisées comme référence pour de nombreuses applications telles que la modélisation hydrologique mondiale et l’évaluation de l’impact du changement climatique. Cependant, elles sont accompagnées d’erreurs liées principalement aux incertitudes des statistiques et à l’irrigation illégale qui se matérialise par l’expansion des zones irriguées basées sur les eaux souterraines (Siebert et al., 2015).
La télédétection est un outil efficace pour la surveillance des zones irriguées. En fait, la cartographie a constitué la 1ère application de la télédétection pour le suivi de l’irrigation. Initialement, ce sont les données acquises dans les domaines optique et thermique qui ont été utilisées car la réponse spectrale des zones irriguées est différente de celles non irriguées (Ozdogan et al., 2010b). En effet, la distinction de couleur entre les zones irriguées et non irriguées a encouragé les chercheurs à utiliser les images spectrales pour cartographier l’irrigation, historiquement par inspection visuelle et plus tard par le développement et/ou l’utilisation de plusieurs indices spectraux. Les premiers travaux dans cet objectif datent des années 70 (Draeger, 1976; Heller and Johnson, 1979; Thiruvengadachari, 1981). La plupart des approches s’appuient sur des indices spectraux tels que le NDVI (Anukesh Krishnankutty Ambika et al., 2016; Deines et al., 2017; Thenkabail et al., 2017), le NDWI (Normalized Difference Water Index) (Deines et al., 2017), l’indice de verdure (Greenness Index –GI–, calculé comme le rapport entre les deux bandes proche infrarouge et verte) (Chen et al., 2018) et l’indice d’eau de surface (Land Surface Water Index –LSWI-, calculé à partir des deux bandes proche infrarouge et infrarouge court) (Xiang et al., 2019). L’une des premières cartes mondiales des zones irriguées dérivées des images satellites est la carte GIAM (Global Irrigated Areas Map) (Thenkabail et al., 2006). Elle a été construite en combinant 20 ans de réflectances AVHRR et un an de NDVI (dérivé de Spot) pour représenter les zones irriguées du monde en 1999 avec une résolution de 10 km. En utilisant le GI de MODIS et les images Landsat, Ozdogan and Gutman (2008) ont utilisé un algorithme d’arbre de régression pour cartographier les zones irriguées aux Etats-Unis en 2001. Avec une technique similaire, Ambika et al. (2016) ont développé des cartes annuelles (2000-2015) des zones irriguées basées sur un seuillage de séries temporelles NDVI MODIS en Inde. Thenkabail et al. (2005) ont utilisé des séries temporelles de réflectances MODIS à résolution de 500 m pour générer une carte des zones irriguées dans les deux bassins du Ganges et de l’Indus en 2001-2002. Afin d’améliorer la résolution spatiale, Gumma et al. (2011) ont combiné les données Landsat 30 m avec les données MODIS 250 m dans une approche d’arbre de décision. Leur résultat montre une précision d’identification des parcelles irriguées entre 67 et 93 %. Ces études ne sont que des exemples, mais il en existe plusieurs autres (voir la revue de Massari et al. (2021)). Ces études donnent des résultats prometteurs pour la cartographie des zones irriguées. Toutefois, le problème est que les données optiques sont sensibles aux conditions atmosphériques, ce qui limite leur utilité dans de nombreuses zones tropicales ou tempérées. En plus, il est possible que les précipitations affectent la précision de ces algorithmes étant donné que les signatures spectrales des zones irriguées et pluviales peuvent être similaires. La coïncidence des signatures spectrales peut également rendre difficile la distinction entre les parcelles irriguées et non irriguées dans les zones humides (Ozdogan et al., 2010b).
L’humidité du sol est évidemment une bonne candidate pour la cartographie des zones irriguées, particulièrement en région semi-aride, qui a été largement utilisée pour la cartographie et l’inversion des quantités d’eau apportées. En effet, plusieurs études ont démontré le potentiel des observations micro-ondes, grâce à leur sensibilité à la SSM, pour la détection de l’irrigation (Brocca et al., 2018; Filippucci et al., 2020; Li et al., 2019; Zaussinger et al., 2019). Kumar et al. (2015) ont été les premiers à utiliser SSM pour la cartographie de l’irrigation en exploitant les différences entre les produits d’humidité du sol micro-ondes à basse résolution (ASCAT, AMSR-E, SMOS, WindSat et ESA CCI) et l’humidité du sol prédite par un modèle de surface qui ne représente pas l’irrigation. Les résultats, bien que prometteurs, ont aussi montré les limites de l’approche liées à l’inadéquation spatiale entre le modèle et les données satellitaires, aux effets de la topographie et à la présence de végétation qui réduit la qualité des produits satellitaires de SSM. Sur la base d’une approche similaire, Malbéteau et al. (2018) ont assimilé des produits SMOS de SSM désagrégés à 1 km à partir des produits MODIS kilométriques dans un modèle de surface simple forcé par les précipitations uniquement. Les zones irriguées ont ainsi été détectées en utilisant l’incrément d’analyse cumulé (différence entre la valeur analysée et la valeur simulée de SSM) au cours de la saison. Des approches similaires ont été utilisées dans plusieurs autres études en Chine (Qiu et al., 2016) et en Inde (Singh et al., 2017). Les produits d’humidité du sol avec une résolution temporelle élevée (entre 1 et 3 jours) ont démontré une forte potentialité dans la cartographie de l’irrigation, cependant, leur résolution spatiale reste une limitation majeure. Des produits à une meilleure résolution dérivés de ces produits comme ceux utilisés par Malbéteau et al. (2018) sont potentiellement capables d’identifier les jours d’irrigations (Lawston et al., 2017), mais les études basées sur ces produits ne sont pas unanimes. Par exemple, tandis que Dari et al. (2020) ont montré que les données SMOS et SMAP désagrégées à 1 km permettent de cartographier l’irrigation à une résolution spatiale de 1 km, Fontanet et al. (2018), par contraste, démontre que la désagrégation des produits leur fait perdre toute « sensibilité » à l’irrigation à des échelles inférieures au km². Par contraste, les données acquises dans le domaine radar par les radars à synthèse d’ouverture comme les capteurs à bord de la constellation Sentinel-1 ont une résolution de quelques mètres. Ces données ont effectivement favorisé le développement de plusieurs méthodologies de cartographie de l’irrigation, soit en utilisant les mesures brutes de rétrodiffusion soit en utilisant des produits de SSM dérivés du coefficient de rétrodiffusion. Parmi ces études, Gao et al. (2018) ont proposé une approche d’apprentissage automatique basée sur l’analyse directe de la rétrodiffusion radar à l’échelle de la parcelle agricole. Cette approche, développée en Espagne, a permis de distinguer trois classes : les cultures annuelles irriguées, les arbres irrigués et les zones non irriguées avec une précision d’environ 80%. D’autres études, ont tenté d’améliorer la précision de la cartographie en combinant des observations optiques et SAR (Thenkabail et al., 2009) ; en particulier depuis le lancement du capteur optique Sentinel-2 avec une résolution de 10 m et un temps de revisite de 5 jours (Bazzi et al., 2019; Bousbih et al., 2018; Gao et al., 2018). Dans l’étude menée en Tunisie par Bousbih et al. (2018), par exemple, les auteurs ont trouvé une meilleure précision de la cartographie de l’irrigation en utilisant la SSM dérivée de Sentinel-1 (avec une précision de 77%) qu’en utilisant uniquement les données NDVI Sentinel-2 (précision de 58%). En outre, le couplage du NDVI et la SSM a réduit la qualité de la classification et les auteurs ont supposé que la raison était liée à la capacité limitée du NDVI à distinguer les champs irrigués des non irrigués, dans les zones semi-arides caractérisées par des événements de pluie limités. Les données micro-ondes, y compris les données SAR et les observations des radiomètres passifs, ont ainsi montré un fort potentiel pour la cartographie de l’irrigation, avec ou sans combinaison avec des données optiques.

Estimation de la quantité et timing d’irrigation

Bien que la cartographie des zones irriguées soit importante pour de nombreuses applications, il ne suffit pas de savoir si une parcelle est irriguée ou non, mais il est indispensable de connaître le jour et les quantités d’eau utilisées pour d’autres applications, par exemple : pour comptabiliser avec précision l’utilisation de l’eau agricole afin de quantifier les prélèvements dans les eaux souterraines.
Contrairement à la cartographie, peu d’études ont visé à estimer le timing ou/et les quantités d’eau d’irrigation à partir d’observations de télédétection. Parmi elles, l’approche de Brocca et al. (2018) avait pour objectif d’estimer les quantités mensuelles d’eau d’irrigation dans quatre régions différentes (Maroc, États-Unis, Australie et Espagne) en utilisant la SSM dérivée de satellites à basse résolution, notamment SMOS, SMAP, ASCAT et AMSR-2 (∼40 km). L’approche est une adaptation de l’algorithme SM2RAIN (Brocca et al., 2014) qui a été initialement développé pour l’estimation des précipitations. L’approche a donné de bonnes estimations lorsque l’erreur sur SSM est faible et le temps de revisite est élevée. En particulier, les résultats d’une expérience synthétique montrent que ses performances, sur des sites semi-arides, sont limitées pour des erreurs supérieures à 0.03 m3/m3 et un temps de revisite supérieur à 3 jours. Ce travail a été récemment décliné par Dari et al. (2020) en Espagne en utilisant une estimation de SSM dérivée de SMOS désagrégée à une résolution de 1 km et par Jalilvand et al. (2019) en Iran. Ces études ont révélé la perte significative de performance en présence de précipitations importantes et régulières pendant la période d’irrigation, rendant difficile la détection de l’irrigation pour les cultures d’hiver. Filippucci et al. (2020) ont utilisé des observations de SSM horaires in situ (mesuré par la technique Gamma-Ray) pour analyser la qualité de l’estimation de l’irrigation en fonction du temps de revisite des produits : leurs résultats ont montré qu’une perte significative de performance pouvait être attendue si la résolution temporelle est diminuée d’une heure à 36 heures (le coefficient de corrélation R diminuant de 0.88 à 0.6) tandis que R tombe à 0.1 pour 120 heures (5 jours ~ passage de Sentinel-1). Une étude théorique visant à quantifier les quantités d’irrigation dans le Nebraska basée sur l’assimilation d’observations synthétiques de SSM dans un modèle de surface a été publiée récemment (Abolafia-Rosenzweig et al., 2019). Les auteurs ont utilisé un ensemble d’expériences jumelles utilisant des produits SSM conçus dans le contexte de l’assimilation des observations de SMAP à 9 km de résolution. Zaussinger et al. (2019) ont également utilisé un modèle de bilan hydrique et des produits SSM à grande échelle pour dériver les quantités d’irrigation mensuelle aux Etats-Unis à partir des incréments d’analyse. Leurs résultats suggèrent qu’une meilleure performance peut être atteinte en utilisant des produits à haute résolution spatiale et temporelle (1 jour). Une approche similaire a été utilisée par Zohaib and Choi (2020) pour identifier les tendances des quantités d’eau d’irrigation à l’échelle mondiale. Leurs résultats démontrent une sous-estimation significative des quantités réelles d’irrigation. Récemment, Zappa et al. (2021) ont développé un algorithme pour définir le timing quasi-réel et la quantité d’irrigation entre deux acquisitions Sentinel-1 en Allemagne en utilisant des produits SSM à résolution de 500 m dérivés des produits Copernicus à résolution de 1 km (Bauer-Marschallinger et al., 2019). L’approche est capable de reproduire l’évolution saisonnière de l’irrigation, mais les quantités hebdomadaires et saisonnières souffrent d’importants biais. Il est aussi crucial de définir correctement la période d’irrigation (début et fin) dans leur approche où la précision de détection des évènements chute de 81% à 61% lorsque la période réelle (vraies dates de début et de fin) est inconnue.
Au-delà de ces études basées sur des produits à grande échelle, certaines tentatives d’estimation de l’irrigation à plus haute résolution ont également été menées. En effet, plusieurs études ont souligné que la résolution grossière des produits SSM dérivé des capteurs micro-ondes, même désagrégée, n’est pas adaptée à la taille réelle des parcelles dans plusieurs régions du monde (Brocca et al., 2018; Escorihuela and Quintana-Seguí, 2016; Kumar et al., 2015; Santi et al., 2018; Zaussinger et al., 2019). C’est notamment le cas dans la région sud-méditerranéenne où la superficie des parcelles est généralement comprise entre 1 et 5 ha (Bousbih et al., 2017; Olivera-Guerra et al., 2020; Ouaadi et al., 2020). Bazzi et al. (2020) ont développé une approche pour l’estimation du timing de l’irrigation en temps quasi-réel en utilisant le coefficient de rétrodiffusion Sentinel-1, le NDVI Sentinel-2 et SSM dérivées d’une synergie entre Sentinel-1 et Sentinel-2 (El Hajj et al., 2017) sur différentes parcelles de cultures en France et en Espagne. L’approche est basée sur une technique de ‘change detection’ entre deux observations successives de Sentinel-1. Le Page et al. (2020) ont également développé une méthode pour détecter le timing de l’irrigation uniquement sur des parcelles de maïs en France. Les auteurs ont comparé les produits SSM Sentinel1-Sentine2 (El Hajj et al., 2017) avec la SSM prédit par le modèle FAO-56 (Le Page et al., 2014) entre deux observations SSM pour détecter la fenêtre (entre deux observations Sentinel-1) dans laquelle l’irrigation se produit. Ensuite, des quantités préalablement connues d’irrigation (sur la base d’un historique de mesures) sont injectées à chaque jour de la fenêtre. Le jour où l’irrigation a eu lieu est détecté en minimisant la différence de SSM entre observation et prédiction. Les deux études présentées ci-dessus visent, enfin, à estimer le calendrier d’irrigation au cours de la saison. Cependant, à notre connaissance, la seule étude visant à estimer à la fois le timing et les quantités à l’échelle de la parcelle en utilisant des données de télédétection à haute résolution a été publiée récemment par Olivera-Guerra et al. (2020). Les auteurs ont utilisé des données infrarouges thermiques acquises par Landsat et ont montré des résultats prometteurs sur plusieurs parcelles au Maroc. Néanmoins, les données thermiques et optiques sont sujettes à des observations atmosphériques qui peuvent sérieusement entraver l’application de l’approche dans les régions nuageuses, surtout lorsqu’on utilise des capteurs thermiques qui ont actuellement une résolution temporelle relativement faible (cycle de revisite de 16 jours pour Landsat).
Les données Sentinel-1 avec une résolution spatiale de 10 m et un cycle de 6 jours semblent être de bonnes candidates pour déterminer le moment et les quantités d’irrigation au niveau de la parcelle, en surmontant plusieurs des limitations mentionnées ci-dessous. Un tel cycle de 6 jours peut être intéressant avec l’assimilation dans un modèle qui assure la continuité de la prédiction. En particulier, l’assimilation de données a montré de résultats encourageant pour estimer l’irrigation en assimilant SSM dans un modèle de surface (Abolafia-Rosenzweig et al., 2019; Malbéteau et al., 2018).

L’assimilation de données

Dans le contexte agricole, la télédétection radar permet d’extraire des informations utiles sur la végétation et le sol sous-jacent comme SSM par exemple. Cela permet d’avoir des informations spatialisée, sans avoir recours à des mesures in situ souvent coûteuses à mettre en place et très localisées (Jarlan and Boulet, 2013). Cependant, la télédétection ne propose qu’une vision superficielle de la surface. En particulier, la SSM dérivée des mesures micro-ondes n’est représentatives que des 1er centimètres du sol alors que c’est l’humidité dans la zone racinaire qui pilote le fonctionnement des couverts. De plus, certaines variables d’intérêt comme les flux où les quantités d’irrigation réellement appliquées ne sont pas directement observable par télédétection. Les modèles de surface permettent de faire le lien entre les observations et les variables d’intérêt et permettent également d’assurer la continuité dans le temps. En effet, la plupart des produits dérivés du radar ont une répétitivité de quelques jours (6 jours pour Sentinel-1 par exemple). Par contraste, les simulations des modèles sont associées à des incertitudes liées principalement aux données d’entrées (paramètres de sol et de la végétation, données de forçage) ainsi qu’aux imperfections du modèle lui-même en particulier pour certains processus physiques ou biologiques qui sont mal connus ou trop complexes. Ces processus sont donc approchés avec des simplifications et des estimations empiriques. Les modèles de surface permettent donc de simuler les variables (géo- ou bio-) physiques de manière continue mais de manière imparfaite.
L’objectif de l’assimilation de données est de tirer parti du meilleur des deux : observations et prédictions des modèles. C’est une technique d’analyse de données définie comme un processus mathématique qui permet une description fiable de l’état réel d’un système à un instant donné en combinant toute l’information disponible (modèle, observations …) (Daget, 2007; Sabater et al., 2006). Elle vise à fusionner de manière optimale les observations et les prédictions afin d’obtenir une meilleure estimation avec un meilleur niveau de précision que celle obtenue avec chacun des deux utilisé séparément (Talagrand, 1997). Elle permet de réduire l’incertitude prédictive des modèles et en même temps, de mettre régulièrement à jour les prédictions des modèles en utilisant les données observées (mesurées) pour obtenir une meilleure estimation des sorties du modèle (estimation d’état). La valeur estimée est appelée ‘analyse’ et la valeur prédite par le modèle est appelée ‘ébauche’ avant assimilation (background en anglais). Par exemple, dans l’étude menée par (Reichle et al., 2007), la comparaison de SSM prédite par un modèle et des produits satellitaires considérés séparément à des mesures in situ donnent des coefficients de corrélation < 0.5 alors que la combinaison du modèle avec les produits satellitaires par assimilation de données permet l’amélioration de la corrélation. La variable analysée est donc plus proche de la réalité que le modèle ou les observations seules.
L’assimilation de données est utilisée dans plusieurs domaines. En géosciences, la météorologie et l’océanographie ont été les premières à utiliser l’assimilation de données dans les modèles dynamiques, tandis que son utilisation en hydrologie est plus récente (Jarlan and Boulet, 2013; Sun et al., 2016). Un système d’assimilation se compose typiquement de trois éléments : les observations, un modèle dynamique et une technique d’assimilation. Il existe plusieurs techniques d’assimilation mais elles peuvent être regroupées en catégories. Il en va de même pour les modèles de surface. Dans ce qui suit, nous présenterons les principales techniques d’assimilation de données ainsi que les catégories de modèles de surface les plus utilisées.

Techniques d’assimilation

Classiquement, il existe deux catégories de méthodes : l’assimilation séquentielle basée sur la théorie de l’estimation statistique (ou de l’inférence bayésienne), et les méthodes variationnelles, qui sont basées sur la théorie de l’optimisation et du contrôle optimal.
Soit x le vecteur d’état. La notation internationale en assimilation de données utilisent des exposants pour indiquer la nature du vecteur (‘b’ pour ébauche et ‘a’ pour analyse) alors que les indices indiquent le temps ou l’espace ( désigne le vecteur d’état x à l’instant i). Un modèle est défini par la lettre M : c’est lui qui permet de projeter l’état dans le temps (modèle de surface dans notre cas). Le vecteur contenant les observations est noté y. Comme l’espace des observations et l’espace d’état sont souvent différents, le passage entre les deux espaces (passage de x à y ; considérons une observation y de SSM alors que la variable analysée x est l’humidité en zone racinaire) se fait par un opérateur d’observation H.

Les méthodes variationnelles

Les méthodes variationnelles ont été introduites dans les années 50 (Sasaki, 1955). Elles ont ensuite été largement utilisées dans plusieurs domaines notamment en météorologie (Andersson et al., 1998; Parrish and Derber, 1992). Leur principe est de corriger l’état initial à un instant donné i, en minimisant l’écart entre la trajectoire du modèle et les observations disponibles sur toute la période d’assimilation, entre les instants i et i + k (Sabater et al., 2006). Il existe principalement deux types de méthodes variationnelles : 3D-var et 4D-var. 3D-var est la méthode d’assimilation variationnelle tridimensionnelle introduite dans les années 90. Elle rassemble les problèmes uni- bi- et tri- dimensionnels (dans l’espace) qui ne prennent pas en compte l’aspect temporel. Cette technique cherche à minimiser la distance entre les prédictions et les observations et à utiliser le nouvel état analysé comme point de départ pour la prédiction suivante. L’objectif est donc de trouver l’état analysé qui minimise la fonction coût suivante :
( ) = ( ) + ( ) (II.1).
Avec : ( ) = 1 ( 0 − ( )) −1( 0 − ( )) (II.2).
Où B et R sont les deux matrices de covariance d’erreur respectivement d’ébauche et d’observation. La fonction coût est la somme des deux termes : l’écart aux observations et l’écart à l’ébauche . L’équilibre entre ces deux termes se fait par l’inverse de leurs matrices B et R ce qui veut dire que la minimisation de est liée donc à la confiance associée aux observations et à l’ébauche. Par exemple, si une observation est fiable, sa variance est faible et elle aura donc un poids plus important dans la fonction coût.
Il est possible d’utiliser la technique 3D-var dans un problème avec une dimension temporelle. Le principe est d’effectuer de l’assimilation sur des cycles appelés fenêtres temporelles d’un nombre défini de jours (ou d’heures généralement). Sur chaque fenêtre, les observations (qui appartiennent à cette fenêtre) sont regroupées à un instant t où l’assimilation est effectuée. Soit 0 une observation dans une fenêtre donnée, la fonction coût dans l’équation II.2 devient : ( ) = 1 ∑ −1 0 −1 0 − ( ( )) (II.4) =0 ( − ( ( )).
Cette technique est appelée 3D-var classique. En météorologie, les performances du 3D-var sont limitées à cause de la grande taille du problème en plus des non-linéarités des opérateurs d’observations. Ceci a conduit au développement d’un ensemble de variantes comme 3D-PSAS qui permet de résoudre le problème dans l’espace dual des observations (Bennett and Thorburn, 1992) et la méthode 3D-FGAT qui prend en compte le temps des observations en les comparant à l’état du modèle au pas de temps le plus proche. Cette dernière peut être vue comme un passage vers le 4D-var.
La technique quadridimensionnelle 4D-var a été introduite pour remplacer 3D-var. Le principe générale est de chercher le trajet optimal sur chaque fenêtre et non pas un état optimal à un instant donnée. Elle présente une extension dans le temps du 3D-var et ressemble à 3D-FGAT si ce n’est qu’elle mais avec des calculs réduits (Carrassi et al., 2018). La minimisation de la fonction coût dans les méthodes 3D-var est généralement effectuée par des méthodes de type descente de gradient alors que pour les 4D-var, la minimisation de la fonction coût est effectué par des méthodes plus efficaces (Jarlan and Boulet, 2013) dites méthodes adjointes issues de la théorie du contrôle optimal (Le Dimet and Talagrand, 1986).

Les méthodes séquentielles

Elles sont aussi connues sous le nom filtrage ou ‘updating’ (Dorigo et al., 2007). Comme le mot l’indique, leur principe est basé sur la mise à jour continue des variables d’état du modèle, chaque fois qu’une observation est disponible. Cette méthode repose sur l’hypothèse qu’une variable d’état mieux simulée au jour i améliorera également la précision de la variable d’état simulée aux jours suivants.

Mesures terrain

Les données in situ sont composées de mesures automatiques de l’humidité du sol et des données météorologiques, et de mesures manuelles (campagnes de mesures) de la rugosité de surface, de la biomasse, du contenu en eau de la végétation, de la hauteur du couvert, de l’indice de surface foliaire verte et de la fraction de couvert. Au total, 26, 18 et 16 campagnes de mesure ont été menées respectivement au cours des saisons 2016-2017, 2017-2018 et 2018-2019.

Humidité du sol

L’humidité de surface du sol (SSM) est mesurée automatiquement toutes les 30 minutes à l’aide des capteurs Time Domain Reflectometr (TDR), modèle Campbell Scientific CS616. Deux capteurs enterrés à une profondeur de 5 cm sont utilisés : un sous les goutteurs et un entre les goutteurs. La moyenne des deux est calculée afin d’obtenir une valeur de SSM représentative de la parcelle. En outre, des capteurs similaires sont enterrés pour la mesure de l’humidité en zone racinaire (RZSM) à 15, 25 et 35 cm de profondeur sur D1 et D3 tandis que seul deux capteurs à 15 et 30 cm sont entrées sur D2 par manque de capteurs supplémentaires. La Figure III. 2a illustre un exemple des capteurs TDR à différentes profondeurs.

Biomasse et contenu en eau de la végétation

La biomasse et le contenu en eau sont deux variables biophysiques d’une importance cruciale dans différentes applications agricoles, notamment le suivi du stress des plantes, la modélisation et la compréhension de la rétrodiffusion radar, le rendement des cultures et la modélisation de l’évapotranspiration. Dans chaque parcelle, huit échantillons sont collectés une fois par semaine ou toutes les deux semaines pendant la saison de croissance. Les échantillons sont choisis arbitrairement de façon à ce que la moyenne soit représentative de la parcelle. Un carré d’une surface de 0.0625 m2 (soit 25*25 cm2) est utilisé pour collecter les échantillons (Figure III.5). Afin d’éviter la perte d’eau des plantes par transpiration, les échantillons sont pesés sur place (dans la parcelle immédiatement après découpage) pour obtenir la biomasse aérienne fraîche (FAGB). La biomasse aérienne correspondante (AGB) exprimée en kg de matière sèche par m2 est déterminée ensuite au laboratoire en séchant les échantillons dans un four électrique à 105°C pendant 48 heures. Le contenu en eau de la végétation (VWC) est ainsi calculée comme la différence entre la FAGB et l’AGB (Gherboudj et al., 2011; Ouaadi et al., 2020).
Au cours des deux saisons 2016-2017 et 2017-2018, le protocole de mesure suivi sur les parcelles D1 et D2 avait pour objectif la mesure des variables de végétation totales, c’est-à-dire que les mesures d’AGB, de FAGB, de VWC et de H sont des mesures totales des feuilles et des épis sans distinction. Cependant, des mesures séparées des variables de végétation sont nécessaires pour le modèle de Karam (Chapitre IV). Pour cette raison, un protocole différent a été suivi au cours de la saison 2018-2019 (parcelle D3) afin de distinguer les mesures des feuilles (et des tiges, bien sûr) et des épis.

Hauteur du couvert, indice de surface foliaire verte et fraction de couvert

La hauteur du couvert (H), l’indice de surface foliaire verte (GLAI) et la fraction de couvert (Fc) sont mesurés chaque semaine (ou deux semaines) pendant la saison de croissance. Les valeurs mesurées sur onze endroits différents dans la parcelle sont moyennées et considérées comme une mesure représentative de la parcelle. H est simplement mesuré à l’aide d’un ruban à mesurer tandis que GLAI et Fc sont calculés par traitement des photos hémisphériques (Figure III. 6b) à l’aide du logiciel MATLAB selon la méthode décrite dans Duchemin et al. (2006) et Khabba et al. (2009). Les huit photos collectées par date et par parcelle sont prises à l’aide d’un appareil photo Canon 6EOS 600D avec SIGMA 4.5 mm F2.8 EXDC fisheye circulaire HSM (Figure III. 6a). Les photos sont prises dans des conditions d’éclairage optimales afin d’éviter les effets d’ombre et les phénomènes de surexposition qui rendent la classification plus difficile. L’algorithme est basé sur la binarisation des images hémisphériques par seuillage d’un indice de verdure. Ensuite, la partie utile des images est extraite en masquant l’opérateur et les angles de vue élevés (> 75°) (Figure III. 6c). Finalement, la zone couverte par le sol est extraite sur des anneaux concentriques associés à des angles de vue fixes et la moyenne de toutes les images est le GLAI de la parcelle. En utilisant le même processus, Fc est calculé comme le rapport entre le nombre de pixels de végétation et le nombre total de pixels.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Chapitre I : Le suivi des états de surface par télédétection radar
I. La télédétection radar
Généralités
Radar
Histoire du radar
Principe d’acquisition des radars à visée latérale
La résolution en distance
Compression des impulsions :
La résolution en azimut
Radar à synthèse d’ouverture
Effet Doppler
L’équation radar
Mesures radar
Polarimétrie SAR
Speckle
Interférométrie
Rétrodiffusion d’un couvert végétal
Interaction onde-sol et contribution de surface
Interaction avec la végétation et contribution de volume
Cycle diurne des données radar : coefficient de rétrodiffusion et cohérence interférométrique
Modèles de sol
Modèle de végétation
III. Inversion de l’humidité de surface du sol
SSM par micro-ondes passive
SSM par micro-ondes active
IV. Conclusion
Chapitre II : Caractérisation de l’irrigation par satellite
I. L’inversion des irrigations
Cartographie des zones irriguées
Estimation de la quantité et timing d’irrigation
II. L’assimilation de données
Techniques d’assimilation
Les méthodes variationnelles
Les méthodes séquentielles
Modèles de surface
III. Conclusion
Chapitre III : Sites d’étude et analyse expérimentales des données in situ et satellitaires
I. Introduction
II. Présentation du site d’étude
Site d’étude principal
Bassin versant du Tensift
La plaine du Haouz
Parcelles expérimentales
III. Présentation des données
Mesures terrain
Humidité du sol
La rugosité de surface
Biomasse et contenu en eau de la végétation
Hauteur du couvert, indice de surface foliaire verte et fraction de couvert
Mesures du PRI
Irrigation et données météorologiques
Bases de données complémentaires
Données de télédétection
Sentinel-1
Coefficient de rétrodiffusion
Cohérence interférométrique
NDVI de Sentinel-2
IV. Analyse des données
Variables de la végétation
Données Sentinel-1
Le coefficient de rétrodiffusion
Cohérence interférométrique et rapport de polarisation
Relation entre les données SAR et les variables de la végétation
Coefficient de rétrodiffusion et humidité de surface du sol
V. Conclusion
Chapitre IV : Modélisation de la rétrodiffusion radar d’un couvert de blé
I. Introduction
II. Water Cloud Model
Descripteurs de végétation
Résultats des simulations
III. Modèle Karam
Configuration double couche pour le blé
Résultats des simulations
IV. Conclusion
Chapitre V : Inversion de l’humidité de surface du sol
I. Introduction
II. Description de l’approche
III. Résultats d’inversion de l’humidité de surface du sol
IV. Conclusion
Chapitre VI : Inversion des dates et des quantités d’irrigation par assimilation de données d’humidité superficielle dans un modèle de surface
I. Introduction
II. Description de l’approche
La méthode FAO-56 à double coefficient
Le filtrage particulaire
III. Mise en place de l’approche et statistiques utilisées
Mise en place de l’approche
Les statistiques
IV. Expériences jumelles
Conception des expériences
Résultats et discussion
Irrigation gravitaire
Irrigation goutte-à-goutte
V. Assimilation des mesures in situ de SSM
Irrigation gravitaire
Irrigation goutte-à-goutte
Cumuls saisonniers
VI. Assimilation des produits de SSM dérivés de Sentinel-1
VII. Conclusion
Chapitre VII : Suivi du fonctionnement hydrique du blé par radar bande C infrajournalière : résultats préliminaires de l’expérience MOCTAR
I. Introduction
II. Cycle contraste des ?? Sentinel-1 entre les orbites montantes et descendantes sur un champ de blé
Analyse de Δ?? Sentinel-1 en relation avec le stress hydrique
Etude de sensibilité de Δ?? aux variations du contenu en eau du blé
III. Présentation du dispositif MOCTAR
IV. Analyse et discussion des résultats préliminaire MOCTAR
Analyse des séries temporelles
Analyse du cycle diurne
V. Conclusion
Conclusion générale et perspective
ANNEXE
Références

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *