Etude du couvert forestier par processus ponctuels marqués

Les débuts de l’imagerie forestière

            Les premiers intérêts de recherche pour les inventaires forestiers remonteraient au début du XXème siècle en Finlande. Traditionnellement, ce sont d’une façon générale les pays scandinaves, mais aussi le Canada (la forêt  canadienne représentant 420 millions d’hectares, soit 10% de la réserve mondiale), qui ont été précurseurs dans ce domaine. Dès l’arrivée des premiers avions vers 1910, et après leur utilisation militaire pendant la première guerre mondiale, de nouveaux modes d’observation de la Terre ont fait leur apparition. La cartographie, et en particulier celle des forêts, fut un des premiers domaines à en profiter, puisque l’utilisation des images aériennes pour la photointerprétation (PI) à des fins d’inventaire remonterait à 1920 au Québec et en Ontario [Howard, 1991]. Pour un historique plus détaillé sur les débuts de l’utilisation des images aériennes en foresterie, le lecteur intéressé pourra consulter [Spurr, 1948]. La recherche dans le domaine du Radar (« RAdio Detection And Ranging ») et du Lidar (« Light Detection And Ranging ») haute résolution est plus récente. Elle a été développée de manière indépendante en Suède, en Finlande et en Norvège principalement. En Suède, ces développements commencèrent au milieu des années 1980 avec une application militaire pour la surveillance navale, et se sont progressivement étendus à d’autres disciplines.

Données optiques

                Une des approches de spatialisation de l’information les plus connues est celle du « K Nearest Neighbor » (kNN), présentée dans [Haapanen et al., 2004]. Il s’agit d’une méthode de classification non paramétrique, développée en Finlande depuis la dernière décennie, dont le but est d’estimer la composition des forêts et d’aider les inventaires dans la cartographie. Des relevés sur le terrain sont effectués, puis localisés sur l’image dans des pixels dits de référence. L’algorithme associe ensuite à chaque pixel de l’image (satellitale dans ce cas) les attributs des pixels de référence qui lui ressemblent le plus, la similarité étant jugée sur un espace donné (distance euclidienne dans l’espace spectral par exemple). Une pondération intervient dans l’influence des k plus proches pixels. Cette méthode permet donc de spatialiser les relevés sur le terrain. L’incertitude locale est forte mais les erreurs locales sont statistiquement corrigées. Cette méthode est actuellement testée dans d’autres pays, où elle devra prouver son efficacité devant une grande variabilité des forêts. Sans relevé terrain, mais en se basant sur la connaissance de l’espèce pour certains pixels de l’image, la classification peut aussi être abordée au moyen de méthodes d’apprentissages (classification d’un certain nombre de pixels dans l’image) ou par réseaux de neurones, cf [Torma, 2000] sur des données Landsat. Les données optiques peuvent également être utilisées dans la détection des coupes rases. Bien qu’elles ne soient pas cartographiées, elles peuvent être appréhendées par la détection des changements [Durrieu et Boureau, 1996, Stach et al., 2005] entre deux images. Cette technique présente un intérêt certain dans la cartographie des plantations (exemple des massifs landais), dont les coupes sont régulières. En effet, la carte des âges des plantations découle directement de la détection des coupes rases réalisées régulièrement. Enfin, il est possible d’estimer certains paramètres de biomasse à partir de données multispectrales, en établissant des courbes de confiance entre des relevés sur le terrain et des mesures sur l’image. Ainsi, sur des données IKONOS multispectrales (4m de résolution en rouge, vert, bleu et infrarouge, et 1m en panchromatique), [Greenberg et al., 2005] relient l’aire de la végétation ombragée pour chaque arbre à deux paramètres de structure : le dbh (« diameter at breast height ») et l’aire de la couronne. Le comptage des polygones d’ombres délinéés dans une région donne de plus une estimation de la densité de tiges. La quantification de l’échange de CO2 avec l’atmosphère a aussi été traitée dans [Hurtt et al., 2003] sur des données IKONOS de résolution 4m.

Imagerie combinée

              D’une façon générale, la combination de l’imagerie optique et des données issues du Lidar donne de bien meilleurs résultats, et profite des avantages des deux types de données. De nombreux articles préconisent cette coopération dans le cadre d’inventaires. En effet, l’approche laser apporte principalement trois améliorations aux études fondées sur l’imagerie multispectrale [Gougeon et al., 2001b] : l’élimination des zones non-boisées grâce à un prétraitement qui filtre la partie de l’image où l’élévation est suffisante, des améliorations sur la délinéation des arbres, ainsi que la possibilité de faire une analyse séparée des zones de jeune régénération. Quant à l’imagerie optique, elle permet aussi d’éliminer des fausses alarmes issues des données Lidar, en calculant l’indice NDVI par exemple, mais surtout de classifier les objets une fois extraits en considérant leur texture. Dans [Magnussen et al., 1999b, Magnussen et al., 1999a], les auteurs dérivent du MHC obtenu par du Lidar et d’une estimation du nombre de sommets d’arbres (sur des images optiques, avec une méthode de recherche de maxima locaux par exemple) la hauteur de ces arbres. Dans [Straub, 2003], les données de départ sont une orthoimage et un modèle de surface. Le modèle de surface est utilisé comme information principale pour l’extraction des arbres, tandis que l’information de l’orthoimage aide à distinguer la végétation des autres objets de la scène. La segmentation du modèle de surface est faite par ligne de partage des eaux. Puis les bords des couronnes sont extraits avec des contours actifs. Les auteurs utilisent également du multi-échelle pour détecter plus facilement différents formats d’arbres. Dans [Leckie et al., 2003a], les auteurs combinent la technologie Lidar avec des données optiques MEIS, partant du principe que les données Lidar ont atteint un point où des modèles d’élévation du sol et de la canopée peuvent être produits avec une haute résolution spatiale. Les données multispectrales, quant à elles, ont permis de développer de nombreuses méthodes d’isolation et de classification d’arbres. Cependant, l’analyse de données multispectrales ne fournit pas d’informations sur la hauteur des tiges, et la donnée Lidar seule ne donne pas d’information sur l’espèce ou les attributs sanitaires. La combinaison des deux est donc intéressante. Les auteurs utilisent le suivi de vallées sur les deux types de données, le Lidar permettant de fournir des informations sur la hauteur des arbres contourés et de supprimer quelques fausses alarmes avec un filtre de hauteur simple. Dans [Haala et Brenner, 1999], il s’agit d’utiliser des données multispectrales (images Couleur Infrarouge orthorectifiées) et laser altimétriques (modèles numériques de surface) dans le cadre de villes pour extraire et distinguer bâtiments et arbres. Enfin, dans [Teraoka et al., 2003], sur des données Ikonos et Lidar, les auteurs segmentent les houppiers en recherchant sur l’image multispectrale des disques de couleur dont l’histogramme ne varie pas trop (« Similar Color Circle »), et à partir d’une ligne de partage des eaux sur la donnée Lidar. Pour classifier les houppiers segmentés de manière plus efficace, [Persson et al., 2004]combinent le laser haute résolution (7 pulsations par mètre carré) et les images proche infrarouge haute résolution (10cm). Les classes choisies sont les plus importantes en Suède, à savoir le pin sylvestre, l’épicéa de Norvège et les feuillus (principalement des bouleaux) en moins grande quantité. L’algorithme se décompose en une délinéation des houppiers à partir de la donnée laser, puis l’estimation de la hauteur et de l’aire de la couronne en utilisant cette même donnée, et finalement l’identification de l’espèce de l’arbre extrait en ajoutant la donnée optique, après recalage de la donnée optique sur les extractions réalisées. Enfin, dans [Mei et Durrieu, 2004], les auteurs segmentent les houppiers à partir d’un modèle numérique d’élévation pouvant être obtenu par une paire stéréoscopique d’images optiques ou par du laser, et identifient l’information complémentaire pouvant être obtenue à partir de données d’imagerie haute résolution (comme le NDVI pour enlever après la ligne de partages des eaux les zones de non végétation), avec une ligne de partage des eaux comme base de départ. Cependant l’application directe de cet algorithme mène à une sur segmentation pour les houppiers complexes et les zones non boisées.

Les données : confirmation d’une approche objet

               Grâce à notre partenaire l’IFN, nous avons pu disposer d’une large base de données images des forêts de France. Il s’agit de clichés analogiques de 23cm × 23cm pris d’avion en moyenne au 1/20000 (vols entre 3000 et 5000 mètres), scannés à une résolution d’environ 50cm par pixel. Les 3 bandes de fréquences sont situées entre 520 et 900 νm, ce sont des images IRC. Comme on peut le constater sur la F. 1.12, l’approche objet prend tout son sens dans ce problème puisque les objets d’intérêts, les arbres, sont définis dans chacun des types de végétation (arbres isolés, plantation, mélange taillis-futaie) par une cinquantaine de pixels au minimum. De plus, la prise de vue élevée de ces clichés fait que les couronnes des arbres ont une forme elliptique sur l’image, ce qui est moins vrai lorsque l’on s’éloigne du point Nadir (cf F. 1.11) : on peut donc imaginer d’utiliser la géométrie stochastique en recherchant ce type de formes dans l’image. Enfin, au vu de l’extrême diversité des paysages forestiers, et notamment de la variation de la densité d’arbres, nous avons construit différents modèles. Parfois, en effet, en plus de la position de l’arbre et du diamètre de la couronne, il est possible d’avoir une idée de sa hauteur en mesurant l’ombre projetée, mais ceci ne fonctionne que sur les zones les moins denses. Aussi, nous présenterons différents modèles dans ce manuscrit. Un premier modèle d’ellipses, adapté aux zones denses, sera étudié dans le chapitre 3, puis un modèle d’ellipsoïdes, adapté aux zones moins denses, sera présenté dans le chapitre 4. Le chapitre 5 proposera quant à lui une discussion sur nos résultats, une comparaison avec d’autres approches, ainsi que quelques propositions d’amélioration des modèles proposés.

Convergence de l’algorithme

              Nous rappelons ici les principales propriétés qui assurent la convergence de l’échantillonneur MCMC. Des démonstrations détaillées peuvent être trouvées dans [Geyer et Møller, 1998], [Perrin et al., 2003], [Lacoste, 2004] et [Ortner, 2004]. La principale condition est celle de stabilité (cf équation 2.6), et est assurée par le choix de la densité f(.) de notre processus. La variation d’énergie globale provoquée par l’ajout d’un objet est en effet bornée, d’après la stabilité de l’énergie interne (3.4) et de l’énergie externe (3.9). Les propriétés qui assurent la stabilité de l’échantillonneur (cf Annexe A.1) sont décrites ci-dessous et, pour chacune, les conditions qui assurent leur validité ainsi que quelques éléments de démonstration :
1. apériodicité : en plus de toutes les perturbations du noyau de proposition présentées ci-dessus, et choisies avec une probabilité pm(x), la probabilité de ne rien proposer 1 −Pm pm(x) est strictement positive, ce qui assure l’apériodicité de la chaîne.
2. irréductibilité et ensembles petits : l’algorithme MHG simule une chaîne de Markov irréductible et tout ensemble borné de N f est petit grâce à la condition de stabilité (2.6). L’irréductibilité se démontre en passant par une mesure de probabilité µ0(.) qui donne tout son poids au point {∅}, et en montrant que la chaîne de Markov atteint ce point avec une probabilité strictement positive (via des mouvements de mort par exemple).
3. récurrence au sens de Harris et ergodicité géométrique : une nouvelle fois, la condition de stabilité est suffisante, mais le fait que le nombre d’objets dans la configuration soit borné (à cause du terme de « hard core ») permet d’obtenir plus facilement la condition de « drift ».

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

1 Les sciences forestières et les apports de la télédétection 
1.1 Différents types de données pour répondre aux besoins 
1.1.1 Les débuts de l’imagerie forestière
1.1.2 Utilisation actuelle des données
1.1.3 L’imagerie optique
1.1.4 Les données Radar et Lidar
1.2 Quelques résultats à l’échelle de la parcelle 
1.2.1 Données optiques
1.2.2 Données Radar et Lidar
1.2.3 Premières conclusions et limites
1.3 Vers un inventaire à l’arbre près ? 
1.3.1 Extraction de houppiers sur des données optiques
1.3.2 Extraction de houppiers sur des données Lidar
1.3.3 Imagerie combinée
1.4 Notre approche : extraction des houppiers par processus ponctuels marqués 
1.4.1 Problèmes inverses et approches probabilistes
1.4.2 Les données : confirmation d’une approche objet
2 Processus spatiaux et leurs applications en foresterie 
2.1 Processus spatiaux : définitions et notations 
2.1.1 Espace des configurations
2.1.2 Processus ponctuels : définitions et premiers exemples
2.1.3 Processus ponctuels définis par une densité
2.1.4 Processus de Markov
2.1.5 Stabilité d’un processus
2.2 Simulation des processus ponctuels 
2.2.1 Rappel des principales notations
2.2.2 Problématique et enjeux
2.2.3 Algorithme de type Metropolis-Hastings
2.2.4 Algorithme de Metropolis-Hastings-Green
2.3 Application à l’extraction d’objets 
2.3.1 A propos de la simulation
2.3.2 Optimisation
2.3.3 Simulation en temps fini
2.4 Statistiques spatiales en foresterie 
2.4.1 Processus agrégés
2.4.2 Processus de Gibbs
3 Modèle 2D : extraction dans les zones denses 
3.1 Description du modèle
3.1.1 Choix des images
3.1.2 Objets d’intérêt
3.1.3 Modèle probabiliste
3.1.4 Processus de référence
3.1.5 Modèles d’énergie
3.2 Energie a priori Up(x) 
3.2.1 Contraintes sur les objets
3.2.2 Superposition des objets
3.2.3 Modélisation des agrégats
3.2.4 Bilan et simulations de l’a priori
3.3 Energie d’attache aux données 
3.3.1 Modèle bayésien
3.3.2 Modèle non bayésien
3.3.3 Stabilité
3.4 Noyau de proposition 
3.4.1 Naissance et Mort uniformes
3.4.2 Perturbations simples
3.4.3 Fusion / Division
3.4.4 Naissance et Mort dans un voisinage
3.4.5 Convergence de l’algorithme
3.5 Résultats 
3.5.1 Paramètres du modèle
3.5.2 Potentiel et limites du modèle bayésien pour l’étude des plantations
3.5.3 Apports du modèle non bayésien
3.5.4 Extraction sur des zones plus denses
4 Modèle 3D : extraction dans les zones non denses 
4.1 Extraction d’arbres épars : de la 2D à la 3D 
4.2 Fondements du modèle 3D 
4.2.1 Espace Objet
4.2.2 Energie du modèle 3D
4.2.3 Noyau de proposition
4.3 Résultats
4.3.1 Paramètres
4.3.2 Premiers résultats
4.3.3 Remarques et adaptations du modèle
5 Conclusions et Perspectives 
5.1 Conclusion générale
5.1.1 Synthèse des travaux effectués – Potentiel de notre approche
5.1.2 Limites éventuelles
5.1.3 Comparaison avec d’autres algorithmes
5.2 Perspectives
5.2.1 Quelle résolution pour les images ?
5.2.2 Des ellipses aux disques
5.2.3 Prendre en compte la couleur
5.2.4 Corrections physiques du modèle
5.2.5 Formes et texture pour la classification
5.2.6 Relier le traitement des images aux modèles de croissance
5.2.7 Estimation des paramètres du modèle
5.2.8 Optimisation de l’algorithme MHG
A Rappels sur les chaînes de Markov et la théorie ergodique
A.1 Notions sur les chaînes de Markov
A.1.1 Premières définitions
A.1.2 Stationnarité et Invariance
A.1.3 Réversibilité
A.1.4 Irréductibilité
A.1.5 Ensembles petits et Apériodicité
A.2 Etude de la stabilité des chaînes de Markov
A.2.1 Ergodicité
A.2.2 Récurrence au sens de Harris
A.2.3 Théorème limite
B Calculs sur le noyau de proposition
B.1 Naissance et Mort
B.1.1 Symétrie de la mesure ξNM(., .)
B.1.2 Dérivée de Radon-Nikodym DNM(., .)
B.2 Perturbations simples
B.2.1 Symétrie de la mesure ξTS (., .)
B.3 Fusion / Division
B.3.1 Rappel du noyau de proposition QFD(., .)
B.3.2 Symétrie de la mesure ξFD(., .)
B.3.3 Dérivée de Radon-Nikodym DFD(., .)
B.4 Naissance et Mort dans un voisinage
B.4.1 Rappel du noyau de proposition QNMV(., .)
B.4.2 Symétrie de la mesure ξNMV(., .)
B.4.3 Dérivée de Radon-Nikodym DNMV(., .)
C Lexique
D Publications et activités de recherche
E Nouveau Chapitre de la Thèse
E.1 Le projet de thèse
E.1.1 Le contexte et les enjeux
E.1.2 Cadre de ma thèse
E.1.3 Déroulement du projet
E.1.4 Evaluation et prise en charge du coût du projet
E.2 Compétences développées
E.2.1 Savoirs et savoir-faire scientifiques et techniques
E.2.2 Savoir-faire périphériques et complémentaires
E.2.3 Savoir-être
E.3 Bilan, impact de la thèse
E.3.1 Pour mes équipes
E.3.2 Bilan personnel
Bibliographie

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *