L’acquisition photogrammétrique
« La photogrammétrie est la science ou la technique permettant d’obtenir des informations fiables sur l’espace naturel ou sur des objets physiques par l’enregistrement, la mesure et l’interprétation d’images photographiques …. » [AmericanSocietyofPhotogrammetry, 1980].
L’enregistrement photogrammétrique a utilisé pendant longtemps uniquement des chambres métriques et semi-métriques [Carbonnel, 1968]. Aujourd’hui, des images numériques peuvent être acquises directement par une caméra à matrice DTC1. Qu’elles soient employées en configuration mono ou stéréo, en photogrammétrie, les chambres appartiennent à trois catégories principales [Grussenmeyer et al.,2001]: chambres métriques, chambres semi-métriques, chambres à DTC. Les chambres métriques terrestres offrent une orientation interne stable sur une longue période assurée par une réalisation optico-mécanique. Des repères de fond réalisent le système de coordonnées de l’image en garantissant une haute qualité géométrique.
Les chambres semi-métriques projettent, lors de l’exposition, une grille de repères étalonnée sur le film. Les distorsions qui se produisent pendant l’acquisition, le développement ou le traitement de l’image, peuvent ainsi être compensées.
Les chambres à DTC acquièrent directement des images numériques. Ces chambres, qui ne requièrent pas la phase de développement, offrent un contrôle direct de la qualité de l’image acquise et ont de bonnes caractéristiques géométriques.
L’acquisition par scanner laser 3D
Le balayage laser terrestre est «utilisation d’un dispositif basé au sol, qui utilise un laser pour mesurer les coordonnées tridimensionnelles d’une région donnée de la surface d’un objet de façon automatique, dans un ordre systématique et à un taux élevé de vitesse, près du temps réel» [Boehler et al., 2002a]. Les modules de balayage laser permettent une acquisition directe de milliers de coordonnées par seconde. Au-delà des coordonnées spatiales (x,y,z), certains dispositifs de balayage permettent aussi d’acquérir les valeurs d’intensité (valeur exprimant la réponse du matériau au faisceau laser dans une nuance de 255 niveaux de gris) et les valeurs colorimétriques (valeurs RVB extraites à partir d’une caméra calibrée embarquée dans le module de balayage). Comme dans le cas de l’acquisition photogrammétrique, presque aucun système de balayage laser ne peut accomplir toutes les exigences d’un relevé d’architecture.
En effet, la variété d’objets qu’un édifice peut présenter s’étendent des éléments architecturaux aux décors sculptés.
La reconstruction tridimensionnelle des surfaces
Habituellement, les nuages de points ne sont pas suffisants comme résultat final de documentation. Ils pourraient être considérés comme des moyens d’archiver la géométrie d’un objet en prévision d’exploitations futures. Le but de la reconstruction d’une surface à partir d’un nuage de points peut être énoncé comme suit [Remondino, 2003] : étant donné un ensemble de points P supposés décrire une surface inconnue S, créer un modèle de surface S’ qui approxime S. Dans ce but, beaucoup de techniques (automatiques, semi-automatiques et manuelles) existent aujourd’hui. Nous allons les présenter dans cette section en les regroupant en deux catégories principales :
Les techniques de reconstruction à partir d’un nuage de points systématiques : il s’agit de procédures d’interpolation ou d’instanciation automatique ou semi-automatique qui utilisent comme données d’entrée un nuage de points issu d’un balayage laser ou d’une corrélation stéréophotogrammétrie ;
Les techniques de reconstruction à partir d’un nuage de points pertinents : il s’agit de techniques d’approximation manuelles qui décrivent les surfaces au travers de la manipulation d’un certain nombre de primitives géométriques et de fonctions de modélisation.
La restitution de l’apparence visuelle
Plusieurs techniques de synthèse d’images sont disponibles aujourd’hui pour simuler l’apparence visuelle des formes basées sur le calcul de l’interaction entre sources lumineuses, caractéristiques des matériaux et géométrie des objets. Par contre, même si ces techniques de synthèse nous permettent parfois de produire des images photo-réalistes, elles ne s’appuient sur aucune donnée d’entrée valable. Le but de la restitution de l’apparence visuelle dans un contexte de reconstruction qui se sert d’une numérisation de l’existant est de restituer les véritables caractères qui décrivent l’aspect des surfaces en cohérence avec la géométrie de l’objet. Par conséquent, nous allons nous concentrer sur l’aspect réduit de l’extraction et de la restitution d’informations photométriques. Ces informations peuvent en effet jouer un véritable rôle dans la documentation de l’état de conservation d’un édifice.
L’acquisition d’informations photométriques
Dans la plupart des systèmes de restitution photogrammétrique, la mise en cohérence entre une photographie, un support pour la description des objets et l’extraction précise d’information photométrique est un problème complètement exploré. Reste encore le problème que la restitution photogrammétrique mono et stéréo s’appuie sur des plans bidimensionnels.
Cette limitation est incompatible avec l’extraction complète de toutes les faces qui composent les différents éléments que l’on veut reconstruire. Par rapport à l’élaboration de mosaïques d’images rectifiées, le processus d’extraction de textures pour les objets 3D est beaucoup plus compliqué. En généralisant, on pourrait dire que chaque petit élément extérieur devrait être acquis photographiquement de façon indépendante (par rapport à l’angle d’incidence) [Visnovcova et al., 2000]. Sans compter que les variations des conditions d’éclairage pendant l’acquisition peuvent changer même radicalement.
Nous avons vu que certains modules de balayage laser, peuvent restituer un attribut représentant la force du signal retourné (luminance) en addition aux coordonnées des points acquis. Si elle est normalisée, cette valeur peut être employée pour créer une image (en niveaux de gris) des tonalités de l’objet. En ce qui concerne les scanners qui incorporent une camera DTC pour fournir une information colorimétrique, une réflexion s’impose. Dans le module basé sur le principe de la triangulation, cette information est en parfaite cohérence avec l’acquisition métrique. En effet, la matrice DTC de la caméra incorporée contient le même nombre de points que le dispositif peut acquérir métriquement. Ceci est possible grâce aux limitations de portée qui caractérise ce type d’instrument (de 0,1 à 2m). Par contre, dans les dispositifs de balayage longue portée, la matrice d’acquisition des valeurs RVB (généralement une caméra embarquée à faible résolution : 765×576 pixels) est clairement moins définie de celle du dispositif de balayage laser. Ceci conditionne fortement les résultats de superposition de l’image sur le nuage de points. Une solution peut être l’acquisition d’images à haute résolution avec un appareil photo séparé. Dans ce cas, la position de l’appareil photo au moment de la prise de vue ainsi que son orientation devra être enregistrée pour permettre la projection des valeurs colorimétriques acquises sur le nuage de points. Dans tous les cas, jusqu’à présent, le problème de l’uniformité de l’éclairage de la scène reste encore irrésolu.
L’extraction et le plaquage des textures
En infographie une texture est définie comme une microstructure de la surface à représenter [Heckbert, 1986]. Il existe différentes techniques de génération synthétique des textures. Comme on l’a déjà dit, nous allons traiter exclusivement celles qui s’appuient sur l’extraction et le plaquage de portions d’images directement à partir des photographies.
Extraire une texture à partir d’une image consiste à isoler les parties de l’image correspondant aux entités présentes dans la scène 3D ou à une région sélectionnée selon des modalités de projection. [Catmull, 1975] a montré que des photographies peuvent être appliquées sur une surface libre. Cependant cette technique ne fonctionne pas bien quand le nombre de points de la surface à afficher est inférieur au nombre d’éléments (pixels) dans l’image. L’auteur suggère alors de faire des correspondances région par région plutôt que point par point, en subdivisant simultanément la surface et l’image. En fait, le plaquage revient à une transformation entre deux systèmes de coordonnées : l’espace de la texture et l’espace tridimensionnel classique. Un cas commun est l’application d’images polygonales bidimensionnelles sur des surfaces polygonales 3D définies avec des faces quadrangulaires. La technique revient à découper l’image plane selon une grille puis à faire correspondre à chaque case son équivalent sur la surface. On peut alors transformer la partie d’image contenue dans la case plane selon la forme du polygone équivalent. Or, suivant la méthode de reconstruction utilisée, le système dispose ou non des contours du modèle projeté dans l’image. Ces contours peuvent donc être déterminés par la projection du modèle selon deux modalités différentes : Projection plane. C’est le cas de l’extraction et du plaquage des textures à partir d’images redressées. On re-projette le modèle sur l’image selon les orientations du plan de rectification et on établi les relations dimensionnelles entre la mosaïque d’images et le modèle 3D. Dans ce cas là, l’image n’est pas déformée et est plaquée en fonction de la normale du plan.
Projection perspective. C’est le cas de la restitution à partir d’un bloc d’images. On projette le modèle 3D sur le plan d’image d’une caméra et on isole une portion de la photographie associée. Ensuite, ces textures doivent être redressées, de manière à éliminer les déformations dues à la perspective de la projection initiale. Cette opération peut être effectuée par un algorithme de parcours ligne par ligne. On peut aussi extraire directement le rectangle qui borne la surface à traiter et sauver les positions relatives des points de la surface dans ce rectangle (les 4 points du rectangle sont obtenus grâce aux minima et maxima des coordonnées des points de la surface).
Approches actuelles pour le relevé et la représentation d’édifices
Durant la génération de la maquette 3D d’un édifice, les besoins d’une précision géométrique détaillée, la disponibilité de tous les détails, les performances d’affichage en temps réel et le photoréalisme sont aujourd’hui des aspects fondamentaux. La plupart des projets de documentation d’objets culturels emploient une méthode ou une autre, tandis que seulement un petit nombre d’expériences utilisent une combinaison de techniques. [Bernardini et al. 2002] combinent par exemple la lumière structurée et la stéréophotogrammétrie pour modéliser la «Pietà» de Michelangelo. [Sequeira et al., 2001] utilisent le balayage laser avec la modélisation et le rendu basé sur l’image. Mais, au delà de la simple application d’un procédé technique, qu’il soit simple ou intégré, d’autres dimensions d’ordre méthodologique s’imposent pour la détermination d’une stratégie d’acquisition et de traitement des données spatiales. Pour bien évaluer la validité d’une approche, il est nécessaire d’identifier les objectifs de représentation qui conduisent les différentes expériences. Le propos de cette partie de l’état de l’art est de tenter une classification des approches actuelles de reconstruction 3D d’édifices patrimoniaux en fonction des exigences de description qui les déterminent et en présentant de façon transversale les procédés techniques mis en place pour leur développement. En effet, le choix d’un type de représentation véhicule les modalités de collecte de données et détermine leur traitement.
Dans cette optique, nous avons regroupé un certain nombre d’expériences en quatre catégories d’approches principales :
Celles qui visent à l’exactitude géométrique du modèle 3D ; Celles qui sont basées sur des exigences de description spécifiques à un type d’analyse ; Celles qui se concentrent sur la restitution de l’apparence visuelle ; Celles qui focalisent sur la représentation de plusieurs aspects à la fois.
À chaque expérience citée, nous associons un schéma montrant la chaîne de traitement mise en place par les auteurs, plus des illustrations des résultats obtenus par les auteurs.
|
Table des matières
1. Introduction
1.1 Contexte
1.2 Objectif
1.3 Portées, limites et apports principaux
1.4 Terrains d’expérimentation
1.5 Structure du document
Partie I
2. Outils et techniques pour l’acquisition, le traitement et le rendu de données tridimensionnelles
2.1 L’acquisition des données spatiales
2.1.1 Historique des méthodes de relevé architectural
2.1.2 L’acquisition photogrammétrique
2.1.3 L’acquisition par scanner laser 3D
2.1.4 Analyse comparative des deux systèmes d’acquisition
2.1.5 Collecte, organisation et extraction d’informations spatiales
2.2 La reconstruction tridimensionnelle des surfaces
2.2.1 Classification des représentations géométriques des surfaces
2.2.2 Techniques de reconstruction des surfaces à partir d’un nuage de points systématiques
2.2.3 Techniques de reconstruction manuelles à partir d’un ensemble de points pertinents
2.2.4 Techniques de reconstruction basées sur l’image
2.3 La restitution de l’apparence visuelle
2.3.1 L’acquisition d’informations photométriques
2.3.2 L’extraction et le plaquage des textures
2.3.3 Le rendu basé sur l’image
2.4 Conclusions
3. Une approche hybride pour la restitution tridimensionnelle du patrimoine bâti
3.1 Problématique
3.2 Approches actuelles pour le relevé et la représentation d’édifices
3.2.1 Approches visant à l’exactitude du modèle géométrique
3.2.2 Approches se basant sur des exigences de description
3.2.3 Approches visant à la restitution de l’apparence visuelle
3.2.4 Approches visant à la restitution de plusieurs aspects à la fois
3.2.5 Analyse critique des expériences présentées
3.3 Présentation de l’approche proposée
3.3.1 Préoccupations retenues
3.3.2 Structure de l’approche
3.4 Présentation de l’environnement de développement
3.4.1 MEL et C++
3.5 Conclusions
Partie II
4. Consolidation hybride de différentes sources
4.1 L’acquisition des données sur le terrain
4.2 Consolidation hybride de différentes sources
4.2.1 Conversion des nuages de points
4.2.2 L’orientation des photographies sur le nuage de points
4.2.3 L’extraction de coordonnées additionnelles
4.3 Extraction d’informations pertinentes
4.3.1 Extraction de profils au travers d’un plan d’intersection
4.3.2 Extraction de profils à partir d’une image rectifiée
4.3.3 Extraction de profils sur un support mixte (plan d’intersection/image rectifiée)
4.4 Conclusions
5. Approche proposée pour la reconstruction de la morphologie de l’édifice
5.1 Introduction
5.2 Reconstruction des surfaces à partir d’informations pertinentes
5.2.1 Génération de surfaces à partir de profils
5.3 Outils de modélisation basés sur les connaissances architecturales
5.3.1 Introduction
5.3.2 Les moulures : unités atomiques de l’architecture classique
5.3.3 Formalisation de primitives architecturales
5.3.4 Instanciation des primitives sur le nuage de points
5.3.5 Modélisation de primitives architecturales par déclaration de moulures
5.3.6 Constitution d’une bibliothèque d’éléments
5.4 Reconstruction de bas-reliefs à partir d’un nuage de points systématique
5.4.1 Introduction
5.4.2 Démarche adoptée
5.4.3 Evaluation
6. Structuration de la maquette et multi-représentation
6.1 Contexte
6.1.1 L’édifice comme système de connaissances architecturales
6.1.2 Les relations entre les éléments architecturaux
6.2 Description sémantique de la morphologie d’un édifice
6.2.1 La description sémantique par graphes tridimensionnels
6.3 Multi-représentations
6.3.1 Représentations basées sur les points
6.3.2 Représentations basées sur les courbes
6.3.3 Représentations basées sur les polygones
6.3.4 Synthèse des représentations
6.4 Stockage et exploitation des représentations pour l’affichage 3D temps réel
6.4.1 Optimisation des maquettes pour l’affichage 3D en temps réel
6.4.2 Conservation et exploitation des représentations géométriques
6.4.3 Enregistrement des représentations dans une base de données
Partie III
7. Structuration d’informations autour de la maquette 3D
7.1 Etat de l’art des systèmes d’informations à l’échelle architecturale
7.1.1 Systèmes qui relient les informations associées autour d’un édifice entier
7.1.2 Systèmes qui relient les informations aux entités d’une représentation 2D
7.1.3 Systèmes qui relient les informations aux entités d’une représentation 3D
7.1.4 Systèmes qui structurent les informations autour d’un modèle de description de l’édifice
7.2 Proposition d’un système pour la consultation du relevé et des représentations
7.2.1 L’architecture du système
7.2.2 Présentation de l’environnement de développement
7.2.3 La scène 3D
7.2.4 La base de données
7.2.5 Le dialogue entre les parties du système
7.3 Outils pour la consultation du relevé
7.3.1 La prise de mesure interactive
7.3.2 Extraction de profils
7.3.3 Recherche du point de vue d’une photographie
7.4 Outils pour la construction d’un point de vue
7.4.1 Construction d’un graphe de description à partir d’un découpage morphologique
7.4.2 Nomenclature par thesaurus
7.4.3 Choix d’un système de représentation
7.4.4 Qualification des entités par attributs d’un domaine de connaissances spécifique
7.5 Consultation d’un point de vue
7.5.1 Recherche d’éléments de la morphologie à partir d’une requête dans la base de données
7.5.2 Recherche d’informations à partir d’un point d’observation dans la scène 3D
8. Conclusions et perspectives
8.1 Limites
8.1.1 Consolidation hybride de différentes sources
8.1.2 Reconstruction des surfaces à partir de profils pertinents
8.1.3 Instanciation de primitives architecturales
8.1.4 Description sémantique de la morphologie de l’édifice
8.2 Perspectives de recherche
8.2.1 La documentation de l’état actuel de l’édifice
8.2.2 L’analyse de l’état de conservation de l’édifice
8.2.3 La formalisation des connaissances architecturales pour la compréhension et la restitution de la nature géométrique de l’édifice
8.2.4 La maquette 3D comme support pour la consultation, l’évaluation et
le développement d’hypothèses de restitution
8.2.4 Terrains d’expérimentation
8.3 Réflexions conclusives
Bibliographie
Télécharger le rapport complet