Etalonnage non-paramétrique et conception d’une mire adaptée 

Télécharger le fichier pdf d’un mémoire de fin d’études

Perception 3D par capteurs actifs : télémétrie et triangulation

Les capteurs actifs émettent un signal pour mesurer la distance entre un capteur et une cible observée. On distingue principalement les capteurs à télémétrie et les capteurs actifs par triangulation. Les capteurs à télémétrie utilisent l’énergie d’une onde in-cidente rétrodiffusée2 par une cible pour mesurer la distance entre le capteur et l’objet observé. Les signaux émis peuvent être des ondes électromagnétiques lumineuses opérant dans le visible, le proche infrarouge ou l’ultraviolet, des ondes électromagnétiques radio-fréquences ou des ondes mécaniques acoustiques. Le capteur peut fonctionner en régime impulsionnel ou en régime permanent sinusoïdal à fréquence fixe ou variable. En régime impulsionnel, la mesure de distance est basée sur le calcul du temps de parcours d’un signal entre son émission et sa réception. En régime permanent sinusoïdal, la mesure de distance est soit une mesure de déphasage, soit une différence de fréquence entre l’onde émise et l’onde reçue. Les capteurs actifs par triangulation sont composés d’une source lumineuse et d’un capteur vidéo. Cette méthode de mesure de distance est dite en lumière structurée [48], [116]. Dans sa forme la plus simple, la lumière structurée est un unique rayon. Les projections de plans lumineux ou de patrons bidimensionnels sont également utilisées.
Cette section débute par une revue des technologies d’acquisition 3D par télémétrie. Les capteurs utilisant le principe de la mesure du temps de vol, de la mesure du déphasage et de la mesure de la fréquence sont détaillés. Puis, les systèmes d’acquisition par projection d’un motif lumineux sont présentés. Cette section se termine par une synthèse de ces deux technologies en termes d’avantages et d’inconvénients par rapport aux exigences des applications du programme OmniViss.

Télémétrie

Mesure du temps de vol

La télémétrie par mesure du temps de vol est une méthode de mesure de distance basée sur l’évaluation du temps de propagation aller et retour d’un signal émis par une source et rétrodiffusée par une cible (cf. figure 1.1). Sous certaines hypothèses (faisceaux d’émission et de réception colinéaires ou quasi-parallèles, illumination de la cible de façon quasi-ponctuelle, etc. [51]), une fraction du signal émis est rétrodiffusée3 dans une direction voisine de celle du signal incident. Si est le temps de parcours aller et retour du signal, v est la vitesse de propagation du signal dans le milieu considéré, la distance D à mesurer est donnée par la relation : D = 12 v . Cette technique de mesure est fréquemment utilisée pour les capteurs radars (« radio detection and ranging »), lidars (« light detection and ranging ») mais reste néanmoins employée lorsque la distance entre le capteur et la cible est grande.

Mesure du déphasage

Lorsque les distances sont faibles, la télémétrie par mesure du déphasage remplace la télémétrie par mesure du temps de vol. Une onde modulée en amplitude par un signal sinusoïdal de fréquence fixe est émise vers la cible (cf. figure 1.1). L’onde réfléchie par l’objet est également une onde modulée en amplitude mais déphasée par rapport à l’onde émise. Le déphasage entre l’onde émise et l’onde réfléchie est proportionnel à la distance D entre le capteur et la cible, à la vitesse de propagation de l’onde v et à la fréquence de modulation Fm. Ce déphasage est donné par la relation suivante : = 4 Fm Dv mod (2 ).

Mesure de la fréquence

La télémétrie par mesure de la fréquence utilise l’émission d’une onde modulée sinusoïdalement en amplitude par un signal lui-même modulé linéairement en fréquence (cf. figure 1.1). La différence de fréquence entre l’onde émise Fe (t) et l’onde reçue Fr (t) est proportionnelle à la distance D entre le capteur et la cible : Fe (t) Fr (t) = F 2vTD , où 4F est l’amplitude de fréquences entre le signal émis et celui reçu et T est la période des signaux.

Triangulation active en lumière structurée

Dans sa forme la plus simple, la lumière structurée est un unique rayon émis par une source et faisant apparaître sur l’objet un point de surbrillance (cf. figure 1.2a).
Lorsque la direction du rayon est connue et le capteur calibré (c’est-à-dire qu’à tout point 2D correspond une ligne de vue dans l’espace 3D), il est possible de déterminer la position du point 3D définie comme l’intersection de la ligne de vue 3D et du rayon lumineux. La lumière structurée peut également être un plan de lumière (on parle alors de profilométrie) (cf. figure 1.2b). Ce plan de lumière est généré par une source lumineuse (généralement laser) devant laquelle on place une lentille cylindrique. Ce plan, d’équation connue, fait apparaître sur l’objet un segment de surbrillance observé par le capteur d’images. Aux pixels éclairés décrivant le profil sont associées des directions dans l’espace 3D (à condition que le capteur d’images soit étalonné). Il s’agit donc de déterminer les points 3D d’intersection du plan de lumière et des lignes de vue 3D associées aux pixels. Enfin, la lumière structurée peut être un motif bidimensionnel que l’on projette sur l’objet
à numériser (cf. figure 1.2c). Il peut s’agir d’une grille (matrice de points) ou d’un faisceau de lignes. L’estimation de la distance entre le capteur et l’objet peut se faire par une étude de la déformation du patron projeté ou par une mise en correspondance entre la matrice de points projetée et les données observées par le capteur.

Synthèse

Nous avons vu dans les paragraphes précédents deux technologies de capteurs permettant l’acquisition de données 3D : la première est dite par télémétrie et la seconde est dite active par projection de lumière structurée.
La première technologie de capteurs utilise l’émission et la réception d’ondes radiofré-quences (radars), lumineuses (lidars) ou ultra-sonores pour mesurer la distance entre le capteur et la cible visée. Mis à part le télémètre à ultrason plutôt destiné à l’acquisition de données 3D en environnements intérieurs, les radars ou les lidars sont principalement uti-lisés pour des applications nécessitant des portées importantes : la vitesse de propagation des ondes ainsi que les longueurs d’onde des signaux émis ne permettent pas la numéri-sation précise d’objets proches [82]. Dans sa version classique, la télémétrie souffre égale-ment d’une résolution azimutale faible. La synthèse d’ouverture, qui consiste à augmenter artificiellement la résolution azimutale du capteur, permet de pallier cet inconvénient. Cependant, ce processus nécessitant des déplacements successifs de la source d’émission, requiert des post-traitements conséquents sur les données reçues et ne peut donc être compatible avec des traitements temps-réel. Un autre inconvénient de cette technologie tient aux surfaces de certains matériaux, qui dans certains cas possèdent un coefficient d’absorption élevé ne permettant pas de rétro-diffuser l’onde émise, ou qui dans d’autres se comportent comme des miroirs réfléchissant l’onde incidente dans une direction opposée à celle émise [82].
La seconde technologie est dite active par projection de lumière structurée. Elle utilise une source lumineuse et l’observation par un capteur vidéo du motif lumineux projeté. Cette technologie tire profit des avantages liés à l’utilisation de capteurs vidéos, c’est-à-dire l’acquisition d’une quantité d’informations importante instantanément, et n’est pas soumis aux inconvénients des systèmes passifs traditionnels [44] (éclairage, surface uniforme, etc. ). Lorsqu’un point ou un plan est projeté, l’estimation de distance est assez simple : il s’agit de déterminer l’intersection du ou des rayons lumineux avec les lignes de vue 3D (sous réserve que le capteur soit calibré). L’inconvénient principal apparaît lorsqu’il faut numériser l’intégralité d’un objet ou d’une scène 3D. La source de lumière doit être pilotée horizontalement et verticalement afin de permettre l’acquisition de la totalité des données 3D. Cette solution est donc difficilement compatible avec des applications nécessitant des traitements temps-réel. Une solution consiste en la projection d’un motif bidimensionnel. Aucun système mécanique de balayage n’est alors nécessaire ce qui permet d’accélérer significativement la phase d’acquisition de données. Néanmoins, l’estimation de la distance est plus complexe. En effet, la mise en correspondance entre la matrice de points projetée et les données observées par le capteur n’est pas triviale puisque rien ne permet de distinguer dans l’image un noeud d’un autre noeud [48]. Des contraintes permettent de simplifier le problème, mais des ambiguïtés subsistent. Une solution repose sur l’utilisation de patrons de lumière structurée et codée [115]. Cette technique de codage rend alors le problème de mise en correspondance univoque.
Enfin, un inconvénient commun aux deux technologies est le caractère actif de la mesure, c’est-à-dire que l’évaluation de la distance entre le capteur et la cible utilise l’émission d’un signal. Lorsque des impératifs de discrétion sont requis pour les applications, l’émission d’un signal pour acquérir les données 3D est peu envisageable.

Perception 3D par capteurs passifs : la vision

Les systèmes de vision sont bien adaptés à la reconstruction 3D d’environnements puis-qu’ils fournissent une quantité d’informations importante en un temps très court. Cette quantité d’informations est fonction de ce que voit le capteur. Si l’on considère une sphère d’observation et un capteur vidéo placé en son centre (cf. figure 1.3) ; le capteur est dit standard ou directionnel lorsqu’il observe une portion limitée, strictement inférieure à un hémisphère, de la sphère d’observation. Lorsque son champ d’observation couvre l’in-tégralité de la sphère d’observation, il est qualifié d’omnidirectionnel [118], [100]. Enfin, il est dit panoramique lorsque son champ d’observation couvre 360 autour d’un axe. En pratique, les termes panoramique et omnidirectionnel ne sont pas différenciés. Tous deux renvoient à une même notion : celle d’un capteur d’images dont le champ d’obser-vation couvre 360 en azimut [106]. Enfin, les systèmes permettant d’observer une zone plus importante qu’un capteur directionnel sont qualifiés de capteur large champ.
(a) Directionnel (b) Panoramique (c) Pour un « fisheye » (d) Omnidirectionnel
Fig. 1.3 – Différents champs d’observation des capteurs de vision [118], [100], [106]. Le point rouge matérialise le capteur vidéo placé au centre de la sphère d’observation. a) champ d’observation directionnel : une portion limitée de la sphère d’observation est vue.
b) champ d’observation panoramique d’un capteur catadioptrique : le capteur visualise une bande de vue. c) champ d’observation panoramique d’un objectif « fisheye ». d) champ d’observation omnidirectionnel : l’intégralité de la sphère d’observation est vue.
La vision omnidirectionnelle a connu un essor important dans les années 1990 pour des domaines d’applications variés, notamment pour la robotique mobile autonome. Elle y a supplanté les capteurs classiques directionnels parce qu’elle permet une augmentation significative du champ d’observation « sans rupture géométrique et temporelle » [14].
Elle trouve aujourd’hui des utilisations pour d’autres champs d’applications : Huang & Trivedi [71] et Layerle & al. [84] ont proposé l’utilisation d’un seul capteur catadioptrique positionné dans un véhicule pour capturer simultanément le visage d’un conducteur et la scène de conduite en vue panoramique. D’un point de vue théorique, l’intérêt est majeur puisque la vision omnidirectionnelle « pose la question de la généralisation des méthodes utilisées en vision perspective classique » [14].
Cette section est structurée de la manière suivante : un premier paragraphe s’intéresse aux capteurs de vision directionnelle. Le modèle sténopé est détaillé et les différentes aber-rations apparaissant lors du processus de formation d’images sont listées. Une deuxième partie s’intéresse aux capteurs de vision omnidirectionnelle. Les techniques permettant une augmentation significative du champ d’observation sont exposées, et une attention particulière est portée aux systèmes combinant un miroir et une caméra. Finalement, une synthèse est proposée permettant de statuer sur la pertinence des technologies inventoriées en regard des applications visées par le programme OmniViss.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction générale 
Conventions et notations
1 Capteurs de perception de scènes 3D 
1.1 Introduction
1.2 Perception 3D par capteurs actifs : télémétrie et triangulation
1.2.1 Télémétrie
1.2.2 Triangulation active en lumière structurée
1.2.3 Synthèse
1.3 Perception 3D par capteurs passifs : la vision
1.3.1 Capteurs de vision directionnelle
1.3.2 Capteurs de vision omnidirectionnelle
1.3.3 Synthèse
1.4 Capteurs de stéréovision omnidirectionnelle
1.4.1 Quelques exemples de capteurs
1.4.2 Géométrie épipolaire
1.5 Conclusions
2 Solution matérielle et étalonnage paramétrique 
2.1 Introduction
2.2 Proposition d’une solution matérielle
2.2.1 Caractéristiques matérielles et techniques
2.2.2 Réglage du point de vue unique
2.3 Etalonnage de capteurs catadioptriques
2.3.1 Modèles de capteurs centraux et non-centraux
2.3.2 Méthodes d’étalonnage
2.3.3 Mesures de la précision d’un étalonnage
2.4 Etalonnage paramétrique par un modèle ad hoc
2.4.1 Modèles de projection et rétro-projection
2.4.2 Estimation des paramètres
2.5 La mire d’étalonnage
2.5.1 Caractéristiques techniques
2.5.2 Extraction des points d’intérêt
2.5.3 Dispositif d’aide à l’étalonnage
2.6 Résultats
2.6.1 Environnement de simulation et protocole d’étalonnage
2.6.2 Estimation des paramètres
2.7 Discussion
2.8 Conclusions
3 Etalonnage non-paramétrique et conception d’une mire adaptée 
3.1 Introduction
3.2 Etalonnage non-paramétrique par un modèle discret
3.2.1 Principe
3.2.2 Projection
3.2.3 Rétro-projection
3.3 Conception d’une mire adaptée
3.3.1 Nombre de points d’intérêt par cercle directeur
3.3.2 Distribution verticale des cercles directeurs sur le cylindre
3.4 Evaluation en simulation et sur le système réel
3.4.1 Protocoles expérimentaux et méthodes de validation
3.4.2 Résultats
3.5 Discussion
3.6 Conclusions
4 Applications à la reconstruction de scènes 3D
4.1 Introduction
4.2 Reconstruction 3D volumétrique pour le capteur de stéréovision omnidirectionnelle
4.2.1 Principe général
4.2.2 Applications au capteur de stéréovision omnidirectionnelle
4.3 Résultats
4.3.1 Reconstructions 3D statiques pour une scène réelle
4.3.2 Reconstruction 3D dynamique par déplacements successifs du capteur pour une scène de synthèse
4.4 Discussion
4.5 Conclusions
Conclusions et perspectives 
Bibliographie 
A Modèle sténopé
B Modèle orthographique
C Algorithme de Levenberg-Marquardt
D Décomposition en valeurs singulières
E Normes de Minkowski

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *