Localisation par Vision Multi-spectrale Application aux Systèmes Embarqués

La localisation est une des problématiques majeures des systèmes navigants. Ces dernières années, le succès des Systèmes de Guidage par Satellite, ou GPS, a été tel que la plupart des véhicules en sont équipés de série, et ils deviennent une application incontournable des Smartphones. Pour quelques dizaines d’euros, il est alors possible de se localiser à une dizaine de mètres avec une erreur de quelques mètres. Cependant, bien que cette précision soit suffisante pour un véhicule, certaines applications peuvent nécessiter une précision beaucoup plus fine, de l’ordre du mètre ou du centimètre. Une telle précision demande un investissement bien plus important. Actuellement, les systèmes les plus répandus pour une localisation de précision sont le GPS différentiel (DGPS) et le GPSRTK (Real Time Kinematic). Si la première application est basée sur la mesure de différences entre la position d’une station de référence et une application, la seconde repose sur la mesure de phase des ondes porteuses, et nécessite également une station de référence. Les gammes de prix sont également différentes de celles associées aux GPS grand public, puisque le prix d’un GPS de précision peut varier de quelques centaines à plusieurs dizaines de milliers d’euros. Il est alors difficile d’imaginer le prix d’un système de localisation grand public s’envoler pour une précision de quelques mètres supplémentaires. Plutôt que d’investir sur un seul équipement de localisation onéreux, des fournisseurs spécialisés pour certaines applications (agriculture, aéronautique, transport en commun. . .) se sont focalisés sur la fusion des capteurs bas coûts, permettant également l’observation de nouvelles données. Par exemple, l’utilisation de sonars ou de lasers, en plus de l’utilisation d’un GPS, permet de positionner un système localement et de détecter d’éventuels obstacles. Une caméra embarquée sur un véhicule ou un robot peut donner une estimation du mouvement par Odométrie visuelle ou bien réaliser une Localisation et Cartographie Simultanées (SLAM). Elle permet aussi de détecter et de suivre les objets mobiles (MOT). Enfin, une centrale inertielle permet de connaître les accélérations, les vitesses de giration et le cap du mobile. La fusion des données acquises par ces capteurs peut rendre une application précise au mètre près pour le coût d’un GPS différentiel bas de gamme. Ces capteurs permettent également une observation plus riche de l’état du système et de son environnement.

Avec la miniaturisation et la baisse des coûts de production, ces capteurs sont omniprésents dans notre environnement quotidien : télévisions, consoles de jeu, téléphones, voitures . . . Dernièrement, les capteurs ont envahi les véhicules jusqu’à les rendre totalement autonomes. Ils peuvent parcourir plusieurs centaines de milliers de kilomètres sans aucun accrochage, à l’image de la Google Car. Des performances qui peuvent rendre jaloux les autres secteurs d’activités. Afin de réduire les incidents lors de la phases de roulage au sol des gros porteurs, l’aéronautique s’est penchée sur ces applications de localisation et de détection « bas coût ».

Contexte et Motivations

Les travaux présentés dans cette thèse se placent dans le cadre du projet SART, acronyme pour Système d’Aide au Roulage Tout-temps. Il bénéficie d’un financement DGE-FUI (Direction Générale des Entreprises – Fond Unique Interministériel) et il est labellisé par le pôle de compétitivité Aerospace Valley. Les développements ont débuté à l’issue du dépôt du brevet « Method and System for Aircraft Taxiing Assistance » en avril 2009 sous le n˚WO2009044257(A2) [Latécoère, 2009].

Actuellement, la navigation d’un aéronef au sol depuis sa zone de parking vers son point fixe avant le décollage, et son retour à sa zone de parking après l’atterrissage sont contrôlés par le pilote. Celui-ci ne dispose que de moyens visuels directs pour contrôler sa manoeuvre. Une bonne évaluation de l’environnement de l’aéronef, ainsi que la connaissance de sa maniabilité et de ses dimensions sont alors fondamentaux pour éviter les défaillances. Cela est d’autant plus important lorsque les conditions météorologiques sont dégradées (brouillard, pluie, neige . . .), entraînant généralement une réduction du trafic aérien ou le déroutage des aéronefs vers des terrains dégagés. La perte de visibilité engendrée par ces conditions accroît le risque de défaillance. La catastrophe aérienne la plus meurtrière de l’histoire a eu lieu sur l’aéroport de Tenerife en 1977 impliquant deux appareils roulant au sol et par temps de brouillard, faisant 583 victimes. Chaque année, une moyenne de 50 accidents lors du roulage est dénombrée. Il s’agit généralement d’incidents mineurs, lors desquels, par exemple, l’extrémité d’un aéronef entre en collision avec un autre objet. Ce risque est d’autant plus important sur les gros porteurs où l’envergure est plus délicate à estimer pour un pilote, et l’angle mort de vision plus important car la cabine de pilotage est plus haute par rapport au sol. Pour les manoeuvres proches de la zone de parking, les pilotes sont guidés par des Marshallers, opérateurs au sol en charge du guidage de l’avion. Pour opérer dans des conditions météorologiques dégradées, d’incertitude de localisation ou de perte sur un aéroport complexe (Charles de Gaulle, Francfort, Amsterdam, . . .), les pilotes sont aidés par des véhicules dis « Follow Me » les précédant sur la voie à suivre. Ces véhicules sont également mis en oeuvre dans de grands aéroports, lorsque le pilote se perd ou est incapable de rejoindre la zone de parking. Cette modalité d’assistance à la navigation peut engendrer des délais importants qui se répercutent sur le trafic au sol et en vol. De plus, une note de sécurité du National Transportation Safety Board de septembre 2012 recommande l’installation de systèmes d’aide à la prévention de collisions et permettant la surveillance des bouts d’ailes sur les dernières générations de gros porteurs [NTSB, 2012]. Cette recommandation a été formulée suite à l’investigation de 12 accidents impliquant ce type d’aéronef. La demande d’un système de localisation, de guidage et de détection pour l’aéronautique est donc bien présente.

Contributions au projet SART

Le développement d’un tel système implique de grands acteurs du secteur aéronautique et de la vision.  le système se compose :
— D’une tête de prise de vue , et comprenant une centrale inertielle, une caméra couleur et une caméra infrarouge. Ce module Capteurs permettant d’acquérir les données sensorielles, est développé par FLIR Systems.
— D’un module Logique de Fusion. Cette unité, développée par le LAAS-CNRS a pour but d’acquérir et de traiter les signaux issus des capteurs de vision, d’une centrale inertielle, d’un GPS et d’une base de données contenant la cartographie de l’aéroport. Grâce à ces traitements, elle doit pouvoir localiser le porteur au mètre près et en temps réel, et détecter les éventuels obstacles.
— D’une Interface Homme-Machine (IHM) développée par Thalès Avionics où les différentes données pertinentes permettent d’enrichir l’image présentée au pilote, provenant de la bande spectrale visible ou infrarouge

Vision : du Spectre à l’Image 

La vue est notre principal sens servant à nous localiser et à percevoir le monde extérieur. Nos autres sens y contribuent également mais dans une moindre mesure, en s’adaptant généralement lorsque la vue ne fournit plus assez d’informations. Les mal-voyants développent d’ailleurs des capacités sensorielles plus performantes avec l’ouïe ou le toucher. Il est intéressant de noter que l’oreille interne apporte également sa part d’information car elle est l’organe de l’équilibre, puisqu’elle nous permet de percevoir l’axe vertical. Il est donc naturel de vouloir doter les systèmes mobiles d’un capteur identique à notre vue. Avec la miniaturisation, de plus en plus de systèmes autonomes sont équipés d’une ou plusieurs caméras qui transmettent une information accessible et de qualité. Même si ces capteurs ont une résolution bien plus faible que l’oeil humain, ils peuvent observer plus d’informations car équipés pour voir en dehors de l’unique spectre lumineux. Se pose ensuite le problème de l’extraction et de l’interprétation d’informations contenues dans les images, ce qui a donné naissance à une discipline scientifique, la Vision par Ordinateur. On estime le cerveau humain capable de faire environ 300 fois plus d’opérations qu’un ordinateur moderne.

Le spectre visible et infrarouge

Présentation des spectres
Avant de nous intéresser à l’image, il importe de présenter en premier lieu le spectre électromagnétique. En effet, si le spectre visible colorimétrique est celui que nous connaissons car nous possédons le sens adapté à son observation, ce n’est pas le cas pour celui de l’infrarouge.

Le rayonnement électromagnétique peut être décomposé en une composante corpusculaire (photons) et en une composante ondulatoire (onde électromagnétique). Certaines ondes que l’on rencontre au quotidien sont présentées en figure 2.1, telles que les ondes radios, les infrarouges, les ultraviolets, les rayons X, et certainement la plus observée d’entre-elles, l’onde lumineuse. Ces ondes sont regroupées dans différentes bandes fréquentielles qui peuvent ensuite être subdivisées en fonction de leurs propriétés. Si nous prenons l’exemple de la bande THF (pour Tremendously High Frequency), celle-ci est divisée en trois groupes :
— Les ondes micrométriques, également connues sous le nom d’ondes infrarouges,
— Les ondes nanométriques, regroupant le spectre visible et les ultraviolets,
— Les ondes picométriques, contenant, quant à elles, les rayons X et les rayons gamma.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

1 Introduction
1.1 Introduction Générale
1.2 Contexte et Motivations
1.3 Contributions au projet SART
1.4 Publications
1.5 Organisation du mémoire
2 Vision : du Spectre à l’Image
2.1 Introduction
2.2 Le spectre visible et infrarouge
2.2.1 Présentation des spectres
2.2.2 Présentation des capteurs
2.3 Modélisation des caméras
2.3.1 Projection d’un point
2.3.2 Rétro-projection d’un point
2.4 Conclusion
3 Du Filtrage au SLAM
3.1 Introduction
3.1.1 Localisation et Cartographie Simultanées
3.1.2 Le SLAM probabiliste
3.1.3 Limitations du SLAM EKF
3.1.4 Les différentes approches
3.2 Le Filtrage
3.2.1 Le filtre de Kalman
3.2.2 Le filtre de Kalman Etendu
3.3 Le Filtre de Kalman Etendu pour le SLAM
3.3.1 Prédiction
3.3.2 Correction
3.3.3 Initialisation
3.4 Conclusion
4 SLAM Visuel multi-capteurs
4.1 Introduction
4.2 Etat de l’art du SLAM monoculaire
4.3 Paramétrisation des points
4.3.1 Les points euclidiens
4.3.2 La paramétrisation IDP
4.3.3 La paramétrisation AHP
4.4 Prédiction
4.5 Correction
4.5.1 Projection
4.5.2 Sélection d’un amer
4.5.3 Recherche Active
4.5.4 Distance de Mahalanobis
4.5.5 One-Point RANSAC
4.5.6 Correction
4.5.7 Reparamétrisation
4.6 Initialisation
4.6.1 La tessellation
4.6.2 Le détecteur de points
4.6.3 Descripteur
4.6.4 Initialisation
4.7 Résultats SLAM Monoculaire
4.7.1 Résultats SLAM Monoculaire Visible
4.7.2 Résultats SLAM Monoculaire Infrarouge
4.8 Le SLAM multi-capteurs
4.8.1 Présentation des capteurs
4.8.2 Prédiction ou Correction ?
4.8.3 Le modèle de mouvement Inertiel
4.8.4 Résultats SLAM Inertiel
4.8.5 La correction GPS
4.8.6 Résultats du SLAM monoculaire visible avec fusion Inertiel-GPS
4.8.7 Résultats du SLAM monoculaire Infrarouge avec fusion Inertiel-GPS
4.8.8 Validation par le score NEES
4.9 Conclusion
5 Conclusion

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *