Création d’un panorama robuste en temps réel

Télécharger le fichier pdf d’un mémoire de fin d’études

Traitement de l’image

Les images capturées par les dispositifs panoramiques vont devoir subir un certain nombre de traitements avant de pouvoir être exploitées. Dans le cas des dispositifs omnidirectionnels, l‘image est très déformée. Dans les autres dispositifs, une image ne contient qu‘une partie de la scène. La représentation complète de la scène nécessite donc plusieurs images qui vont être projetées sur une image panoramique. Les images ne sont donc pas forcement acquises au même moment ou avec le même capteur. Si les informations de prise de vue ne sont pas précises ou si elles ne sont pas connues, une étape de mise en correspondance sera également nécessaire. Dans le cas où une seule caméra est utilisée, les différentes images formant le panorama ne sont pas prises en même temps. Les conditions d‘illumination peuvent être différentes. De même, la caméra peut disposer d‘une correction automatique la luminosité de façon à ajuster le gain du capteur. Les images devront alors subir un traitement pour supprimer les effets de couture5. Ce cas se retrouve également avec les bouquets de caméra. Pour simplifier, les traitements sont : étalonnage du dispositif, correction des aberrations de l‘objectif, réduction du bruit, recalage des images, correction du gain et projection. Dans le travail de thèse que nous présentons, nous n‘aborderons pas la phase d‘étalonnage et de correction des aberrations de l‘objectif de notre matériel. Nous avons repris des techniques classiques décrites dans la littérature [LUO97, BEN01,HAR04]. Nous allons par contre étudier longuement la phase de mise en correspondance, la correction du gain et la projection.

Mise en correspondance

Une large part de notre travail a été consacré à ce problème de mise en correspondance. Initialement, nous n‘avions pas prévu d‘aborder ce sujet. Dans notre cas, le modèle de transformation mathématique était clairement identifié et les paramètres de prise de vue donnés par notre caméra devaient nous permettre de calculer cette transformation.
Cependant, la précision de ces paramètres ne s‘est pas révélée suffisante et ne nous a pas permis de réaliser des panoramas robustes.
La mise en correspondance est un problème difficile qui continue à mobiliser la communauté scientifique. Plusieurs solutions sont proposées dans la littérature et de nombreux articles proposent une synthèse de ces méthodes [BRO92, ZIT05]. Le principe de base consiste à mettre en correspondance des zones de l‘image en fonction de leurs propriétés radiométriques ou géométrique. Les méthodes sont généralement classées en deux catégories : denses ou éparses.
Les méthodes denses cherchent à estimer les paramètres de transformation en exploitant l‘intensité de l‘ensemble des pixels contenu dans la zone de recouvrement. Les méthodes éparses n‘utilisent pas tous les points mais seulement quelques points particuliers (coins, extrema locaux) ou des primitives géométriques (lignes, cercles…).
Dans le cas où il n‘y a pas de déformation des images, les méthodes denses sont réputées plus précises, mais elles sont souvent moins rapides, moins robustes aux changements de luminosité et à la présence d‘objet en mouvements.

Correction de gain

Le contrôle de la luminosité n‘est pas un problème aussi simple qu‘il y paraît. Si la luminosité est relativement constante dans toutes les directions alors il suffit de fixer manuellement le gain de la caméra pendant toute la durée de la prise de vue. Par contre, il ne faut pas que cette luminosité évolue pendant cette prise de vue (lors du passage d‘un nuage par exemple).
Cependant, même si la luminosité générale n‘évolue pas au cours de la prise de vue, si les écarts de luminosité dans la scène sont trop important, les zones sombres apparaîtront sous exposées dans la mosaïque d‘image. A l‘inverse, d‘autres zones beaucoup plus lumineuses risquent de se trouver sur-exposées. La solution pourrait être de laisser la caméra gérer automatiquement le gain en fonction de la luminosité de la portion de scène visée. Cette solution offre bien sûr l‘avantage que chaque image est acquise en optimisant la dynamique du capteur. Le problème est qu‘une même portion de la scène prise avec deux gains différents n‘a plus la même valeur de luminosité. L‘exemple suivant est un cas d‘école. La caméra est placée à l‘intérieur d‘une pièce. Cette pièce est éclairée par une lumière artificielle et par une lumière naturelle à travers une fenêtre. La luminosité à l‘intérieur est faible par rapport à celle de l‘extérieur. Si le gain de la caméra est fixé manuellement pour obtenir une luminosité correcte à l‘intérieur de la pièce, la fenêtre apparaîtra sur-exposée et il ne sera pas possible de visualiser l‘extérieur. Dans le cas contraire, si le gain est piloté automatiquement par la caméra, alors l‘extérieur devient visible, mais le phénomène de « couture » apparaît.

Assemblage

La mise en correspondance des images est utilisée pour déterminer avec la meilleure précision possible les paramètres de la prise de vue. Cette information permet de projeter correctement l‘image dans le panorama. Dans le cas général, une homographie est calculée à partir de surfaces planes contenues dans la zone de recouvrement des deux images [KAN99,SUG04]. Nous verrons que dans le cas particulier des caméras PTZ où le centre de projection est confondu avec le centre des rotations, tous les points de la zone de recouvrement peuvent être utilisés pour calculer l‘homographie, même s‘ils n‘appartiennent pas à des surfaces planes.
Avant toute chose, nous devons définir le modèle de représentation que nous allons utiliser. Lorsqu‘il s‘agit de fusionner quelques images de façon à obtenir une image globale plus large, il suffit de prendre une image de référence et de projeter toutes les images dans le plan cette image de référence. Lorsque l‘angle solide devient trop important, les déformations inhérentes à la projection sont importantes. Au delà d‘une certaine limite, l‘homographie ne peut plus être calculée où du moins ne permet pas une projection conforme. Il est donc nécessaire d‘utiliser d‘autres modes de projection. Nous classons ces projections en deux catégories. Les projections planes et la projection sur polyèdre. Les projections planes permettent de visualiser l‘ensemble de la scène sur une seule image mais elles entraînent des déformations importantes. Parmi les projections planes, la plus utilisée est la projection cylindrique. Un autre mode de représentation est la projection de la scène sur un polyèdre. Ces projections ne permettent pas la représentation de la scène en une seule image mais elles limitent les déformations ainsi que le coût du stockage.

Immersion et visualisation

La visualisation est souvent l‘étape ultime du mosaïquage. Bien que les techniques de base soient connues depuis très longtemps, ce n‘est que récemment que les mosaïques d‘images servent à autre chose qu‘à la visualisation. Cependant, cela reste pour beaucoup, le seul intérêt de ces constructions. Comme nous venons de le voir, la projection d‘une image sur un cylindre permet de visualiser l‘image à partir d‘une seule vue avec une limitation au niveau des pôles mais surtout en déformant la scène. Une fois le mosaïquage réalisé, plusieurs logiciels permettent de visualiser une portion de la scène en redressant l‘image dans les mêmes conditions que si elle avait été acquise par la caméra. Il est alors possible de se déplacer dans la scène et d‘effectuer des changements de focale afin d‘augmenter ou diminuer l‘angle de visualisation. Le logiciel le plus répandu est QuickTimeVr. L‘inconvénient de la plupart des logiciels est qu‘ils ne gèrent pas l‘aspect multi-résolution ou alors indirectement. Ce que nous entendons par « gestion de la multi résolution » est la possibilité de ne pas stocker l‘ensemble du panorama avec la même résolution. En effet, l‘ensemble de la scène n‘est pas forcément d‘un intérêt égal. Lorsque nous réalisons un panorama, nous aimerions avoir plus de détail sur certaines zones de l‘image et moins sur d‘autre (le ciel par exemple). Avec la plupart des logiciels disponibles, c‘est le niveau de détail le plus fin qui conditionne la résolution du panorama tout entier. Le temps de calcul et surtout la taille du panorama ne sont pas optimisés. Cela peut poser un problème lorsque l‘on transmet un panorama sur le réseau. C‘est la raison pour laquelle, certains logiciels gèrent la multi-résolution en utilisant plusieurs panoramas complets de la même scène avec des niveaux de résolutions différents. Lors d‘une transmission sur Internet, cette solution permet rapidement d‘obtenir une première représentation de la scène à basse résolution de façon à ce que l‘utilisateur puisse naviguer. Les résolutions plus élevées arrivant ensuite au gré du débit de la connexion, mais uniquement pour les zones observées.

Caméras et applications

Pendant longtemps, les caméras IP ont eu une mauvaise réputation. Il est vrai que sur les premières caméras IP la qualité de la vidéo n‘avait rien à voir avec les caméras analogiques.
Les progrès réalisés sur la taille des capteurs, la qualité de la compression et la bande passante ont grandement amélioré le rendu des caméras IP. Ces dernières années ont vu l‘essor d‘une nouvelle classe de caméras IP, les caméras PTZ. Des caméras PTZ analogiques existent depuis presque aussi longtemps que les caméras analogiques fixes, mais la baisse des coûts de fabrication à permis une démocratisation de ces caméras. Du coup, les applications se sont multipliées. L‘un des objectifs de ce travail de thèse, en accord avec la société SatXpro, est d‘étudier les applications de détection et de suivi automatique des objets en mouvement dans une scène à partir d‘une caméra PTZ. L‘intérêt étant de sécuriser une zone étendue en limitant le nombre de caméras.

Construction d’une mosaïque d’images

Nous allons aborder dans ce chapitre les différentes techniques qui vont nous permettre de construire une mosaïque d‘images dans le cas idéal. C‘est à dire que la caméra peut être modélisée avec le modèle sténopé que nous présentons en annexe et que le centre de projection est confondu avec le centre des rotations, que les paramètres de la prise de vue sont connus avec précision, qu‘il n‘y a pas de distorsion dans l‘image et que la luminosité est constante dans toute la scène. Nous pouvons déjà imaginer que la réalité sera quelque peu éloignée de ce cas idéal.

Visualisation des mosaïques d’images

La création d‘une mosaïque d‘images consiste à représenter sur une seule structure de données la vue d‘ensemble de la caméra. A partir d‘une mosaïque d‘images, les applications sont nombreuses. Quelle que soit l‘application, l‘une des finalités les plus courantes reste la restitution d‘une prise de vue particulière qui n‘aurait pas été directement acquise. Plus concrètement, à partir de deux images prises avec des angles de vue différents, il doit être possible de calculer l‘image équivalente à une prise de vue intermédiaire, pour peu qu‘il y ait recouvrement partiel entre les deux images de départ.
Dans le cas d‘une projection centrale et où le centre optique de la caméra est confondu avec les axes de rotations, le monde vu par la caméra peut être considéré comme une sphère.
Nous cherchons donc à exprimer le nombre de pixels optimal permettant la représentation de cette sphère qui limite la perte d‘information en fonction de la résolution du capteur et de la distance focale. Donc en fonction de la taille du capteur et de la distance focale, un pixel de l‘image couvre un certain angle solide. Une approximation de cet angle solide est donnée par :   lf.h2
où l est la largeur du pixel, h sa hauteur et f la distance focale. Cette approximation est valable si l et h sont très inférieurs à f. Pour un capteur 1/3‘‘, l et h sont de l‘ordre du micromètre alors que f est de l‘ordre du millimètre. Il y a donc un rapport 1000 entre la taille du capteur et la distance focale. Exprimé en unité pixel, l‘angle solide est donné par : 18 (up) f12
L‘angle solide d‘une sphère étant de 4πsr, ceci implique que le nombre de pixels nécessaire à la représentation de la sphère est donnée par : nb pixels=4.π . f 2
Ce nombre de pixel est une approximation dans laquelle nous considérons que chaque pixel représente une unité de surface. Nous pouvons donc en déduire que pour représenter un panorama en limitant les pertes d‘information, nous devons utiliser une sphère de rayon égale à la distance focale exprimée en pixels. Si nous utilisons une sphère plus petite, nous allons concentrer l‘information. Si nous utilisons une sphère plus grande, nous n‘aurons pas assez de résolution pour un pavage complet.
Pour simplifier le problème, nous avons calculé l‘angle solide couvert par le pixel du centre de l‘image ou plus exactement du pixel situé à l‘intersection du plan image et de l‘axe optique. L‘angle solide de n‘importe quel pixel du plan image perpendiculaire à l‘axe optique est donnée par :   cos.sin lf.h2 où θ et ϕ sont les angles entre l‘axe optique et la droite passant par le centre optique et le centre du pixel. En définitive, ce sont donc les pixels des coins de l‘image qui couvrent l‘angle solide le plus faible. En toute rigueur nous devrions donc utiliser cette expression.
Avec un capteur 1/3‘‘, une focale de 4.1mm et une résolution d‘image de 640 x 480, l‘erreur sur le calcul de l‘angle solide est de l‘ordre de 11%. Elle n‘est plus que de 3% dans les mêmes conditions mais avec une distance focale deux fois plus grande.
La résolution optimale de la représentation du monde vue par la caméra qui limite autant que faire se peut les pertes d‘informations, est une sphère dont le rayon est de l‘ordre de la distance focale exprimée en pixels. Les deux défis à relever sont d‘une part la complexité algorithmique nécessaire au calcul de cette représentation et d‘autre part la minimisation de l‘espace de stockage. L‘espace de stockage optimal est simple à déterminer. Il correspond simplement, comme nous l‘avons vu, à la surface de la sphère exprimée en nombre de pixels. s=4.π . f 2
Le mode de représentation le plus classique est la projection sur un cylindre. Cette projection offre notamment la possibilité de visualiser en une seule image l‘ensemble de la scène. Par contre la représentation des pôles est impossible et la complexité algorithmique est la même que la sphère puisqu‘il est nécessaire de calculer la projection de chaque pixel.
Afin d‘optimiser le temps de calcul, nous recherchons une représentation à base de faces planes de façon à pouvoir calculer une matrice de projection pour un ensemble de pixels.

Multi résolution

Avant propos

L‘aspect multi -résolution est un point que nous n‘avons pas encore abordé. Cependant il peut être considéré comme un paramètre intrinsèque de la construction d‘un panorama comme de la visualisation. Nous avons vu dans le chapitre précédent que sous certaines conditions, nous pouvons déterminer l‘homographie entre deux plans correspondant à deux prises de vue. Cette homographie peut être calculée à partir des paramètres intrinsèques et extrinsèques des deux prises de vue. Parmi les paramètres intrinsèques, la distance focale, exprimée en pixel, correspond justement à la résolution. Nous pouvons donc calculer l‘homographie entre deux images dont la longueur focale, c‘est à dire la résolution, n‘est pas la même. Nous traitons donc implicitement l‘aspect multi-résolution. Ce même constat s‘applique lors de la visualisation. La limite étant, cette fois ci, la résolution avec laquelle est construit le panorama. Si la distance focale de l‘image à construire est plus faible que celle du panorama, l‘image pourra être construite sans perte d‘information. En revanche, si la distance focale de l‘image à construire est plus grande que celle du panorama, l‘image ne pourra être construite que par interpolation.

Problématique

Nous avons présenté plusieurs modes de représentation possibles d‘une mosaïque d‘images. Toutes ces représentations ont leurs avantages et leurs inconvénients. Cependant, elles sont toutes basées sur le principe d‘une focale fixe. C‘est à dire que l‘ensemble de la scène est stockée avec la même résolution. Le logiciel QuickTime VR ainsi que d‘autres logiciels du commerce permettent de créer un panorama avec plusieurs résolutions. Cependant, la résolution la plus haute est utilisée pour créer plusieurs panoramas de résolution plus basse.
L‘intérêt est d‘optimiser les calculs lors des visualisations à basse résolution et d‘optimiser les transferts sur le réseau.

Défaut d’alignement

Avant de réaliser notre premier panorama, nous avons encore à vérifier le domaine de validité du modèle mathématique que nous utilisons. Notre but ici n‘est pas de remettre en cause le modèle sténopé. Le domaine de validité de ce modèle a été abondamment commenté dans la littérature, notamment dans l‘ouvrage de Faugeras [FAU93] et dans celui de Hartley [HAR04]. Cependant, nous faisons souvent l‘hypothèse que l‘axe de projection coupe le plan focal au centre de l‘image. Dans [SZE94] Szeliski montre que si le point d‘intersection est peu éloigné du centre de l‘image l‘impact de ce décalage n‘a pas d‘effet significatif. D‘autre part, pour justifier l‘utilisation des matrices d‘homographie 2D entre deux images, nous avons fait également l‘hypothèse que le centre de projection est confondu avec le centre des rotations. C‘est à dire que le centre de projection ne se déplace pas avec le mouvement de la caméra.

Etude théorique

Dans le cas idéal, le centre de projection Oc de la caméra est confondu avec le centre O des rotations, comme indiqué dans la figure ci-dessous. Pour illustrer notre propos nous étudions simplement le décalage suivant l‘axe z et nous considérons que l‘angle ϕ = 0. Le plan image Π est à une distance f correspondant à la distance focale.
Si deux points P1, P2 ainsi que le centre O sont alignés, quelle que soit la rotation θ (à l‘exception des cas dégénérés θ = π/2 et θ = -π/2) les deux points se projettent en un point p unique sur le plan image.
Maintenant, si le centre de projection Oc est à une distance d du centre O des rotations, pour θ = 0, les points P1 et P2 se projettent toujours en un point p du plan image. Par contre, pour une rotation θ ≠ 0, les points P1 et P2 se projettent respectivement en deux points p1 et p2 sur le plan image. L‘angle θ1 est l‘angle que fait le rayon [OcP1] avec l‘axe optique et l‘angle θ2 est l‘angle que fait le rayon [OcP2] avec l‘axe optique.

Défaut de positionnement

Un autre défaut que nous pouvons qualifier également de défaut intrinsèque est le défaut de positionnement. En effet, si la commande de la caméra n‘est pas suffisamment précise, le plaquage des images sur le panorama ne sera pas correct. En prenant la distance focale la plus faible (i.e. la moins sensible au défaut de positionnement), une erreur de 0,5° sur la position de l‘angle panoramique engendre un décalage de près de 7 pixels sur l‘axe horizontal de l‘image. Pour réaliser un panorama robuste, nous avons donc à résoudre un problème de recalage d‘image avec comme première conséquence, la nécessité de garantir un certain recouvrement entre les images et donc d‘augmenter le nombre de prises de vue. Le recalage d‘image est un problème complexe qui motive énormément la communauté scientifique. Nous l‘évoquons simplement ici et nous lui consacrons le chapitre suivant.

Alignement photométrique

Problématique

Le contrôle de la luminosité n‘est pas un problème aussi simple qu‘il y paraît. Si la luminosité est relativement constante dans toutes les directions alors il suffit de fixer manuellement le gain de la caméra pendant toute la durée de la prise de vue. Par contre, il ne faut pas que cette luminosité évolue pendant cette prise de vue (lors du passage d‘un nuage par exemple). Si il y a de trop gros écarts de luminosité dans la scène alors des zones risquent de se trouver sous-exposées. Elles apparaîtront donc très sombres dans la mosaïque d‘image. A l‘inverse, d‘autres zones beaucoup plus lumineuses risquent de se trouver sur-exposées. La solution est donc de laisser la caméra gérer automatiquement le gain en fonction de la luminosité de la portion de scène visée. Cette solution offre bien sûr l‘avantage que chaque image est acquise en optimisant la dynamique du capteur. Le problème est qu‘une même portion de la scène prise avec deux gains différents n‘a plus la même valeur de luminosité. L‘exemple suivant est un cas d‘école. La caméra est placée à l‘intérieur d‘une pièce. Cette pièce est éclairée par une lumière artificielle et par une lumière naturelle à travers une fenêtre. La luminosité à l‘intérieur est faible par rapport à celle de l‘extérieur. Si le gain de la caméra est fixé manuellement pour obtenir une luminosité correcte à l‘intérieur de la pièce, la fenêtre apparaîtra sur-exposée et il ne sera pas possible de visualiser l‘extérieur. Dans le cas contraire, si le gain est piloté automatiquement par la caméra, alors l‘extérieur devient visible, mais le phénomène de couture apparaît.

Etat de l’art

Pour résoudre cet alignement photométrique et éviter ce problème de couture, plusieurs solutions sont proposées dans la littérature. Nous pouvons les classer en 2 catégories en fonction de la portée de la correction dans le panorama. Une première classe d‘algorithme proposée dans la littérature s‘attache à appliquer une correction du gain sur l‘ensemble du panorama. Dans ce cas, deux solutions se détachent. La première consiste à normaliser le gain des différentes images constituant le panorama. Huang et al [HUA98] proposent une normalisation du gain de la camera à partir de la moyenne et de l‘écart type des pixels présents dans la zone de recouvrement. La correction du gain est appliquée à l‘ensemble de l‘image. Leur approche a finalement pour effet de fixer le gain de toute la construction panoramique à la valeur d‘une image de référence. On se retrouve donc dans le cas du gain fixe à la différence qu‘il est calculé automatiquement et non fixé manuellement par l‘utilisateur. Dans [CAN03], Candocia utilise une technique similaire mais appliquée localement de façon à améliorer la mise en correspondance des images.
Dans cette première approche, il y a une perte d‘information lié à la contraction de la dynamique des pixels. Pour éviter ces désagréments, plusieurs auteurs dont Mann [MAN95], proposent d‘étendre la dynamique des pixels. Les composantes RGB des pixels ne sont plus codées sur 8 bits mais sur 16 ou 32 bits. Cette solution offre l‘avantage de tirer profit de la dynamique totale du capteur. Les zones sous exposées et sur exposées sont acquises en optimisant la définition. Le problème se pose lors de la restitution du panorama. En fonction de l‘utilisation demandée, une contraction ou un glissement de la dynamique du panorama doit être opéré.
La deuxième catégorie d‘algorithme a une portée plus locale et s‘attache à améliorer la transition entre deux images. Une première solution consiste à réaliser une simple moyenne entre les pixels des deux images. Si l‘écart de gain entre les deux images est faible, cette solution donne des résultats acceptables mais dès que l‘écart est important, la présence de couture réapparaît. Uyttendaele and al [UYT02] proposent une solution pour éliminer ce qu‘ils appellent les artefacts de luminosité. Ils découpent chaque image en blocs de 32×32 et calculent pour chaque bloc une fonction de transfert permettant de lisser la luminosité.
Dans [LEV04], les auteurs proposent une solution localisée uniquement sur la jonction entre deux images. Ils lissent la couture de façon à limiter le gradient entre les deux images. Le reste de l‘image comme la zone de recouvrement, ne sont pas modifié. Utilisée seule, cette solution peut s‘avérer très utile lorsque la zone de recouvrement entre les images est très faible. Une autre solution proposée par [GRA09, LEM07] consiste à utiliser un algorithme de type Graph-Cut. Le principe de cet algorithme est de trouver la jointure qui donne la meilleure délimitation dans la zone de recouvrement.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

INTRODUCTION GENERALE
Chapitre 1 Mosaïque d’images
1.1 Présentation
1.2 Acquisition
1.3 Traitement de l‘image
1.3.1 Mise en correspondance
1.3.2 Correction de gain
1.4 Assemblage
1.5 Immersion et visualisation
1.6 Caméras et applications
1.7 Conclusion
Chapitre 2 Construction d’image mosaïque
2.1 Présentation
2.2 Construction d‘une mosaïque d‘images
2.2.1 Projection d‘un point dans l‘image
2.2.2 Unité pixel
2.2.3 Relation entre deux images
2.2.4 Homographie entre deux images
2.3 Visualisation des mosaïques d’images
2.4 Représentation plane
2.4.1 Projection cylindrique
2.4.2 Projection azimutales
2.4.3 Conclusion
2.5 Multi résolution
2.5.1 Avant propos
2.5.2 Problématique
2.6 Conclusion
Chapitre 3 Création d’un panorama robuste en temps réel
3.1 Objectif
3.2 Interpolation
3.3 Défaut d‘alignement
3.3.1 Etude théorique
3.3.2 Conclusion
3.4 Défaut de positionnement
3.5 Alignement photométrique
3.5.1 Problématique
3.5.2 Etat de l‘art
3.5.3 Solution proposée
3.6 Suppression des « fantômes »
3.6.1 Problématique
3.6.2 Cas général
3.6.3 Modélisation des composantes statiques du fond
3.7 Conclusion
Chapitre 4 Recalage d’images
4.1 Problématique
4.2 Etat de l’art du recalage appliqué aux caméras PTZ
4.3 Limitation de l’espace de recherche
4.4 Algorithmes de recalage
4.4.1 Méthodes denses
4.4.2 Méthodes éparses
4.4.3 Conclusion
Chapitre 5 Travail effectue
5.1 Présentation
5.2 Diagramme global
5.2.1 Extraction de points d’intérêts.
5.2.2 Le descripteur de point de caractéristiques (SIFT)
5.2.3 La mise en correspondance
5.2.4 Estimation de la matrice de transformation (RANSAC)
5.2.5 Blending ( mélange)
5.2.6 Démonstration
5.2.7 Résultats et discussion
Conclusion et Perspectives
Bibliographie

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *