Positionnement de cinq objets dans une image : le five frames shot

Télécharger le fichier pdf d’un mémoire de fin d’études

Modeleurs 3D conventionnels

Dans les environnements classiques de modélisation 3D, une caméra est généralement définie par sa position dans la scène et par la donnée de deux vecteurs représentant respectivement son orientation (vecteur vision ou look-at) et une direction verticale (ou up vecteur). Les techniques d’animation de caméra sont basées sur des méthodes d’interpolation classiques de courbes splines liées à l’utilisation de points de contrôle et d’images clés (ou keyframes). Les splines sont des courbes cubiques qui offrent l’avantage de pouvoir modifier localement un des points de contrôle les définissant, sans pour autant  perturber l’apparence globale de la courbe, contrairement aux courbes de Bézier, cf. chapitre sur la représentation des courbes et surfaces du livre de Foley et al. [FvDFH90].
Figure 2.2 – Exemple de spécification d’une trajectoire de caméra à différents instants successifs (t = 0, t = 1, . . . ), dans un environnement classique de modélisation 3D.
La figure 2.2 illustre un exemple d’animation de caméra dans un modeleur classique. Comme nous pouvons le remarquer sur cette figure, construire une trajectoire de caméra revient à interpoler sa position, son orientation et son vecteur up étant donné des images clés représentant l’évolution du déplacement d’un objet suivi au cours du temps. Une maîtrise fine de la vitesse de la caméra est possible via la manipulation des graphes de vélocité de chacune des courbes composant la trajectoire.
Les modeleurs actuels offrent également à l’utilisateur un ensemble d’outils de plus haut niveau permettant de contraindre aisément les degrés de liberté de la caméra (en particulier le vecteur look-at) en fonction d’un objet unique (mobile ou immobile) dans la scène. Certains d’entre eux permettent également de spécifier des paramètres de décalage de la cible de la caméra. Cette dernière pourra, par exemple, filmer la scène un peu « en avant » ou « en arrière » de l’objet d’intérêt afin d’anticiper ses mouvements. Le contrôle de caméra peut également être facilité par la mise à disposition de métaphores physiques visant à simplifier les tâches de suivi de cible. Citons par exemple la métaphore de « barre de remorquage » virtuelle (virtual rod) qui permet de lier la caméra à un objet d’intérêt dans la scène et ainsi d’effectuer conjointement leurs déplacements. De par les possibilités d’extension des modeleurs actuels, il est possible d’ajouter aux contrôles basiques de caméra de nouveaux manipulateurs par le biais du développement de greffons (plug-ins) spécialisés ou par l’utilisation de langages de scripts. Enfin, l’utilisation de données sensorielles obtenues par expérimentations sur des caméras réelles pour la spécification de trajectoires de caméras virtuelles connaît actuellement un essor notable.
Il est à noter qu’en pratique, le modèle de représentation des trajectoires de caméra (deux courbes splines) n’est pas adapté à la reproduction numérique (i) ni des techniques et comportements utilisés par les caméramans, (ii) ni des caractéristiques et propriétés mécaniques des caméras réelles. Étonnamment,  et en dépit du fait de l’existence de nombreux travaux basés sur l’expression de propriétés cinématogra-phiques pour décrire les mouvements de caméra, les modeleurs actuels n’ont pas tenté d’incorporer de telles techniques de manière native. Même des fonctionnalités très simples à mettre en œuvre, comme la notion de cadrage (framing) permettant de spécifier l’appartenance d’un objet à un cadre de l’écran défini par l’utilisateur (cf. section 4.2.5) ne sont pas proposées (à l’exception d’un outil de cadrage sim-pliste incorporé au logiciel Softimage XSI 3D[www17]). L’expressivité offerte aux utilisateurs concernant la définition de notions cinématographiques dans la scène modélisée est proche de zéro. Toutes les spéci-fications doivent se faire à l’aide des fonctionnalités de bas niveau en modifiant directement les courbes splines caractérisant la trajectoire de la caméra dans la scène, ou en agissant directement sur les para-mètres de la caméra.
Cette inadéquation des environnements de modélisation 3D à un contrôle de haut niveau de la ca-méra peut s’expliquer par la généricité que souhaitent atteindre les principaux éditeurs de ces logiciels. En effet, les modeleurs ne sont pas uniquement destinés à la réalisation de films d’animation 3D, mais par exemple au domaine de la CAO (Conception Assistée par Ordinateur). Il apparaît donc plus intéres-sant de proposer dans les environnements 3D des fonctionnalités profitables à la majorité des domaines d’application plutôt que de se focaliser sur les techniques de contrôle de caméra de haut niveau profi-tables principalement aux films d’animation. De plus, bien que les idiomes cinématographiques soient généralement basés sur la représentation de personnages à l’écran (comme dans les notions de gros plan, plan américain, etc.), il est nécessaire de pouvoir les appliquer à toutes sortes d’objets. Une description sémantique (et non plus seulement géométrique) des objets est donc nécessaire. Enfin, malgré la conver-gence sémantique de la grammaire et des termes employés en cinématographie, la simple description d’un plan (shot) en terme de propriétés classiques peut amener à une multitude de solutions équivalentes. Cette équivalence des solutions en termes de rendu visuel à l’écran n’est pourtant pas prise en compte dans les solutions actuelles.
En dépit de toutes ces difficultés, l’intégration de manipulateurs de haut niveau basés sur les notions cinématographiques permettant la spécification de positions et de trajectoires de caméras représente une plus-value significative sur les modèles existants de contrôle de caméra.
Jeux vidéo
Les jeux vidéo 3D représentent la plate-forme de test (benchmark) par excellence pour les techniques de contrôle de caméra. Un problème classique de contrôle de caméra en environnement virtuel consiste au suivi d’un (éventuellement de plusieurs) personnage(s) dans une scène 3D dynamique et fortement peuplée (en objets, décors ou en personnages), tout en évitant les occlusions à l’écran. Ce problème correspond exactement au rôle que doit jouer le système de gestion de caméra (camera manager) dans un jeu vidéo. De plus, il n’est pas rare à l’heure actuelle de voir les jeux 3D incorporer des aspects narratifs
l’intrigue en ayant recours à des plans de vue judicieusement choisis à la fois pendant (in-game) et en dehors (cut-scenes) des périodes effectives de jeu. Les jeux vidéo regroupent donc dans une même application les critères essentiels d’évaluation d’un système de contrôle de caméra, à savoir un contrôle fin des paramètres de bas niveau de la caméra, ainsi qu’une prise en compte de propriétés narratives ou esthétiques de haut niveau; il est donc logique de leur porter une attention particulière lorsque nous étudions le contrôle de caméra.
De par l’augmentation régulière de la qualité visuelle des jeux 3D (nombre de polygones affichés, ou effets spéciaux pris en compte, cf. figure 2.3) et de celle conjointe du réalisme des moteurs physiques utilisés, les algorithmes temps-réel déployés pour la gestion des caméras se doivent d’être toujours plus performants. Ces derniers sont généralement basés sur des heuristiques très rapides, et donc simplistes, de vérification d’occlusion telles que le lancer de rayons (ray-casting). Pour plus d’informations sur la gestion de l’occlusion, le lecteur est invité à se reporter au chapitre 5.
Capture d’écran du jeu Crysis développé par Crytek© (b) Capture d’écran du moteur 3D Unreal Engine ©Epic Games.
Figure 2.3 – Captures d’écran temps réel de jeux vidéo de dernière génération.
Malgré cette apparition de graphismes proches du photoréalisme (cf. illustrations 2.3) et l’utilisation de plus en plus répandue d’intrigues complexes, le contrôle de caméra dans les jeux vidéo a été largement négligé. Pourtant, John Giors [Gio04] (développeur dans un studio de jeux vidéo, Pandemic Studios) fait remarquer le rôle primordial de la caméra : « it is the window through which the player interacts with the simulated world ». Les jeux vidéo actuels, et plus particulièrement les jeux sur console, font montre de plus en plus d’engouement pour l’incorporation d’aspects narratifs à l’intrigue. Ils ne souhaitent plus seulement être basés sur de l’action, mais veulent offrir aux joueurs un nouveau type d’expérience plus cinématographique que par le passé. Cette volonté illustre la nécessité de transcrire les règles et conven-tions cinématographiques au niveau du contrôle de caméra.
Toutefois, nous devons remarquer que les jeux vidéo sont différents du cinéma en ce qui concerne le contrôle de caméra. En effet, dans les jeux vidéo, la caméra est dirigée directement ou indirectement par les joueurs. Les mouvements de caméra sont inférés d’après les mouvements des personnages contrôlés par les joueurs. De plus, les jeux représentent un environnement dynamique temps-réel dans lequel la ca-méra se doit de répondre immédiatement à la moindre action exercée par le joueur (ou l’environnement) sur le personnage d’intérêt.
Le développement de contrôle de caméra basé sur les principes de composition visuelle permet néan-moins la mise en exergue automatique d’objets ou d’actions importantes à effectuer, c’est-à-dire présen-ter de l’information au joueur, comme le fait un réalisateur pour son public. L’utilisation de techniques de montage, en particulier lors de cinématiques (cut-scenes) ou de sauts narratifs (jump-cuts), permet d’augmenter le gameplay en guidant le joueur vers des objectifs à atteindre.
Il faut néanmoins remarquer que l’utilisation de techniques cinématographiques, tout comme celles de montage automatique, reste l’exception plutôt que la règle dans les systèmes de contrôle de caméras vidéoludiques.
Full Spectrum Warrior [www6], un jeu d’action de simulation militaire développé par Pandemic Stu-dios, a montré une avancée notable en ce qui concerne la gestion de la caméra. Dans ce jeu, le joueur doit contrôler une escouade de soldats. Le nombre important d’objets à garder à l’écran rend la tâche de contrôle de caméra difficile. Les développeurs ont mis en place le système « auto-look » qui permet de maintenir à l’écran des images contenant le moins d’occlusions possibles de l’escouade de soldats grâce l’utilisation d’une technique innovante de tracé de rayons (ray-casting). Le même procédé fût utilisé lors des scènes vues d’hélicoptère (fly-by) afin d’éviter les collisions avec des objets composant le décor. Lorsqu’aucune solution n’est viable, en particulier lorsque des objets empêchent le déplacement de la caméra, des sauts narratifs sont alors utilisés.
Le joueur ne voit pas l’environnement dans lequel se (b) Le joueur a une meilleure représentation de l’espace déroule l’action, son personnage étant filmé de face. Ce autour de lui. Il peut réagir aux événements de l’action plan de vue nuit à la jouabilité et à la perception de son grâce à la vue en « over the shoulder ». environnement.
Figure 2.4 – Illustration de deux placements de caméra du jeu à la troisième personne : « Tomb Raider: L’Ange des Ténèbres » ©Eidos interactive.
Il existe trois grandes classes de systèmes de contrôle de caméra dans les jeux vidéo : Première personne (first person) : le joueur contrôle directement la caméra, ce qui accentue le sentiment d’immersion. Une grande variété de jeux utilisent des systèmes de caméra à la première personne, ils sont regroupés sous l’appellation de FPS (pour First Person Shooter) pour lesquels nous citons la série des Doom ou des Quake développés par idSoftware [www7]. La gestion de la caméra dans ces jeux ne pose aucun problème particulier puisqu’elle consiste à mapper directement les actions du joueur (limitées à des déplacements et/ou sauts) sur la position et l’orientation du personnage principal et donc de la caméra.
Troisième personne (third person ou TPS) : le système de gestion de la caméra suit le personnage d’intérêt depuis une certaine distance (généralement elle est située légèrement au dessus et derrière une de ses épaules). Ici le système doit réagir à la fois aux éléments du décor (afin d’éviter les occlusions et les collisions) et aux interactions de l’utilisateur (afin de maintenir à l’image les objets d’intérêt). Des problèmes apparaissent lorsque le système n’arrive pas à prendre en compte des éléments d’interactions qui font partie intégrante du jeu. Un exemple classique de mise en défaut de certains systèmes TPS se produit lorsque le joueur décide de faire reculer le personnage jusqu’à ce que celui-ci soit collé à un élément du décor (p. ex. un mur). La décision prise dans ce cas est généralement de revenir à une vue frontale du personnage, provoquant ainsi une interruption dans le gameplay et une désorientation du joueur en ne montrant plus à l’écran la majeure partie de l’action (cf. figure 2.4). En outre, de par l’imprécision des méthodes de détection d’occlusions utilisées, il  n’est pas rare que la projection du personnage principal soit partiellement voire significativement recouverte à l’écran.
Ralentis (Action replays) : les ralentis sont très souvent utilisés dans les jeux de voiture et les jeux multijoueur, afin de mettre en avant des événements importants ou spectaculaires que le joueur aime revoir (cf. figure 2.5). Il est essentiel que les ralentis soient éloquents, que les éléments du jeu et leurs configurations spatiales soient immédiatement identifiable par le joueur. Il existe cependant deux types de ralentis différents : (i) le ralenti instantané (in-game) illustrant un fait marquant du jeu et (ii) le ralenti final permettant de revoir l’intégralité d’une course automobile par exemple.
Figure 2.5 – Capture d’écran d’un ralenti in-game tirée du jeu Burnout 3.

Systèmes multimodaux et de visualisation de données scientifiques

Cette section présente les exigences de contrôle de caméra dans deux catégories de système d’in-formatique graphique : les systèmes multimodaux et de visualisation de données scientifiques. Ces deux applications ont en commun la gestion de données hétérogènes. En effet, la multimodalité est définie comme « l’utilisation de deux ou plusieurs parmi les cinq sens en vue de l’échange d’informations » (traduction libre de Johnston [Joh03]), elle combine différents médias au sein d’un même système. Les applications de visualisation de données scientifiques quant à elles, doivent permettre l’exploration de vastes ensembles de données issues de diverses sources (systèmes d’aide à la décision, bases de données, etc.).
Systèmes multimodaux
La gestion de contenu multimodal (en particulier la mise en adéquation du langage naturel avec des images 3D) nécessite de porter une attention particulière à la coordination des modalités. Les systèmes multimodaux ont été principalement développés dans le cadre de l’éducation et de l’apprentissage. Le problème majeur relatif au contrôle de caméra dans ces systèmes, est de coordonner le choix du point de vue permettant de montrer à l’image l’objet dont il est question dans le discours.
Par exemple, une référence linguistique directe à un objet d’une scène 3D (p. ex. « la poignée de la porte ») requiert que l’objet en question (c.-à-d. la poignée) soit dans le pire des cas partiellement occulté à l’écran afin que l’utilisateur puisse le reconnaître. Pour satisfaire ce genre de contraintes de coordination, les systèmes multimodaux se sont basés sur l’utilisation intensive des points de vue par défaut (Seligmann et Feiner [SF91]) depuis lesquels des images de l’objet d’intérêt non occulté ont de très fortes chances d’être obtenues. Afin de vérifier l’éligibilité des points de vue par défaut, un simple test de lancer de rayons est mis en place (par exemple dans les travaux de Bares et al. [BRZL98]). Une autre classe d’approches a recours à des manipulations directes sur les polygones de la scène lors du rendu pour assurer la visibilité de l’objet d’intérêt lors du discours, c.-à-d.: (i) soit par élimination directe de polygones des objets 3D, (ii) soit par manipulation du tampon de profondeur (depth buffer, Seligmann et Feiner [SF93]), ou (iii) en ayant recours à la transparence.
Au delà des simples références aux objets, la coordination entre la langue et les images pose un certain nombre d’autres problèmes intéressants en ce qui concerne le contrôle de caméra. En effet, lors du discours il ne sera pas rare de faire référence à des objets par des relations spatiales, dont la sémantique peut seulement être interprétée si l’objet est effectivement vu d’une manière appropriée. Prenons par exemple des relations spatiales entre objets telles « être devant », « être à gauche de » ou des adjectifs relatifs à la taille d’objets à l’écran comme « gros », « large ». Elles supposent toutes un placement et une orientation corrects de la caméra pour que le spectateur comprenne de quel(s) objet(s) il est question.

Visualisation de données scientifiques

Les systèmes de visualisation scientifique doivent transformer de très volumineux ensembles de don-nées scientifiques multidimensionnels en entités 3D afin de pouvoir les afficher et ainsi découvrir les relations qui les lient. De par leur nature multidimensionnelle et à cause du volume de données qu’elles manipulent, les applications de visualisation nécessitent une aide au contrôle de caméra permettant l’ex-ploration et la prospection des relations reliant les données affichées. En effet, les données affichées couvrent bien souvent de très vastes zones dans lesquelles une interaction directe de l’utilisateur sur la caméra est difficile. A l’heure actuelle, dans la majeure partie des applications de visualisation, l’utilisa-teur est très limité dans les interactions qui lui sont offertes au niveau d’un contrôle direct de la caméra pour l’exploration des données. Une automatisation du contrôle de caméra dans ces applications, ou tout au moins la possibilité d’offrir une aide à son contrôle direct est indéniablement un atout et peut grandement faciliter l’exploration de très gros volumes de données.
De ce fait, les systèmes de visualisation scientifique profiteraient énormément de techniques de contrôle de caméra capables de prendre en compte les spécificités du domaine de l’application lors de l’aide à l’accomplissement de la tâche de l’utilisateur. Toutefois, ces comportements adaptatifs requièrent l’habileté d’évaluer le potentiel perceptif d’un point de vue sur une scène, et la capacité de réagir à cette évaluation de la façon la plus bénéfique qui soit pour l’utilisateur.
Difficultés liées au contrôle de caméra
Il est possible d’identifier trois difficultés liées au contrôle de caméra, sous-jacentes aux approches présentées, à savoir :
la gestion des sept degrés de liberté de la caméra virtuelle,
la complexité intrinsèque des environnements 3D fortement peuplés et dynamiques,
• l’expressivité offerte à l’utilisateur pour la description d’un problème.
Tout d’abord, le contrôle direct d’une caméra virtuelle par un utilisateur demande une certaine ex-pertise de la part de ce dernier. En effet, il est impossible de gérer à la fois les sept degrés de liberté de la caméra avec des périphériques d’entrée en possédant généralement 2 voire 3 (beaucoup plus rarement, 6 degrés de liberté sont fournis par les souris 3D). Les approches de contrôle direct des paramètres de la caméra par l’utilisateur doivent donc définir des méthodes de mappage entre les entrées fournies par l’utilisateur et les degrés de liberté de la caméra.
Une deuxième difficulté réside dans la complexité intrinsèque de la planification automatisée (partiel-lement ou totalement) de trajectoires de caméra. En effet, le contrôle dynamique de caméra virtuelle peut être considéré comme un cas particulier du problème de planification de trajectoire et appartient donc à la classe des problèmes PSPACE-difficiles, pour lesquels la complexité est exponentielle en nombre de degrés de liberté. Ajoutons à cette remarque que la relation entre un objet d’une scène 3D et sa projection 2D à l’écran est fortement non linéaire. Considérons un modèle de caméra basé sur les angles d’Euler (cf. section A.1), pour lequel les sept degrés de liberté sont : q = [xc, yc, zc, φc, θc, ψc, γc]. La projection d’un objet 3D à l’écran est définie par l’équation 2.1. On exprime cette relation comme étant un changement de base depuis le repère monde global (3D), vers le repère local de la caméra (3D) puis vers le repère image (2D). Ces changements de base sont définis par la donnée d’une matrice de rotation R(φc, θc, ψc), d’une matrice de translation T (xc, yc, zc) et d’une matrice de projection P (γc). La composition de ces trois matrices détermine les coordonnées 2D (x′, y′) de la projection d’un point 3D (x, y, z).
La forte non linéarité de cette relation la rend difficilement inversible, c’est-à-dire qu’il est complexe de décider où positionner la caméra en connaissant la position d’un objet dans la scène et les coordonnées de sa projection à l’écran. De plus, cette relation n’apporte aucune information concernant l’occlusion potentielle de l’objet à l’écran.
Enfin, le but de l’automatisation du contrôle de caméra n’est pas de se cantonner à la définition de relations simples entre les objets d’une scène 3D et leurs projections et/ou dispositions à l’écran. Le contrôle de caméra doit englober la spécification de contraintes de haut niveau sur des propriétés que l’on souhaite voir à l’image. La prise en compte de propriétés visuelles significatives et de relations spatiales entre objets est essentielle dans le but d’offrir à l’utilisateur des moyens de description plus expressifs que des relations purement géométriques. Le contrôle automatique de caméra se doit d’aider les utilisateurs dans leur construction mentale des scènes 3D et leur compréhension des mondes virtuels en leur fournissant les éléments nécessaires tant au niveau spatial, temporel que causal des relations entre les objets et les événements de la scène.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

1 Introduction 
2 État de l’art 
2.1 Motivations
2.1.1 Modeleurs 3D conventionnels
2.1.2 Jeux vidéo
2.1.3 Systèmes multimodaux et de visualisation de données scientifiques
2.1.4 Difficultés liées au contrôle de caméra
2.2 Contrôle de caméra et cinématographie
2.2.1 Le placement de caméra
2.2.2 Composition visuelle
2.3 Approches interactives
2.3.1 Contrôle direct de la caméra
2.3.2 Contrôle indirect de la caméra
2.4 Approches réactives
2.5 Approches à base de planification de trajectoires
2.5.1 Planification de trajectoires basée sur les champ électromagnétiques
2.5.2 Méthodes de décomposition spatiale
2.5.3 Méthodes de « feuilles de route »
2.6 Approches déclaratives
2.6.1 Méthodes algébriques
2.6.2 Méthodes généralisées
2.7 Expressivité
2.7.1 Portée des propriétés
2.7.2 Nature des propriétés
2.7.3 Niveau d’abstraction des objets de la scène
2.7.4 Extensibilité des approches
2.8 Conclusion
3 Une approche numérique pour le placement de caméra 
3.1 L’approche des problèmes de satisfaction de contraintes —CSP
3.1.1 Terminologie des CSP
3.1.2 Un exemple de CSP : le sudoku
3.2 Les problèmes de satisfaction de contraintes numériques —NCSP (Numerical CSP)
3.2.1 L’analyse par intervalles
3.2.2 L’arithmétique des intervalles
3.2.3 Les contraintes d’intervalles
3.2.4 Consistances locales
3.2.5 Propagation de contraintes
3.2.6 Approximation intérieure d’une relation
238 TABLE DES MATIÈRES
3.2.7 Approximation intérieure d’un CSP
3.2.8 Opérateur d’extension intérieure
3.2.9 Calcul de l’extension intérieure d’un ensemble de contraintes
3.2.10 La résolution d’un problème MAX-NCSP
3.2.11 Une extension continue du cadre de la recherche locale
3.2.12 La recherche taboue
3.2.13 Une extension de la recherche locale aux intervalles à bornes flottantes
3.2.14 Conclusion MAX-NCSP/ RL
3.3 Une approche MAX-NCSP pour le problème de placement de caméra en environnement 3D
3.3.1 Des propriétés aux contraintes
3.4 Résultats
3.4.1 Jeu de test : composition visuelle
3.4.2 Jeu de test : randomCircle
3.4.3 Comparaison des évaluateurs pour la recherche locale adaptée aux intervalles à bornes flottantes
3.4.4 Bilan de l’analyse des résultats
3.5 Conclusion
4 Les volumes sémantiques 
4.1 Introduction
4.1.1 Un volume sémantique
4.1.2 Opérateur de filtrage géométrique Gf
4.1.3 Intersection des volumes sémantiques
4.2 Propriétés
4.2.1 La propriété de projection
4.2.2 Propriété d’orientation
4.2.3 La propriété d’occlusion
4.2.4 Propriété de positionnement relatif à l’écran
4.2.5 Propriété de cadrage (ou framing)
4.3 Processus de résolution
4.3.1 Description du problème
4.3.2 Le partitionnement sémantique de l’espace : le processus géométrique
4.3.3 Calcul de configurations consistantes : le processus numérique
4.4 Exploitation des volumes sémantiques
4.4.1 Caractérisation d’un volume sémantique
4.4.2 Caractérisation de la scène 3D
4.4.3 Raisonnement sur les volumes sémantiques
4.5 Implémentation
4.5.1 Surfaces implicites
4.5.2 Description d’un problème de placement de caméra
4.5.3 Des propriétés aux volumes sémantiques
4.5.4 Calcul des meilleurs représentants
4.5.5 Présentation des résultats à l’utilisateur
4.6 Résultats
4.6.1 L’over-the-shoulder
4.6.2 Positionnement de cinq objets dans une image : le five frames shot
4.6.3 Limites de l’approche proposée
4.7 Conclusion
4.8 Discussion – Perspectives
5 La gestion de l’occlusion 
5.1 La gestion de l’occlusion dans les méthodes existantes
5.1.1 Techniques réactives de gestion de l’occlusion
5.1.2 Approches « omniscientes » de gestion de l’occlusion
5.1.3 Conclusion sur les méthodes existantes
5.2 Une nouvelle approche de gestion de l’occlusion : l’OCCLUSION AVOIDER
5.2.1 Approximation des prochaines positions de caméra
5.2.2 Calcul des pyramides, plans de vue, rayons et intersections
5.2.3 Représentation de la grille d’intersections par un système de coordonnées multilinéaire.
5.2.4 Effectuer les rendus objets
5.2.5 Étude des tampons de profondeur
5.2.6 Stockage des informations de profondeur
5.2.7 Accumulation des informations de profondeur au cours du temps
5.2.8 Choix du meilleur point de vue
5.3 L’outil OCCLUSION AVOIDER
5.4 Résultats
5.4.1 Aller-retour d’un objet occultant devant les objets d’intérêt.
5.4.2 Aller-retour d’une barrière devant les objets d’intérêt.
5.4.3 Aller-retour d’un « mur percé » devant les objets d’intérêt.
5.4.4 Génération d’une scène occultée par des objets aléatoires
5.4.5 Conclusion de l’évaluation de notre méthode d’évitement de l’occlusion
5.5 Choix du meilleur point de vue pour un modèle 3D
5.6 Conclusion
6 Conclusion et perspectives 
6.1 Une approche numérique pour le placement de caméra
6.2 Les volumes sémantiques
6.3 La gestion de l’occlusion
6.4 Conclusion
Bibliographie 
Références hypertextes

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *