Assistance ou apprentissage d’opérations dans un contexte industriel

Principes de fonctionnement de la réalité augmentée

                   Tout projet mis en place dans un milieu industriel doit évaluer les contraintes et les risques. La réalité augmentée n’échappe pas à ce modèle. Afin de mieux comprendre les contraintes liées à la réalité augmentée basée sur la vision, il est nécessaire d’en détailler le principe de fonctionnement. L’objectif principal pour un système de réalité augmentée est de connaître la pose (i.e. position et orientation) de la caméra filmant la scène par rapport à un objet connu dans la scène. Une fois cela déterminé, il est possible d’ajouter tout type d’augmentation mixant réel et virtuel. Le principe de fonctionnement peut être décomposé en quatre étapes (voir figure 6).
 La caméra filme la scène.
 L’objectif étant de connaître la pose de la caméra (i.e. position, orientation), dans chaque image filmée, un objet (marqueur, image de référence, modèle 3D) est reconnu.
 Connaissant la pose de la caméra, les augmentations (objets virtuels) sont ajoutées en cohérence avec le monde réel.
 Le rendu est obtenu sur l’appareil d’affichage (PC, smartphone, tablette, lunettes intelligentes).
La figure 7 illustre ce principe de fonctionnement. Tout d’abord, la caméra de la tablette ou des lunettes intelligentes filment la scène. Ensuite, l’algorithme utilisé reconnaît le marqueur placé sur le système à opérer. Enfin, l’écran de la tablette ou des lunettes intelligentes affiche le contenu en réalité augmentée. La seconde étape « recalage et suivi », est réalisée avec deux types d’algorithme relativement similaires (ARToolKit, 1999) (Lowe, 1999) (Comport, et al., 2006) :
 Le recalage (ou registration en anglais) : Dans cette étape, un objet cible est recherché dans la scène. Une fois détecté, la pose de la caméra est trouvée. Cette étape est la plus exigeante en calcul car elle nécessite de rechercher l’objet cible dans toute l’image récupérée par la caméra.
 Le suivi (ou le tracking en anglais) : En supposant que les mouvements de la caméra sont petits, la pose de la caméra peut être estimée à chaque rafraîchissement en utilisant des algorithmes optimisés. Par exemple, avec du suivi de points d’intérêts, les points d’intérêts ne sont plus recherchés dans toute l’image, mais seulement dans une zone autour du point d’intérêt détecté dans l’image précédente. Cette étape nécessite moins de temps de calcul et elle est évidemment privilégiée, une fois le recalage effectué. Dans la littérature, les deux termes ne sont pas toujours distingués. La plupart du temps, on utilise plutôt le terme suivi (ou tracking en anglais) pour regrouper les deux concepts. Dans la suite du document, nous parlerons de suivi.

Estimation de la pose de la caméra par une correspondance de point 3D-2D

                   L’estimation de pose a pour objectif de trouver la translation et la rotation entre un objet connu et la caméra, modélisée par son modèle sténopé (voir Annexe A et Annexe B). Dans ce problème, on suppose que les paramètres intrinsèques (distance focale et point principal) de la caméra sont connus (Grest, et al., 2009), c’est-à-dire que la caméra est calibrée. Ce  problème est résolu, à un facteur d’échelle près, en donnant une liste de correspondances entre des points 3D connus de l’objet et leurs projections 2D sur l’écran de la caméra (voir figure 8). Pour déterminer le facteur d’échelle, il devient nécessaire de placer dans la scène un objet dont les dimensions sont connues. Par exemple, sous OpenCV (Bradski & Kaehler, 2008), ce calcul est effectué grâce à la fonction solvePnP().

Le suivi basé sur une image de référence ou marqueur naturel

                     Pour s’affranchir des contraintes liées aux marqueurs précédents, il est nécessaire de développer de nouveaux algorithmes permettant de faire de la réalité augmentée. Le suivi avec images de référence répond à cette problématique. En effet, ce type de suivi est basé sur des images plus « naturelles », déjà présentes dans l’environnement. Il n’est donc plus nécessaire de le préparer avec des marqueurs pour que le système de réalité augmentée se repère dans l’environnement. Par exemple, (Koch, et al., 2014) utilise les panneaux de signalisation des bâtiments pour permettre de localiser l’opérateur en intérieur. En effet, ces signalétiques sont réparties dans le bâtiment et se distinguent bien d’autres objets de l’environnement. Le recalage par image de référence est basé sur la détection de points d’intérêts. L’extraction et la caractérisation des points d’intérêts font partie du thème plus large de la caractérisation d’une image. Une image peut être caractérisée de plusieurs manières :
 Les bords ou contours
o Ils peuvent être détectés grâce aux filtres de types Sobel, Prewitt, Roberts ou Canny.
 Les coins
o Ils peuvent être détectés par le détecteur de coin de Harris (Harris & Stephens, 1988).
 Les points d’intérêts
o Plusieurs algorithmes existent pour cela. Citons parmi eux SIFT (Scale Invariant Feature Tracking) (Lowe, 2004), SURF (Speeded Up Robust Features) (Bay, et al., 2006), FAST (Features from Accelerated Segment Test) (Rosten & Drummond, 2005).
Ce sont ces derniers qui sont le plus intéressants dans le cas de la réalité augmentée. En effet, les points d’intérêts ont plusieurs caractéristiques indispensables. Comme l’explique l’université de Washington (University, 2011) pour le cas du SIFT, le point d’intérêt possède ces caractéristiques :
 Local : chaque point d’intérêt est local à l’image. Par conséquent, sa détection est robuste à l’occlusion.
 Distinct : chaque point d’intérêt est caractérisé par un descripteur différents des autres. Une grande base de données d’images de référence ne pose donc pas de problème.
 Invariable : chaque descripteur du point d’intérêt est invariable à la translation, à la rotation et en partie au changement d’échelle. Le descripteur est, de plus, partiellement robuste au changement d’illumination.
 Quantité : les points d’intérêts sont nombreux même pour une petite image. A titre d’exemple, l’image de gauche de la figure 12 contient 865 points d’intérêts SURF (seuls trente points sont affichés).
 Efficacité : l’algorithme a des performances proches du temps réel.
 Extensible : le principe peut être appliqué avec différents descripteurs.
En matière de Vision Robot, la notion d’échelle (ou scale en anglais) a été utilisée pour répondre au besoin de robustesse des points d’intérêts au changement d’échelle. Pour obtenir une image à différentes échelles, il est d’usage de convoluer successivement l’image avec un filtre Gaussien. La convolution permet de faire disparaître petit à petit les textures de l’image (dans la figure 11, les écritures et les codes-barres) pour ne garder que les formes les plus marquantes. La figure 12 montre un exemple de points d’intérêts extraits avec l’algorithme SURF (Bay, et al., 2006). Les cercles verts sont centrés sur le point d’intérêt, la taille du cercle représente l’échelle (scale) à laquelle le point d’intérêt a été détecté. Le rayon du cercle, quant à lui, indique dans quelle direction se trouve le gradient le plus prononcé du point d’intérêt. Une fois que le point d’intérêt a été trouvé, il est caractérisé par un descripteur unique. Nous ne nous étendrons pas sur cette notion de descripteur. Plusieurs articles expliquent comment ils sont calculés (Lowe, 2004) (Bay, et al., 2006) (Calonder, et al., 2010) (Corke, 2011) (Rublee, et al., 2011). Ce qu’il faut retenir est que chaque point d’intérêt peut être décrit de manière unique. Cela permettra donc de faire la mise en correspondance entre les points d’intérêts de l’image de référence et de l’image de la scène. L’algorithme, peut être schématisé comme sur la figure 13.

Avantages et inconvénients des différents dispositifs de rendu

                 La figure 21 représente les différents types de dispositifs rencontrés dans la littérature, permettant de voir les informations en réalité augmentée. Cette partie est donc consacrée à étudier ces différents types de dispositifs, sachant que l’objectif à atteindre est représenté sur la figure 21-(f), c’est-à-dire que la flèche verte en réalité augmentée est affichée par-dessus le monde réel sans aucune limitation dans le champ de vision ou la forme de l’augmentation affichée. Tout d’abord, l’intérêt des lunettes de type Optical See-Through est que les objets virtuels sont mixés avec le monde réel de manière naturelle (voir figure 21-(a)). C’est-à-dire que le sujet peut voir l’objet réel avec ses yeux, tout en ayant l’information en réalité augmentée. Il ne doit donc pas déplacer son regard sur un autre écran pour voir l’augmentation. De plus, le sujet opère les mains libres et l’objet virtuel reste bien synchronisé avec les mouvements de la tête du sujet ; si ses mouvements sont lents. (Syberfeldt, et al., 2014) constate qu’il faut moins de 8° par seconde. En effet, si les mouvements sont rapides, le temps de calcul nécessaire au recalage de l’augmentation crée un retard de synchronisation entre le réel et l’objet virtuel à afficher. Ce décalage induit de la fatigue mentale, visuelle et peut même provoquer des nausées (Friedrich, et al., 2002) (Plouzeau, et al., 2015) (Kemeny, et al., 2017). Bien sûr la limite de vitesse de rotation de la tête va augmenter avec les technologies mais il est nécessaire de connaître cette possible gêne. De plus, l’utilisateur voit seulement l’objet virtuel en semi-transparence à travers les écrans prévus pour l’affichage (voir figure 19 à droite). En outre, le champ de vision est faible à cause des limites du matériel. Dans la figure 21-(a) le champ de vision maximal de l’écran est symbolisé par le rectangle rouge. Cela veut dire que si l’utilisateur tourne la tête et que l’augmentation sort du rectangle, alors elle n’est plus accessible pour lui car l’information n’est plus visible dans sa vue périphérique. L’autre problématique qui émerge est la sécurité de l’utilisateur ; d’une part, (Livingston, 2005) a montré que le port de casque réduisait l’acuité visuelle de l’utilisateur, d’autre part, les augmentations peuvent cacher en partie la vue du monde réel à l’opérateur, puisqu’elles apparaissent sur l’écran situé sur la paire de lunettes intelligentes. Il est donc nécessaire de bien penser son application, afin de ne jamais obstruer la vision de l’utilisateur et ainsi garantir sa sécurité tout le long de la procédure.

La réalité augmentée : la réponse à un besoin de collaboration expert-opérateur

                      Avec la complexité croissante des systèmes industriels, une organisation éclatée sur plusieurs sites et le renouvellement des équipes, il devient essentiel pour une entreprise de conserver son savoirfaire et son expertise. Actuellement l’expert partage son savoir à travers des gammes (papiers ou numériques). Ces documents sont découpés en étapes permettant d’indiquer comment maintenir le système (gamme de maintenance) ou comment assembler un système (gamme d’assemblage). Cependant, ce type de support reste très statique et demande à l’opérateur d’être formé préalablement au système sur lequel opérer pour pouvoir bien comprendre la gamme fournie. De plus il ne répond plus aux besoins de collaboration à distance et d’instantanéité nécessaires à ces nouvelles organisations éclatées. L’arrivée des technologies numériques dans « l’industrie du futur » 3 est une opportunité pour répondre à ces nouveaux défis. La question à laquelle répondre est : « comment un expert à distance peut-il partager son savoir avec un opérateur afin de lui apporter une information pertinente et contextualisée ? ». Dans cet échange entre l’expert et l’opérateur, deux modes de collaboration permettent de répondre à cette problématique :
 L’opération guidée (ou asynchrone) (voir figure 22) Dans ce modèle, l’expert crée des opérations et les stocke sur une base de données (figure 22 – 1). Avant de se rendre sur le site à maintenir, l’opérateur charge son lecteur de réalité augmentée avec les opérations à effectuer sur site (figure 22 – 2). Une fois sur place, il suivra le guide en réalité augmentée créé par l’expert (figure 22 – 3). Les travaux de (Henderson & Feiner, 2011), (Martínez, et al., 2014) ou (Lamberti, et al., 2014) illustrent ce mode de collaboration.
 L’opération assistée (ou synchrone) (voir figure 23) : C’est un mode qui va permettre à l’opérateur de communiquer en temps réel avec un expert à distance : par exemple, si celui-ci est bloqué dans son opération car il ne comprend pas la procédure à suivre. Il peut alors contacter l’expert dans une conversation en direct (figure 23 – 1). L’expert recevra un flux vidéo représentant ce que voit l’opérateur sur place. Il peut donc lui « augmenter » sa vision (figure 23 – 2) pour lui indiquer la démarche à suivre et débloquer l’opérateur. Les travaux de Bottecchia (Bottecchia, 2010) ou (Benbelkacem, et al., 2011) illustrent ce mode de collaboration. D’ailleurs, un parallèle intéressant peut être fait entre ces modes de collaboration et des modèles pédagogiques. Par exemple, (Paquette, et al., 2014), définit un scénario pédagogique comme « un ensemble ordonné d’activités, régies par des acteurs qui utilisent et produisent des ressources ou « objets pédagogiques ») ». De même l’expert, prenant le rôle de formateur, doit produire des ressources pour que l’opérateur, jouant le rôle de l’apprenant, se forme ou se guide dans sa tâche. En conclusion, nous observons que la réalité augmentée est une technologie qui répond à un besoin de partage du savoir et de collaboration dans l’industrie. Il reste toutefois à connaître les catégories d’usages possibles de cette technologie dans un contexte industriel. Le paragraphe suivant présente donc ces usages Remarque : Le lecteur doit noter que la suite de ce mémoire fera régulièrement référence à ces modes de collaboration : opération (ou maintenance) guidée et assistée. De même la référence aux termes « expert » et « opérateur » sera fortement présente.

Modèles pour les applications en réalité augmentée

                       Dans cette partie, nous présentons les modèles de données existants pour les opérations en réalité augmentée sur des systèmes industriels. Il existe toutefois des modèles dans d’autres domaines, par exemple, dans le secteur culturel (Hatala & Wakkary, 2005) (Venticinque, et al., 2011). (Su, et al., 2012) propose un modèle d’action sur un objet. De plus l’auteur base son approche sur des ontologies. Cela permet donc de s’adapter au vocabulaire de l’expert pour éditer le contenu. Cependant, le modèle proposé ne permet pas de séparer l’action, de l’objet sur lequel il agit. Dans son exemple, l’auteur doit utiliser l’action « ouvrir le capot du véhicule ». Il est contraint d’éditer deux fois l’action « ouvrir le capot » dans le cas de deux opérations distinctes bien que l’action soit identique. De plus, le processus d’édition se base sur un outil UML qu’un expert d’un système industriel pourrait ne pas connaître. (Zhu, et al., 2013) veut, quant à lui, proposer un système utilisable par les développeurs, ainsi que les opérateurs de maintenance. Pour cela, il permet aux premiers d’éditer du contenu hors ligne pour décrire la maintenance. Pour les opérateurs, il leur permet d’éditer une partie de l’opération en ligne avec une interface simplifiée en réalité augmentée. Par exemple, le technicien peut déplacer le placement en 3D de l’information en réalité augmentée (voir figure 31). Cependant son modèle repose uniquement sur du suivi basé marqueur et ne permet donc pas de paramétrer d’autres algorithmes de suivi.(Martínez, et al., 2014) définit trois concepts pour éditer une opération en réalité augmentée : maintenance, travail et tâche. La maintenance est une suite de travaux. Chaque travail est une suite de tâches. Par exemple le travail « ouvrir un appareil », est composé de la tâche « dévisser », suivi de la tâche « retirer le couvercle ». Ce travail peut donc être réutilisé dans plusieurs maintenances. Cependant, la limite vient du concept de tâche. En effet, ce concept ne sépare pas la tâche de l’objet sur lequel il agit. Par conséquent, l’action « dévisser » doit être décrite pour chaque nouvel élément sur laquelle elle est faite. De plus, le modèle ne prend pas en compte le type de reconnaissance qui peut être effectuée. Bien que les approches soient différentes, les modèles proposés utilisent des concepts proches. Au final, pour répondre aux contraintes liées aux opérations en réalité augmentée sur des systèmes industriels complexes, les modèles essaient de répondre aux besoins suivants :
 comment décrire l’objet réel,
 comment reconnaître l’objet réel, principalement avec une caméra,
 comment afficher du contenu virtuel une fois l’objet reconnu,
 comment décrire les étapes d’une opération au travers d’animations génériques,
 et comment les organiser.
L’Open Geospatial Consortium répond aux trois premières contraintes grâce à son standard ARML 2.0 (OGC, 2015). Les concepts qu’ils utilisent sont : Feature, Anchor et les VisualAsset (voir figure 32). La Feature permet de décrire un objet réel et de le référencer. L’Anchor permet de paramétrer la manière de reconnaître l’objet. Et enfin, le VisualAsset permet de définir le contenu virtuel à afficher lorsque l’objet réel est reconnu. De cette manière, l’ARML permet de décrire de manière standard une scène en réalité augmentée, comme l’HTML permet de décrire de manière standard un contenu web. Cependant, bien que ce standard ait été approuvé en février 2015, seulement deux navigateurs le supportent (Wikitude et Layar). De plus, ce standard ne permet pas, par défaut, de créer des animations sur les modèles 3D et d’organiser ou séquencer des étapes pour une opération industrielle. Il est donc nécessaire de proposer un modèle répondant aux besoins décrits ci dessus. En conclusion, nous avons constaté que pour permettre à un expert d’éditer du contenu en réalité augmentée, il était nécessaire de mettre en place une architecture et un modèle de données. Plusieurs de ces modèles existent. Cependant, ils sont soit développés pour un cas spécifique, soit ils manquent de généricité, soit ils sont utilisables uniquement par des experts en développement informatique. C’est pourquoi, nous allons présenter un nouveau modèle de données permettant de s’adapter à chaque spécificité de métier et aussi à une personne non experte en développement en informatique de produire du contenu.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction générale
Problématique scientifique
Organisation du mémoire
Contexte de la thèse
Chapitre I Etat de l’art de la réalité augmentée appliquée aux opérations sur les systèmes industriels complexes
I.1 Introduction
I.1.1 Définition
I.1.2 Principes de fonctionnement de la réalité augmentée
I.2 Algorithmes, dispositifs d’affichages et outils pour la réalité augmentée
I.2.1 Estimation de la pose de la caméra par une correspondance de point 3D-2D
I.2.2 Les méthodes de suivis
I.2.2.1 Le suivi basé sur un marqueur
I.2.2.2 Le suivi basé sur une image de référence ou marqueur naturel
I.2.2.3 Le suivi basé sur un modèle 3D
I.2.2.4 Le suivi dans un environnement inconnu
I.2.2.5 Bilan sur les méthodes de suivis
I.2.3 Les frameworks existants
I.2.4 Les dispositifs de rendus
I.2.4.1 Optical-see-through (OST) ou Video-see-through (VST)
I.2.4.2 L’importance du champ de vision
I.2.4.3 Avantages et inconvénients des différents dispositifs de rendu
I.2.5 Synthèse sur la réalité augmentée
I.3 La réalité augmentée appliquée aux opérations et à l’assistance sur des systèmes industriels complexes
I.3.1 La réalité augmentée : la réponse à un besoin de collaboration expert-opérateur
I.3.2 Revue des catégories d’usages et des dispositifs utilisés pour les applications de réalité augmentée dans un contexte industriel
I.3.3 Quel dispositif choisir pour une catégorie d’usage déterminée ?
I.3.4 Synthèse sur l’usage de la réalité augmentée en industrie
I.4 Conclusion
Chapitre II Modélisation des opérations en réalité augmentée sur les systèmes industriels complexes 
II.1 Introduction
II.2 Architectures et modèles existants pour les applications en réalité augmentée
II.2.1 Architectures des applications de réalité augmentée
II.2.2 Modèles pour les applications en réalité augmentée
II.3 Le modèle ARMOSYS pour la description d’opérations en réalité augmentée sur des systèmes industriels complexes
II.3.1 Processus pour passer à des opérations guidées en réalité augmentée
II.3.2 Le modèle ARMOSYS
II.3.3 ARMOSYS-player : lecteur RA supportant le modèle ARMOSYS
II.4 Du modèle à l’applicatif mProd
II.5 Discussion
II.6 Conclusion
Chapitre III Etude de cas : usage de la réalité augmentée pour les opérations sur des systèmes industriels complexes
III.1 Introduction
III.2 Méthodes et critères pour les études de cas : analyse de l’existant
III.2.1 Les catégories de critères utiles
III.2.2 Les outils d’analyses
III.2.2.1 Les outils statistiques
III.2.2.1.a ANOVA ou Analyse de la variance
III.2.2.1.b Le test de Kruskal-Wallis
III.2.2.2 Le questionnaire de charge mentale
III.2.2.3 Le System Usability Scale (SUS)
III.3 Revue des critères utilisés pour évaluer les usages de la réalité augmentée sur des opérations industrielles
III.4 Maintenance industrielle augmentée : étude comparative entre les supports en RA sur lunettes intelligentes, en RA sur tablette, en vidéo et en papier
III.4.1 Matériels et Méthodes
III.4.1.1 Opération de maintenance sur le module de presse
III.4.1.2 Equipements utilisés
III.4.1.2.a Le support papier
III.4.1.2.b Le support vidéo
III.4.1.2.c Le support tablette et lunettes intelligentes en RA
III.4.1.3 Méthodologie de l’étude de cas
III.4.1.3.a Objectifs de l’étude
III.4.1.3.b Participants
III.4.1.3.c Déroulement
III.4.1.3.d Méthodes d’analyse
III.4.2 Résultats et discussions
III.4.2.1 La durée de l’opération
III.4.2.1.a Analyse
III.4.2.1.b Discussion
III.4.2.2 Les erreurs pendant l’opération
III.4.2.2.a Analyse et discussion
III.4.2.3 Satisfaction des opérateurs
III.4.2.3.a Analyse du ressenti des opérateurs
III.4.2.3.b Evaluation des assistances fournies par les applications de réalité augmentée
III.4.2.4 Les bonnes pratiques pour les applications de réalité augmentée
III.4.2.4.a Remarque sur une première version de l’application mProd et le suivi par image de référence
III.4.3 Synthèse de la première expérimentation
III.5 Etude de cas sur une maintenance complexe : comparatif entre un support tablette PDF et un support tablette en réalité augmentée
III.5.1 Matériels et méthodes
III.5.1.1 Opération de maintenance sur le module de perçage
III.5.1.2 Equipements utilisés
III.5.1.2.a Le support tablette PDF
III.5.1.2.b Le support tablette RA
III.5.1.3 Méthodologie de l’étude de cas
III.5.1.3.a Objectifs de l’étude
III.5.1.3.b Participants
III.5.1.3.c Déroulement de l’étude
III.5.1.3.d Méthodes
III.5.2 Résultats et discussions
III.5.2.1 Remarque préliminaire sur les résultats de performance concernant la durée
III.5.2.2 La performance des opérateurs
III.5.2.2.a La durée totale de l’opération en fonction du niveau
III.5.2.2.b La durée totale en fonction du support
III.5.2.2.c La durée totale en fonction du support et du niveau
III.5.2.2.d La durée de consultation en fonction du support
III.5.2.2.e La durée de consultation par étape
III.5.2.2.f Les erreurs commises par les opérateurs
III.5.2.3 Satisfaction des opérateurs
III.5.2.3.a Résultats sur la charge mentale
III.5.2.3.b Résultats sur le System-Usability-Scale (SUS)
III.5.2.3.c Résultats du questionnaire de retour d’expérience
III.5.2.3.d Evaluation des assistances apportées par les supports
III.5.3 Synthèse de la seconde expérimentation
III.6 Conclusion
Chapitre IV Vers un usage unifié entre la réalité augmentée et la réalité virtuelle : proposition de l’ontologie INOOVAS pour une édition de contenu en réalité mixte
IV.1 Introduction
IV.2 Etat de l’art
IV.2.1 Etat de l’art sur l’usage de la réalité virtuelle dans un contexte industriel
IV.2.1.1 Définitions
IV.2.1.2 Les dispositifs de rendu pour la réalité virtuelle
IV.2.1.3 La réalité virtuelle pour des usages avec des systèmes industriels complexes
IV.2.1.4 Processus de création de contenu en réalité virtuelle pour l’étude de systèmes industriels complexes et outils associés
IV.2.2 Le web sémantique et les ontologies
IV.2.2.1 Fonctionnement et utilité des ontologies
IV.2.2.2 Spécification de RDF, RDFS et OWL
IV.2.2.2.a La base du formalisme RDF et les syntaxes associées
IV.2.2.2.b Les outils d’édition d’ontologie
IV.2.2.2.c Les constructions
IV.2.2.2.d Les triplet-stores pour stocker les données d’ontologie
IV.2.2.3 Synthèse
IV.2.3 Ontologies pour les opérations sur les systèmes industriels
IV.2.3.1 Ontologies pour le produit
IV.2.3.2 Ontologies pour les opérations sur le système industriel
IV.2.3.3 Modélisations et ontologies pour l’édition de contenu en réalité virtuelle et augmentée pour la description d’activités
IV.2.4 Synthèse
IV.3 INOOVAS : ontologie pour décrire les opérations sur les systèmes industriels en réalité augmentée et virtuelle
IV.3.1 Processus d’édition de contenu pour des opérations en réalité augmentée et virtuelle basé sur l’ontologie INOOVAS
IV.3.2 Architecture de l’ontologie INOOVAS
IV.3.3 Architecture de communication entre l’éditeur RV, le lecteur RV, le lecteur RA et la base de données de triplets basée sur INOOVAS
IV.3.4 Real Thing : ontologie du système industriel complexe
IV.3.5 Twin Thing : ontologie de la représentation numérique du système
IV.3.6 AVR Operation : ontologie des opérations sur des systèmes industriels
IV.4 Représentation pratique de l’ontologie sur des cas d’usage
IV.4.1 Exemple d’utilisation d’INOOVAS sur une opération de maintenance en réalité augmentée
IV.4.1.1 Maintenance d’un module sur une chaîne de production didactique en réalité virtuelle
IV.4.1.2 Localisation dans un environnement industriel étendu
IV.4.2 Exemple d’utilisation d’INOOVAS avec l’ontologie SMAC-Model
IV.5 Conclusion
Conclusion générale
Travaux réalisés
Perspectives
Publications
Communications
Enseignements
Bibliographie
Annexes

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *