Le recours au Big Data pour l’Industrie 4.0
Le NIST (National Institute of Standards and Technology) définit les big data comme « des ensembles de données étendus – principalement en termes de volume, de variété, de vitesse et/ou de variabilité – qui nécessitent une architecture évolutive pour un stockage, une manipulation et une analyse efficaces » [NIST, 2015a]. La norme [ISO/IEC JTC 1, 2015] détaille ces caractéristiques des big data :
• Le volume : la quantité de données ;
• La variété : les nombreux types de sources et de formats différents ;
• La rapidité : le flux de données est continu et massif ;
• La variabilité : le changement continu dans le débit, la forme, la sémantique et la qualité des données ;
Dans le but de gérer ces ensembles de données, une plateforme big data est une solution informatique qui combine les caractéristiques et les capacités des applications et Framework big data au sein d’une solution unique pour permettre aux entreprises de collecter, stocker, gérer, analyser et visualiser des volumes massifs de données et connaissances, avec beaucoup de rapidité, scalabilité et fiabilité [NIST, 2015b ; Site techopedia]. Les principaux défis des projets big data résident dans [NIST, 2015b] :
1. La capture et la capitalisation d’énormes quantités de données et connaissances provenant de sources multiples et hétérogènes avec une syntaxe et une sémantique différente ;
2. La préparation des données pour l’analyse en plusieurs étapes telles que la validation, le nettoyage, la transformation, l’indexation, l’agrégation et le stockage ;
3. Le choix de la technique de traitement appropriée qui correspond à la nature des données et aux exigences opérationnelles. Il peut s’agir d’un traitement par lots, où les données sont collectées au fil du temps puis envoyées pour traitement, ou d’un traitement en temps réel, où les données sont généralement produites de façon continue, en temps réel.
Malgré un recours massif aux technologies numériques, dans la stratégie de l’entreprise du futur la place de l’humain reste inestimable [Toro et al., 2015] en raison de sa capacité à manager, coordonner, à résoudre les problèmes [Brettel et al., 2015], à s’adapter avec les environnements de travail difficiles [Gorecky et al., 2017 ; Li et al., 2019] et à prendre des décisions [Stankovik, 2014]. Pour pérenniser cette ressource inestimable, la capitalisation des connaissances permet d’extraire l’expertise des différents acteurs humains afin de comprendre ces mécanismes de prise de décision et de les réutiliser devant des situations complexes. Il s’agit aussi de donner un outil fiable pour interpréter, selon le point de vue et les besoins de chaque expert métier, la grande quantité de données hétérogènes collectées à partir des machines et autres ressources dans l’atelier. Ceci conduit à une plus grande consolidation de la chaine numérique en support à la chaine de valeur globale de l’organisation [Kagermann et al., 2013]. Afin d’apporter une contribution face à ces enjeux, il serait important de comprendre quelles sont les mécanismes de prise de décision en entreprise.
Les systèmes d’aide à la décision
Le système d’aide à la décision (DSS) est un outil efficace qui peut faciliter la prise de décision afin de résoudre le problème identifié. Les DSS intègrent de multiples fonctions telles que l’analyse, la modélisation, la prédiction, l’optimisation et le diagnostic, en combinant généralement des données et des modèles [Kulhavy, 2003]. Selon Bonczek (1980), un système d’aide à la décision (Decision Support System, DSS) est un système informatique composé, entre autres, d’un système linguistique, d’un système de connaissances et d’un système de traitement des problèmes qui interagissent les uns sur les autres [Daihani, 2001]. Il comprend généralement une interface utilisateur permettant de communiquer avec le décideur. Un système d’aide à la décision ne prend pas de décision, mais assiste le décideur humain en analysant les données et en présentant les informations traitées sous une forme qui lui est compréhensible. Les systèmes de décision sont généralement une combinaison d’ensembles de règles et de logique de décision (que l’on nomme « moteur de décision ou d’inférence ») qui s’appliquent sur des données particulières, traitées, organisées et accessibles. Le moteur de décision peut agréger diverses données pour former des informations et connaissances utiles par le décideur, ou il peut rechercher les données pour trouver des modèles significatifs qui peuvent également être utiles [Crossland, 2016]. Dans le domaine industriel, nous distinguons trois catégories de décisions. Les décisions stratégiques permettent de représenter les orientations à long terme de l’entreprise. Par exemple, l’installation d’une nouvelle ligne de production ou l’investissement dans une nouvelle machine. Les décisions tactiques sont focalisées sur la planification de la production à moyen terme, comme une implémentation des orientations stratégiques. Enfin, le niveau opérationnel qui consiste à mettre en place les décisions prises au niveau tactique. Un exemple de décisions opérationnelles est l’ordonnancement et l’exécution à court terme des ordres de fabrication. Les nouvelles générations de ces systèmes d’aide à la décision tirent plus d’avantage des technologies d’information et du big data. Cependant, compte tenu des attentes différentes des différents utilisateurs possibles de ces systèmes et de la variation des niveaux de compétence de ceux-ci, il est difficile d’imaginer une solution standard convenant à tous [Parasuraman et Riley, 1997]. Quel que soit le niveau hiérarchique, l’acceptation et l’utilisation de ce type de système requiert une première phase d’apprentissage. Par la suite, une phase intermédiaire d’application des nouveaux savoir-faire permet de valider les compétences, et enfin une dernière phase de perturbation permet de tester sa maitrise des nouveaux outils et des moyens de la production [Mattsson et al., 2018]. Cependant, la mise en place de ces systèmes d’apprentissage et de test, nécessaires pour la construction de cette expertise, reste un défi difficile pour de nombreuses industries de production [Stentoft et al., 2019 ; Chengula et al., 2018]. Outre le travail sur les compétences des utilisateurs, une autre solution consiste à améliorer la disponibilité et l’accessibilité aux données tout au long du processus de fabrication, et garantir la continuité de la chaine numérique entre les différents niveaux de management jusqu’au simple opérateur. Par conséquent, les entreprises doivent revoir leurs capacités et stratégies organisationnelles afin d’identifier plus efficacement ses besoins en matière de données et informations, mais aussi les connaissances pertinentes [Li et al., 2019]. En effet, la multiplication des sources de données et la grande quantité de données collectées chaque jour ne sont pas sans poser des problèmes pour la prise de décision. Beaucoup de problèmes d’incohérence et de difficultés d’accès à la « bonne information » sont souvent constatés. Pour remédier à cela, la traçabilité des processus de fabrication, la capitalisation des différents flux d’informations et leur analyse permettent de définir de nouveaux indicateurs agrégés qui simplifient l’interprétation des phénomènes réels. Dans un niveau supérieur, la capitalisation des connaissances des experts et leur intégration dans les systèmes d’aide à la décision peuvent aider les utilisateurs novices à mieux exploiter les données de contexte pour résoudre les différents problèmes. Cette question est au cœur de notre problématique de recherche comme il sera détaillé plus loin. L’industrie d’usinage est l’une des industries qui travaillent sur l’évolution vers des industries du futur avec un usage de big data. Dans cette industrie, l’expertise métier pointue des opérateurs contraste avec un manque de numérisation historique de ce type d’atelier. Ces travaux de recherche traitent les thématiques de la gestion des connaissances comme support d’aide à la décision dans le domaine de l’usinage des pièces mécaniques de forte valeur ajoutée. La section suivante détaille les caractéristiques principales de ce domaine.
Les enjeux de l’usinage mécanique
Le domaine de l’usinage a subi plusieurs améliorations depuis une trentaine d’années avec le passage de l’usinage conventionnel à l’usinage à grande vitesse. À l’époque de l’usinage conventionnel, l’automatisation des machines était très limitée et la présence d’un opérateur pour faire fonctionner la machine et la contrôler était primordiale. L’évolution informatique et l’apparition de l’électronique, ont permis de développer le domaine de l’usinage avec la création des Machines-Outils à Commande Numérique (MOCN) ainsi que la Fabrication Assistée par Ordinateur (FAO). La combinaison des MOCN et de la FAO est la base de ce que l’on nomme Usinage à Grande Vitesse (UGV). L’usinage à grande vitesse est un procédé de fabrication qui prend en entrée une matière brute et génère en sortie une pièce définie à travers l’enlèvement de la matière, en utilisant des outils coupants spécifiques. Contrairement à l’usinage conventionnel, l’UGV travaille avec des vitesses de coupes plus élevées. Utiliser l’UGV c’est améliorer la qualité des pièces, augmenter la productivité et donc assurer un gain du temps de production et finalement favoriser la possibilité de faire des pièces de plus en plus complexes. Quel que soit le type d’usinage, plus les pièces fabriquées sont complexes plus le risque de dégradation de l’état de la machine ou des outils est fréquent. Or, une telle dégradation implique une dégradation de la qualité de la pièce et dans la littérature, plusieurs travaux traitent des causes et des phénomènes qui peuvent affecter la qualité de l’usinage. Par exemple, de nombreux travaux s’intéressent à l’état de l’outil en traitent la détection ou le suivi de l’usure, la prédiction, et la détection des bris [Godreau, 2017 ; De Castelbajac, 2012]. L’étude de l’état de l’outil consiste à mesurer certaines de ses caractéristiques avant ou après l’opération d’usinage en utilisant des techniques d’analyse des signaux optiques ou laser. Si ces techniques permettent de contrôler l’outil après chaque usinage, elles restent limitées et ne peuvent pas renseigner sur l’évolution de l’usure pendant l’usinage. C’est pour remédier à cela que plusieurs recherches s’intéressent au contrôle en continu de l’usure à travers le calcul de plusieurs paramètres tels que les efforts ou le couple au niveau de différents composants : la broche, l’outil, le support-outil, ou même la pièce [Ritou et al., 2007 ; Kuljanic, 2009]. L’outil coupant n’est pas le seul à rentrer en compte dans la qualité finale de l’usinage et d’autres travaux s’intéressent à l’état de la broche ou de la MOCN dans son ensemble. Concernant la broche, les études réalisées s’appuient surtout sur l’étude de la fonction de rotation, par exemple l’étude de l’état des roulements. En effet, plus ces roulements se dégradent, plus les vibrations augmentent. L’analyse vibratoire est donc un moyen de déduire l’état de ces roulements [De Castelbajac, 2012]. Concernant la machine elle-même, d’autres travaux s’intéressent à la mesure de la puissance et du courant d’alimentation des axes d’avance, qui permettent le déplacement de la broche [Furet, 1994]. Toute dégradation de l’outil ou de la broche a comme conséquence l’apparition de défauts de surface sur la pièce usinée. La mesure et le contrôle de l’intégrité de la surface, en cherchant par exemple la présence de traces de broutement, représente aussi l’une des thématiques de recherche les plus prometteuses dans ce domaine [Ritou et al., 2018]. La figure 1 montre deux exemples réels de phénomènes, très fréquents en usinage, le « bris d’outil » et le « broutement ».
DE LA DONNEE AUX CONNAISSANCES
La quatrième révolution industrielle a favorisé l’émergence de nouvelles technologies dans le domaine industriel, ce qui a généré une profusion de données et de connaissances. Ces nouvelles ressources utilisées sont si différentes et complexes qu’elles impliquent une grande variabilité de types, de fréquences et de formats des flux d’informations qu’elles produisent. Pour suivre la distinction entre les données et les connaissances, nous nous appuyons dans cette partie sur le modèle DIKW (Data, Information, Knowledge, Wisdom, en français Données, Information, Connaissance, Sagesse/compétence), l’un des plus utilisés dans le domaine de la science de l’information et de la gestion des connaissances. Ce modèle est généralement représenté par une pyramide (figure 7) de quatre niveaux fortement liés (le dernier niveau ne peut pas être atteint sans passer par le processus de transformation des autres niveaux). Dans la littérature, plusieurs travaux se sont basés sur ce modèle pour expliquer le processus de passage de la donnée aux connaissances [Ackoff, 1989 ; Zins, 2007 ; Rowley, 2007 ; Fricke, 2009 ; Ermine et al., 2012 ; Baskarda et Koronios, 2013 ; Allen, 2017]. Plusieurs définitions ont été introduites dans la littérature pour définir les concepts de donnée et de connaissance, elles sont plus ou moins pertinentes en fonction du domaine d’étude. Parmi celles-ci, nous retenons celles qui correspondent à nos problématiques et qui font consensus dans la littérature. La donnée est le reflet symbolique de nombres, quantités, grandeurs ou faits. Lorsque [Jashapara, 2005 ; Choo, 2006 ; Rowley, 2007] dressent un état de l’art sur le modèle DIKW, ils s’attardent sur les travaux de [Weggeman, 1997] traitant de la notion de données. Ces chercheurs ont travaillé sur l’extension du modèle DIKW en ajoutant une nouvelle catégorie de concepts qui est à l’origine de la donnée : le signal. Il est considéré comme la représentation directe de la réalité perçue. Le signal peut être traité par les sens humains, ou encore acquis par des capteurs spécifiques pour générer la donnée. L’information est une donnée placée dans un contexte [J.L.C. Kemp, 1999]. Elle est aussi définie comme étant la donnée pertinente, utilisable, significative, utile ou traitée [Rowley, 2007]. [Ackoff, 1989] affirme que le passage de la donnée à l’information doit se construire en se posant les questions suivantes : « qui », « quoi », « où », « quand », ou « combien ». La connaissance est l’information qui prend un (ou plusieurs) sens dans un (ou plusieurs)contexte(s) à travers les acteurs de l’entreprise [Ermine, 2000a]. Selon [Murray, 1996], la connaissance répond au « quoi » tout comme l’information, mais répond également au « pourquoi » et au « comment ». [Prax, 2000] pense que « la connaissance résulte d’une acquisition d’information et d’une action, elle est à la fois mémoire et processus de construction d’une représentation ». La dénomination ou la notion du dernier niveau de la pyramide varie beaucoup en fonction de la discipline. On parle ainsi de sagesse en philosophie du numérique, ce qui sort du périmètre de ces travaux. D’autres distinguent plutôt la notion de compétence qui se rapproche de notre contexte de recherche. Nous traitons plutôt des notions d’intelligence, de savoir-faire, de savoir agir et d’expertise : ces concepts se basent tous sur la connaissance. Par exemple l’intelligence est acquise grâce à l’accumulation de connaissances et à la sagacité nécessaire permettant de prendre les bonnes décisions. [Le Boterf 2000] précise que la compétence est synonyme de « savoir agir », qui signifie « la capacité de répondre à des prescriptions ouvertes dans des situations professionnelles plus larges et plus complexes ». Cet auteur définit également le savoir-faire, qui est relatif à la capacité d’effectuer une opération prescrite dans une organisation plutôt taylorienne.Dans ce projet de recherche, les connaissances sont aussi importantes que les données, et afin d’assurer une classification optimale des connaissances, il est important de détailler les principaux types de connaissance.
Les ontologies de références
Dans un domaine spécifique, le plus simple est le recours à l’utilisation des ontologies de références [Annamalai et al., 2011 ; Borsato 2014 ; Song et al., 2013], considérées comme des ontologies de domaine d’un niveau très générique, elles sont souvent le résultat d’une fusion entre plusieurs ontologies spécifiques [Palmer et al., 2018]. Dans la littérature, il existe plusieurs exemples de ces ontologies de référence, par exemple : DOLCE [Masolo et al., 2004 ; Sanfilippo & Borgo, 2015] SUMO [Oberle et al., 2007] ou BFO [Arp et al., 2015]. D’autres ont eu recours à l’utilisation des normes pour le développement des ontologies, par exemple : OntoSTEP [Krima et al., 2009] en se basant sur la norme STEP (Standard for the Exchange of Product model data), ou encore « l’ontologie PSL » basée sur le langage de spécification des processus. PSL a été conçue pour faciliter l’échange correct et complet d’informations sur les processus entre les systèmes de fabrication, tels que l’ordonnancement, la modélisation des processus, la planification des processus, la planification de la production, la simulation, la gestion de projet, le flux de travail et la réingénierie des processus d’entreprise [Schlenoff et al.,2000 ; Gruninger and Kopena 2005]. Il existe plusieurs fondations dont l’objectif est de centraliser la recherche sur le développement d’ontologies dans chaque domaine spécifique. Dans le domaine de la fabrication numérique,l’Industrial Ontologies Foundry (IOF) tente de créer un ensemble d’ontologies de référence centrales et à accès libre qui couvrent l’ensemble du domaine [Kulvatunyou et al. 2018]. L’analyse de la littérature permet de distinguer plusieurs travaux qui utilisent les ontologies pour la modélisation des connaissances dans le domaine de la fabrication et la production de façon générale. Quelques exemples sont détaillés dans la partie suivante.
Processus de SAD
[Drucker, 1956 ; Simon,1965 ; Archer, 1980] définissent 3 phases primordiale pour le processus de prise de décision. La première est la phase d’intelligence qui s’occupe essentiellement de la définition de la problématique. La deuxième intermédiaire pour la structuration et la définition des liens entre les problèmes et les solutions proposé est la phase de conception et modélisation. Et enfin, une dernière phase, la phase du choix, permet la prise de décision et la proposition de solution finale validée. [Mintzberg et al., 1976] définissent ces trois phases comme l’identification, le développement et la sélection. En se basant sur ces 3 phases, plusieurs autres travaux continuent jusqu’à aujourd’hui à travailler sur la définition des étapes du processus d’aide à la décision. Les recherches les plus citées restent celles de [Shim et al., 2002] qui définissent les 7 étapes représentées par la figure 19. Pour [Shim et al., 2002], les premières étapes traitent l’identification du problème. Face à chaque problème, logiquement il existe une ou plusieurs méthodes d’élimination ou d’évitement de l’apparition. Pour proposer ces différentes alternatives il est important de développer des modèles bien précis qui définissent les relations entre les problèmes et les solutions proposées ainsi que l’ensemble des paramètres complémentaires et les règles métiers. Ainsi, ceci facilite la phase d’analyse alternative : il suffit de choisir la solution ou la décision adéquate pour pouvoir l’implémenter dans la dernière étape.
Terminologie de la défaillance
Vu la variété des domaines industriels, les terminologies relatives à ces problèmes sont très variables. Le comité technique de l’IFAC est néanmoins parvenu à des définitions et des terminologies standardisées. On distingue ainsi les notions suivantes :
• Un défaut est une déviation non autorisée d’au moins une propriété caractéristique de son état acceptable, habituel et standard. L’écart non autorisé est la différence entre la valeur du défaut et le seuil de dépassement d’une zone de tolérance pour sa valeur habituelle. Un défaut est un état dans le système ;
• Une défaillance est une interruption permanente de la capacité d’un système à exécuter une fonction requise dans des conditions de fonctionnement spécifiées. Une défaillance est un événement, qui résulte d’une ou de plusieurs défauts, survenant généralement après le début de l’exploitation ou par une sollicitation croissante du système ;
• Un dysfonctionnement est une irrégularité intermittente dans l’accomplissement de la fonction souhaitée d’un système. Un dysfonctionnement est une interruption temporaire, est considéré comme un événement, résulte d’une ou plusieurs défaillances.
Les défauts présentent généralement un comportement caractéristique pour les différents composants. Ils peuvent être distinguées par leur forme, leur comportement temporel ou leur étendue. La forme peut être systématique ou aléatoire. Le comportement temporel peut être décrit par un comportement permanent, transitoire, intermittent, par le bruit ou la dérive. L’étendue des défauts est soit locale, soit globale et comprend la taille. Le matériel électronique présente des défauts dits systématiques lorsqu’ils proviennent d’erreurs de spécification ou de conception. Une fois en fonctionnement, les défauts des composants matériels sont le plus souvent aléatoires, avec toutes sortes de comportements temporels. Les défauts ou erreurs dans les logiciels (bugs) sont généralement systématiques, par exemple à cause d’une mauvaise spécification, d’un mauvais codage, d’une mauvaise logique, de débordements de calculs, etc. Ils ne sont généralement pas aléatoires contrairement aux défauts du matériel. Les défaillances des systèmes mécaniques peuvent être classées selon les mécanismes de défaillance suivants : distorsion (flambage, déformation), fatigue et fracture (fatigue cyclique, fatigue thermique), usure (abrasive, adhésive, cavitation) ou corrosion (galvanique, chimique, biologique), voir par exemple [Morris et al. 1995 ; Brown 2007]. L’amélioration de la productivité et la satisfaction de la clientèle sont les premières préoccupations de n’importe quel système industriel. Or, l’occurrence des défaillances au moment de la fabrication peut freiner le rendement de l’industrie. Par conséquent, le recours à l’analyse et la compréhension de l’origine des défaillances est une technique très répandue dans ce domaine et ceci à travers la mise en place des processus de diagnostic.
|
Table des matières
CHAPITRE 1 : Contexte et problématique
I.1 Introduction du chapitre
I.2 Contexte général de la recherche
I.2.1. L’industrie 4.0
I.2.2. Le recours au Big Data pour l’Industrie 4.0
I.2.3. La prise de decision dans le contexte d’Industrie 4.0
I.2.4. Les systèmes d’aide à la décision
I.3 Le contexte de la thèse : l’usinage mécanique à grande vitesse
I.3.1. Les enjeux de l’usinage mécanique
I.3.2. La surveillance de l’usinage
I.3.3. Les problèmes de rupture de la chaine numérique
I.3.4. Le projet SmartEmma
I.4 Positionnement et problématiques de recherche
I.5 Démarche scientifique
I.5.1. Analyse
I.5.2. Recueil
I.5.3. Modélisation
I.5.4. Implémentation
Conclusion du chapitre
CHAPITRE 2 : État de l’art – la gestion de la connaissance pour l’aide a la decision
II.1 Introduction du chapitre
II.2 De la donnée aux connaissances
II.3 Principaux types de connaissances
II.4 La gestion des connaissances
II.4.1. Le cycle de la gestion des connaissances
II.4.2. Le recueil de données et de connaissances
II.5 Modélisation des données et connaissances
II.5.1. Notion de Modèle et de modélisation
II.5.2. Modélisation des connaissances
II.5.2.1. Définitions
II.5.2.2. Structuration du modèle des connaissances
II.5.3. Les approches de modélisation
II.5.4. Exemples de modèles de connaissances
II.5.4.1. Le modèle d’information et de connaissance des moyens de la fabrication (MFIKM)
II.5.4.2. Les modèles des normes et des standards
II.5.5. Les ontologies pour la modélisation et la gestion des connaissances
II.5.5.1. Les ontologies de références
II.5.5.2. Exemples d’ontologie pour la modélisation des connaissances
II. 6 Les systèmes d’aide à la décision
II.6.1. Processus de SAD
II.6.2. Les Différentes catégories de SAD
II.6.3. Les systèmes d’aide à la décision à base de connaissances (SADBC)
II.6.3.1. Le raisonnement à base des connaissances (KR)
II.6.3.2. Les SADBC pour les industries de fabrication
II.6.3.3. Les systèmes de RBR
II.6.3.4. Les systèmes de RàPC
II.6.4. L’aide à la décision pour le diagnostic
II.6.4.1. Terminologie de la défaillance
II.6.4.2. Le Diagnostic des défaillances
II.7 Limitation et questions de recherches
Conclusion du chapitre
CHAPITRE 3 : Une approche d’aide à la décision basée sur des données et des connaissances
III.1 Introduction du chapitre
III.2 Rappel et prérequis sur les axes d’aide à la décision
III.3 Architecture de SAD à base de connaissances
III.3.1. Approche de distribution des bases de données et de connaissances
III.3.2. Le processus de diagnostic : une adaptation du Raisonnement à Partir de Cas
III.3.2.1. Construction et concepts
III.3.2.2. Fonctionnement
III.4 Métamodèle des connaissances
III.4.1. Structuration d’un « cas » de diagnostic
III.4.2. Reporting et modèle de traçabilité
III.5 Structuration des données et connaissances industrielles
III.5.1. Modélisation de la situation AS-IS
III.5.2. Méthodologie de développement des modèles
III.5.3. Classification et modélisation des données
III.5.3.1. Structuration des données Brutes
III.5.3.2. Structuration des données Smart
III.5.3.3. Structuration des Bibliothèques : recours à la littérature et aux normes
III.5.3.4. Capitalisation des KPI
III.5.3.5. Construction des règles métiers
Conclusion du chapitre
CHAPITRE 4 : Démonstrateur et besoins d’implémentation
IV.1 Introduction du chapitre
IV.2 Description du démonstrateur SmartEmma
IV.2.1. Définition de système multi-agents
IV.2.2. Architecture fonctionnelle de la solution multi-agents dans SmartEmma
IV.2.2.1. Liste des agents
IV.3 Le périmètre des implémentations
IV.3.1. Développement de la base de traçabilité
IV.3.2. Développement de la base de connaissances : recours aux ontologies
IV.3.2.1. Première couche
IV.3.2.2. Deuxième couche
IV.3.2.3. Troisième couche
IV.4 Aspects techniques et interface utilisateur (IU)
Conclusion du chapitre
CHAPITRE 5 : Implémentation dans le cadre du Projet SmartEmma
V.1 Introduction du chapitre
V.2 Implémentation de l’approche dans le domaine de l’usinage
V.2.1. Principe de l’implémentation
V.3 Premier scénario de diagnostic
V.4 Deuxième scénario de diagnostic
V.4.1. Présentation du scénario
V.4.2. L’algorithme de diagnostic
V.5 Vers une généricité de l’approche proposée : Application au domaine de la restitution numérique archéologique
V.5.1. Étude de cas : une forge du XVIIIe siècle
V.5.1.1. Contexte historique
V.5.1.2. Une roue à aubes et son axe
V.5.1.3. Mise en œuvre de notre approche
Conclusion du chapitre
Conclusion et Perspectives
Liste des publications
Bibliographie
Annexes
Télécharger le rapport complet