Télécharger le fichier pdf d’un mémoire de fin d’études
CARACTERISTIQUES DE L’OPERATEUR HUMAIN
L’opérateur humain, élément évidemment essentiel dans un système homme-machine, est au centre de nombreuses études. Ces études sont entreprises particulièrement par des chercheurs issus des sciences cognitives. Ceux-ci tentent d’en définir les caractéristiques et il importe que les concepteurs d’outils d’assistance puissent les considérer avec attention. D’après DE KEYSER (1987), Il existe plusieurs manières de caractériser l’opérateur humain : comme un système de communication, comme un régulateur, comme un décideur statique ou encore comme un processeur d’information :
– L’homme comme un système de communication. Dans ce cas, l’homme est considéré comme un système dont le rôle est de coder et décoder l’information. Cette caractérisation de l’homme est la plus ancienne qui existe. En effet, elle est issue des travaux de SHANNON et WEAVER (1949) sur la théorie du traitement de signal. Ces auteurs notent cependant que l’homme a une capacité limitée. Cette façon de considérer l’opérateur humain trouve très vite ses limites, car elle exclut les aspects subjectifs contenus dans l’information et plus particulièrement la signification de l’information (DE KEYSER, 1987). Cette caractérisation a été exploitée lors de différents travaux visant la modélisation d’un opérateur humain, tels ceux relatifs au modèle MESSAGE (TESSIER, 1984 ; BOY, 1986) qui sera commenté dans le paragraphe II.3, ainsi que dans le chapitre suivant, paragraphe VIII.3).
– L’homme comme un régulateur. L’opérateur est considéré, dans ce cas, comme un servo-mécanisme. Il ajuste des conduites pour réduire un éventuel écart entre l’objectif assigné et l’objectif réalisé (FAVERGE, 1972). L’opérateur humain doit, par exemple, ajuster l’ouverture d’une vanne, pour combler les écarts par rapport à la consigne d’une variable du processus. Notons ici que ce type de caractérisation de l’opérateur humain n’existe presque plus car comme LEJON (1991) le suggère, cette tâche est souvent relativement facile à automatiser.
– L’homme comme décideur. Cette caractéristique sera toujours présente chez l’opérateur humain. En effet, dans des conditions particulières, l’opérateur doit identifier les différentes alternatives possibles en termes de solution à un problème. Par la suite, il doit évaluer le coût de chaque solution. Ce coût peut être évalué de façon très différente d’un opérateur à l’autre. Enfin, il doit se décider sur le choix d’une solution ou d’une action. Cette caractérisation est à la base de certains travaux de modélisation de l’opérateur humain, tels ceux de CACCIABUE et al. (1990) ou encore STASSEN (1986).
– L’homme comme processeur d’information. Une certaine analogie entre l’homme et l’ordinateur en tant qu’entités traitant de l’information est à l’origine de cette caractérisation de l’opérateur humain. Cette analogie a été notamment développée par ROUSE (1980) dans des modèles « de files d’attente » où il compare l’homme à un ordinateur traitant de l’information en temps partagé, c’est-à-dire capable d’exécuter plusieurs tâches en échantillonnant son attention sur chacune d’elles. CARD et al. (1983) s’inspirent de cette caractérisation de l’opérateur pour définir le modèle KEYSTROKE.
Dans un contexte de contrôle d’un procédé industriel, on peut mettre en avant sans souci d’exhaustivité certaines caractéristiques de l’opérateur humain, à considérer avec attention :
– Le travail en séquence. Les opérations de lecture d’instrumentations, d’interprétation de ces lectures et d’élaboration des stratégies de reprise se font successivement et non de façon parallèle (ROUHET, 1988). Ainsi, afin d’aider l’opérateur, des systèmes de synthèse d’information peuvent être mis à sa disposition. Nous pouvons citer à ce sujet le système décrit par ROUSE et al. (1982) : celui-ci assiste un pilote effectuant une procédure d’action, en lui présentant simultanément sur un écran alphanumérique l’ensemble des informations qu’il doit considérer, facilitant ainsi ses opérations de traitement d’information.
– Le besoin constant d’information. Le cerveau humain ressent très mal l’absence d’information sur son écran de contrôle, et de ce fait, il cherche à en recueillir par tous ses capteurs disponibles (WANNER, 1987).
– La compensation de l’augmentation de difficulté d’une tâche par une augmentation de l’activité humaine. Lors de l’exécution de sa tâche, l’opérateur humain investit une fraction de sa capacité de travail pour faire face à la charge de travail induite par cette tâche. Or toute augmentation de la charge de travail se traduit par une augmentation de l’activité humaine ou par la modification des modes opératoires, ceci afin d’éviter de saturer la capacité du canal humain (MILLOT, 88).
– La possession d’une représentation mentale. L’opérateur raisonne à partir d’une représentation mentale personnelle du système qu’il supervise ; il utilise un modèle mental associant les réponses que le système fournit aux actions qu’il reçoit (voir à ce sujet OCHANINE, 1971 et WANNER, 1987). Il importera donc que l’interface homme-machine lui facilite la construction de ce modèle mental.
– L’incapacité de l’homme d’estimer les risques encourus dans une situation donnée. Dans certains cas, en essayant d’augmenter la rentabilité de son système, l’opérateur en arrive à transgresser des consignes de sécurité ou à modifier leurs règles d’emploi en réduisant leurs marges. La mise en place d’un système pouvant prédire l’évolution du processus, même si la prédiction n’est pas parfaite ou incomplète, peut aider l’opérateur dans ce type de situation (VAN DER VELDT et VAN DEN BOOMGAARD, 1986).
On tend de plus en plus à constater que « moins nombreux sont les hommes sur une installation automatisée, plus important est leur rôle et plus lourdes de conséquences sont leurs décisions et leurs actions sur l’efficacité du système » (DECOSTER, 1988). Comme on l’a souligné, les tâches de l’opérateur dans un système de plus en plus automatisé sont devenues essentiellement des tâches mentales. Celles-ci font l’objet de nombreuses études, et des chercheurs s’intéressent particulièrement aux nécessités suivantes : comprendre, surveiller, apprendre, interpréter, planifier et intervenir (HOC, 1990 ; WANNER, 1987, etc). Elles sont résumées sur la figure I.2.
– L’opérateur doit comprendre chaque information qui lui est présentée, son codage, sa signification ainsi que le contenu informationnel qu’elle apporte. Il est donc nécessaire d’adapter l’imagerie, et en particulier les synoptiques de l’interface homme-machine, afin de permettre à l’opérateur de mieux prendre conscience du processus physique et par voie de conséquence de mieux le maîtriser (LEJON, 1991). Notons que si l’opérateur comprend une situation donnée, il va acquérir une certaine connaissance de cette situation, ce qui lui permet d’apprendre.
– Il a à surveiller toutes les variations qui s’opèrent au niveau des variables caractéristiques du procédé à superviser. Afin d’aider l’opérateur dans ce type de tâche, une hiérarchisation des alarmes est par exemple nécessaire. Dans ce contexte, ANDOW (1980) décrit un système capable de présenter à l’opérateur l’ensemble des alarmes actuelles en les regroupant en plusieurs sous-ensembles disjoints, ces sous-ensembles étant classés selon le degré de gravité engendré par l’alarme. De plus, chaque sous-ensemble comprend en tête de liste l’alarme principale, puis l’ensemble des alarmes qui en sont la conséquence. Ce type d’assistance est connu sous le nom de système de filtrage d’alarme. En surveillant les paramètres du processus, l’opérateur doit pouvoir facilement interpréter les différentes informations qui lui sont présentées, ce qui lui permettra notamment de comprendre la situation dans laquelle fonctionne le processus.
APPROCHES DE MODELISATION DE L’OPERATEUR HUMAIN
Pour rendre l’assistance à l’opérateur meilleur, il est nécessaire d’aménager ergonomiquement le poste de travail de l’opérateur. Cependant, si certains aménagements peuvent être identifiés de façon empirique, ce n’est pas le cas dans des tâches complexes à forte composante mentale (MILLOT, 1988). En effet, celles-ci nécessitent un aménagement ergonomique du logiciel concernant, notamment, le mode de présentation, la sélection et la cadence des informations échangées en fonction des tâches à exécuter et du contexte opérationnel du procédé. L’ergonome doit avoir donc une connaissance ou un modèle des processus mentaux impliqués dans les différentes activités induites par la tâche. Il doit aussi savoir comment ces processus mentaux s’enchaînent les uns par rapport aux autres. De plus, il faut comprendre ce que l’opérateur est en train de faire afin de pouvoir, éventuellement, corriger certaines des erreurs humaines. Pour toutes ces raisons, des études sont activement menées. Le but de celles-ci est de définir des modèles normatifs de comportement d’un ensemble d’opérateurs, dans des contextes bien particuliers, car sans les considérations du facteur humain, l’utilisation de tout système va nécessiter un temps d’apprentissage ou d’entraînement des utilisateurs très important et peut conduire, dans certains cas limites, à une non utilisation du système qui sera alors abandonné (DE KEYSER, 1988 ; WALSH et al. 1989).
En résumé, on part d’une hypothèse de comportement de l’opérateur (une norme) et on recherche un outil permettant de représenter, voire de simuler, ce comportement (MILLOT, 1988).
Ainsi, dans un but final de conception de systèmes d’assistance adaptés aux besoins de l’opérateur, il est nécessaire d’étudier le comportement décisionnel de celui-ci et de parvenir à la définition de modèles représentatifs. Des recherches se sont donc orientées ces dernières années vers des modèles cognitifs. Sans souci d’exhaustivité, nous résumons dans ce paragraphe les principes de plusieurs approches de modélisation.
Le modèle qualitatif de résolution de problème de Rasmussen (1980), figure I.3, a constitué une ouverture très importante dans la modélisation de l’opérateur humain.
Ce modèle décrit le comportement d’un opérateur impliqué dans des tâches de supervision et de résolution de problèmes. Il propose quatre étages décisionnels : la détection d’un événement anormal suite à l’apparition d’une alarme ou à la détection d’un certain seuil (A1), l’évaluation de la situation afin identifier l’état du procédé qu’il supervise (A2, A3 et A4), la prise de décision (A5, A6) et l’exécution des actions résultantes (A7). On remarque sur la figure l’existence de raccourcis lors de la résolution de problèmes.
CLASSIFICATION DES SYSTEMES D’ASSISTANCE
Le champ de recherche consacré aux problèmes de l’assistance effective à apporter à l’opérateur humain dans les salles de contrôle de procédés industriels est très vaste. La tendance actuelle consiste à les assister d’outils faisant généralement appel à des techniques de l’Intelligence Artificielle tels que les systèmes experts (BOY, 1988A). En effet, ces systèmes sont capables de s’adapter à un grand nombre de situations de conduite, en faisant appel à des heuristiques modélisées dans leurs bases de connaissance. De nombreux chercheurs travaillent dans le domaine de l’assistance à l’opérateur, et il n’est pas possible de décrire tous les travaux existants. Notre objectif est ici de rappeler certains principes de base relatifs à l’assistance à l’opérateur, et ceci afin de mieux situer nos travaux. Pour aller plus loin dans le domaine de l’assistance à l’opérateur, le lecteur se référera par exemple aux travaux de BOY (1988A; 1988B, 1990), SHALIN et ses collègues (1988 ; 1990), AMALBERTI et ses collègues (1991 ; 1992) ou encore ROTH, BENNETH et WOODS (1988).
Cependant, quel que soit l’outil d’assistance développé, il doit répondre à un certain nombre de critères tels que :
– Etre capable de guider l’opérateur de façon fiable vers les problèmes à résoudre, en synthétisant les informations pertinentes (TABORIN, 1989).
– Aider les opérateurs dans les situations d’urgence, en leur fournissant des informations sur l’état de fonctionnement du processus et en leur donnant des conseils d’actions.
– Favoriser la capacité de prévision des opérateurs (ROUSE, 1973), en mettant à leurs disposition des affichages prédictifs, même si la prédiction n’est pas parfaite (VAN DER VELDT et VAN DEN BOOMGAARD, 1986),
– etc.
La liste des systèmes d’assistance, qui tendent à être implantés progressivement dans les salles de contrôle de procédés industriels, s’allonge de jour en jour. Il s’agit maintenant de recenser et classifier ces différents types de systèmes d’assistance. L’implantation de ces systèmes d’assistance dans les salles de contrôle doit conduire à une réorganisation des tâches de l’opérateur et du calculateur, afin d’aboutir à une meilleur coopération entre eux, une des premières phases d’implantation de ces systèmes d’assistance étant consacrée au mode d’intégration de ces systèmes dans le système global de supervision (TABORIN, 1989).
A cet effet, FININ et KLEIN (1987) proposent une classification de différents systèmes d’assistance, tableau I.1, selon leurs possibilités d’intégration dans les systèmes de supervision.
Quatre classes de systèmes, les consultants, les servants, les agents et les contrôleurs sont successivement décrites. Puis, deux classes supplémentaires sont proposées.
SYSTEMES DE DIALOGUE HOMME-MACHINE EVOLUES
Comme l’a précisé le chapitre précédent, les systèmes homme-machine se sont développés ces dernières années entraînant des changements profonds au niveau des systèmes de contrôle et de supervision. Ces changements ont entraîné une réorganisation des rôles de l’homme et de la machine. Alors que les tâches de bas niveau sont laissées à l’automatisme, on a attribué à l’opérateur humain des tâches hautement cognitives. Dans ces conditions, les systèmes d’assistance mis à la disposition de l’opérateur peuvent lui offrir une aide précieuse.
Le problème du dialogue entre ces systèmes d’assistance et l’opérateur humain occupe une place très importante dans l’élaboration des systèmes homme-machine. Une solution à ce problème consiste en la mise en oeuvre d’une interface « évoluée ».
Il existe plusieurs principes d’interface capables de mieux aider les opérateurs dans leur dialogue avec les systèmes d’assistance ou le procédé. Cependant, la notion d’interface « évoluée » provient d’un grand nombre de propositions dans la littérature, pour caractériser les interfaces utilisant la notion « d’intelligence », ou encore les systèmes d’aide à la décision « intelligents » intégrant un système de gestion de l’interface utilisateur. L’interface évoluée se charge exclusivement du problème de dialogue entre l’opérateur humain et l’ensemble des partenaires du système homme-machine.
On rencontre dans la littérature des approches d’interfaces évoluées sous la forme d’interface flexible, d’interface tolérante aux erreurs humaines, d’interface experte, d’interface adaptative, d’opérateur assistant, d’agent intelligent, d’interface hypermédia ou encore d’interface écologique. Cette liste n’est évidemment pas exhaustive, mais se veut représentative des approches originales rencontrées. Dans ce chapitre, nous présentons successivement un ensemble d’approches en décrivant le principe de chaque type d’interface, sa structure informatique générale et un exemple représentatif d’application.
Systèmes de Dialogue Homme-Machine évoluées
LES INTERFACES FLEXIBLES
PRINCIPE
Le concept d’interface flexible est apparu dans la littérature durant les années 80. Il vise à permettre l’utilisation d’un même support de dialogue pour communiquer avec plusieurs systèmes différents.
L’opérateur peut configurer l’interface et ses supports selon des critères personnels subjectifs : préférences dans les modes de présentation et/ou les styles d’interaction (WILLIGES et al., 1987). Une interface de ce type peut également être qualifiée de « configurable » ou « d’adaptable ».
STRUCTURE GENERALE
Une interface flexible est composée généralement d’un ensemble de bases de données exploitées par un gestionnaire de présentation (que l’on peut retrouver également sous la dénomination « presentation manager » dans la littérature anglophone). Ce gestionnaire de présentation est piloté par l’opérateur humain selon l’application visée. Les connaissances requises pour une interface flexible sont regroupées généralement dans 3 bases de données, Figure II.1 :
– La première base contient l’ensemble des protocoles de communication avec les différentes applications constituant l’environnement de travail de l’opérateur, car généralement chaque application possède son propre système de communication. Cette base est définie a priori par le concepteur.
– La deuxième base contient les modes de présentation (couleurs, tailles de fenêtres, etc) et les différents styles d’interaction accessibles aux utilisateurs de l’interface. Cette base est définie a priori par le concepteur.
– La troisième base, spécifique à chaque utilisateur du système global, contient les préférences de chaque opérateur dans les modes de présentation et/ou dans les styles d’interaction. Ces préférences dépendent souvent de leurs propres habitudes. Cette base est modifiable par l’utilisateur.
Ainsi, en sélectionnant l’application, l’opérateur sélectionne implicitement, grâce au sélecteur d’application, le protocole de communication adéquat. Il peut alors dialoguer avec l’application à travers une interface déjà configurée mais assez flexible pour être reconfigurée de façon simple, et à tout moment par l’opérateur.
EXEMPLE D’UNE INTERFACE FLEXIBLE
Une étude de MULLER (1988) porte sur l’élaboration d’une interface flexible permettant l’utilisation de plusieurs outils d’Intelligence Artificielle (IA) et l’accès à plusieurs bases de données. Ces outils d’IA et ces bases de données sont répartis sur un réseau de trois ordinateurs non compatibles du point de vue de leur exploitation, figure II.2. Le problème consistait ici à trouver un moyen d’accéder aux bases de données et aux outils d’Intelligence Artificielle de ces ordinateurs de manière à ce que cette opération reste transparente pour l’utilisateur, car en effet, pour utiliser une ressource d’un ordinateur, l’utilisateur aurait dû connaître au moins quelques instructions du système d’exploitation de celui-ci.
La solution proposée par MULLER consiste en l’utilisation d’une interface flexible gérée par un ordinateur intermédiaire. Si l’opérateur veut accéder à l’ordinateur 1 à travers l’ordinateur intermédiaire, celui-ci se charge alors d’émuler l’ordinateur 1, grâce aux bases de connaissance et de données qu’il possède. Il en est de même pour les deux autres ordinateurs. De ce fait, quelle que soit la destination de la requête de l’opérateur, celle-ci sera toujours exprimée de la même façon. Ainsi, la tâche de l’opérateur est simplifiée car il peut utiliser les mêmes instructions et la même interface de dialogue pour questionner n’importe quel ordinateur de ce réseau. Il peut de plus modifier certaines caractéristiques du dialogue homme-machine.
EXEMPLE D’INTERFACE TOLERANTE AUX ERREURS HUMAINES
Les travaux visant la réalisation d’interfaces tolérantes aux erreurs humaines se basent généralement sur des recherches menées en fiabilité humaine parvenant à des typologies d’erreurs humaines, telles celles proposées par RASMUSSEN (82), ROUSE et ROUSE (1983), LEPLAT (1985), RASMUSSEN et VICENTE (1987), etc. Le système RESQ, décrit par HOLLNAGEL (1989), est capable de détecter en ligne des erreurs humaines, dans un domaine bien ciblé. Il intègre des méthodes d’identification et d’évaluation de plans d’actions ainsi que d’élimination d’erreurs.
RESQ est un des composants du système développé dans le cadre du projet GRADIENT (Projet Esprit #857). Un des buts du projet est de réaliser un système d’assistance « intelligent » pour le contrôle de procédés industriels complexes de type centrale d’énergie. RESQ utilise des techniques de reconnaissance de plans afin d’assister l’opérateur de contrôle. RESQ supervise les actions de l’opérateur afin de détecter les situations où celles-ci s’avèrent incohérentes ou incorrectes vis-à-vis des buts de l’opérateur, par exemple : quand l’opérateur oublie une action commencée dans le passé, quand l’exécution de l’action est retardée, quand plusieurs actions sont exécutées en même temps, etc.
Le système RESQ est constitué de 5 modules principaux, figure II.5 :
– L’identificateur des plans détermine, en utilisant la bibliothèque de plans, dans quel plan l’action de l’opérateur se situe.
– L’évaluateur des plans utilise des règles pour classer les différents plans identifiés, selon leur probabilité d’être utilisés.
– Un Blackboard contient un ensemble de données caractérisant la meilleure estimation de ce que l’opérateur est en train de faire : le nom du plan courant, les buts de ce plan, les actions déjà exécutées de ce plan et la prochaine étape probable du plan.
– Le Gestionnaire de l’erreur calcule l’importance de l’erreur et détermine si oui ou non il faut informer l’opérateur et lui demander d’intervenir pour corriger l’erreur. Ce module est aussi capable de fournir à l’opérateur les causes de son erreur, en utilisant une base de connaissance gérant les actions de celui-ci.
– La Bibliothèque des plans contient l’ensemble des plans supposés connus par l’opérateur. Un plan est constitué par un ensemble d’actions, un but et des contraintes. Le but est atteint quand l’ensemble des actions est achevé sous les contraintes spécifiques à ce plan.
D’après HOLLNAGEL, la mise en oeuvre et l’évaluation de RESQ ont donné des résultats prometteurs, ce qui ouvre des perspectives d’utilisation dans de nombreux autres domaines. Néanmoins, l’idée doit être encore affinée avant d’envisager son transfert industriel, en particulier en profitant des avancées récentes et attendues de l’Intelligence Artificielle Distribuée (IAD) et notamment des travaux sur la génération de plans (MANDIAU et al., 1991B). De plus un tel système pourrait être complété par un mécanisme d’Apprentissage Automatique pour enrichir la bibliothèque de plans.
Le système RESQ est représentatif des approches actuelles contribuant à la tolérance d’erreurs humaine. Plusieurs autres approches existent dans la littérature. Par exemple, ASTRÖM (1991) propose des idées issues de l’intelligence artificielle, comme les systèmes à base de connaissance, les réseaux neuronaux, l’apprentissage, la simulation qualitative et les techniques du contrôle flou pour gérer intelligemment les commandes d’un procédé.
EXEMPLE D’INTERFACE EXPERTE
Cette approche d’interface est utilisée dans un projet appelé IR-NLI (Information Retrieval – Natural Language Interface), dont le but est la réalisation et l’expérimentation d’interfaces « intelligentes », dans les systèmes de recherche en ligne de documents (GUIDA et TASSO, 1982 ; BRAJNIK et al. 1988). Dans cette application, « le gestionnaire des modèles de l’utilisateur » possède plusieurs rôles :
• la gestion des interactions avec les autres modules de l’interface ;
• la classification des répétitions, sur laquelle est basée la construction et la maintenance des modèles des utilisateurs ;
• la gestion de toutes les opérations de lecture et écriture dans des modèles d’utilisateur, au cours des activités de construction, de maintenance ou d’exploitation de ces derniers.
Le « le gestionnaire des modèles de l’utilisateur » utilise, pour ces différentes opérations :
– une base de connaissance de stéréotypes contenant des connaissances nécessaires à l’activité de modélisation des utilisateurs;
– une base de données sur les utilisateurs, contenant le modèle le plus récent de chaque utilisateur ayant accédé à l’interface ;
– une base de données de l’historique des différentes sessions d’utilisation de l’interface pour chaque utilisateur.
Les résultats de cette étude montrent que l’avantage d’une telle interface est, non seulement d’étendre l’utilisabilité d’un système complexe, mais aussi de façon plus importante d’améliorer (1) la qualité de l’interaction homme-machine, (2) les performances obtenues par la machine et (3) le degré de satisfaction de l’utilisateur.
|
Table des matières
INTRODUCTION GENERALE
CHAPITRE I : SYSTEMES HOMME-MACHINE ET ASSISTANCE AUX OPERATEURS
INTRODUCTION
I. POSITIONNEMENT DES SYSTEMES D’ASSISTANCE DANS L’ARCHITECTURE DES SYSTEMES DE SUPERVISION DE PROCEDES INDUSTRIELS
II. LES BESOINS D’ASSISTANCE DES OPERATEURS DANS LES SALLES DE CONTROLE
III. CLASSIFICATION DES SYSTEMES D’ASSISTANCE
CONCLUSION
CHAPITRE II : SYSTEMES DE DIALOGUE HOMME-MACHINE EVOLUES
INTRODUCTION
I. LES INTERFACES FLEXIBLES
II. LES INTERFACES TOLERANTES AUX ERREURS HUMAINES
III. LES INTERFACES EXPERTES
IV. LES INTERFACES ADAPTATIVES
V. L’OPERATEUR ASSISTANT
VI. L’AGENT INTELLIGENT
VII. LES INTERFACES ECOLOGIQUES
VIII. LES INTERFACES HYPERMEDIA
CONCLUSION
CHAPITRE III : UNE APPROCHE D’INTERFACE « INTELLIGENTE » : LE MODULE DECISIONNEL D’IMAGERIE (LE M.D.I.)
INTRODUCTION
I. TRAVAUX ANTECEDENTS AU M.D.I.
II. LE MODULE DECISIONNEL D’IMAGERIE (M.D.I.)
III. LES CONCEPTS DU MODULE DECISIONNEL D’IMAGERIE
CONCLUSION
CHAPITRE IV REALISATION D’UNE PLATE-FORME EXPERIMENTALE INTEGRANT UNE INTERFACE « INTELLIGENTE » DE TYPE M.D.I.
INTRODUCTION
I. PRESENTATION GLOBALE DE LA PLATE-FORME EXPERIMENTALE
II. LE SYSTEME HOMME-MACHINE SIMULE
III. LES OUTILS D’AIDE A L’OPERATEUR
IV. LE MODULE DECISIONNEL D’IMAGERIE
CONCLUSION
CHAPITRE V VALIDATION TECHNIQUE DE LA PLATE-FORME EXPERIMENTALE ET PERSPECTIVES
CHAPITRE V : VALIDATION TECHNIQUE DE LA PLATE-FORME EXPERIMENTALE ET PERSPECTIVES
INTRODUCTION
I. PREMIERE VALIDATION TECHNIQUE DE LA PLATE-FORME EN LABORATOIRE
II. PERSPECTIVES DE RECHERCHE
CONCLUSION
CONCLUSION GENERALE
BIBLIOGRAPHIE
Télécharger le rapport complet