Facteurs impliqués dans la surveillance de l’opérateur humain dans les systèmes homme–machine

Télécharger le fichier pdf d’un mémoire de fin d’études

L’impact de l’automatisation dans les systèmes complexes

L’automatisation peut être considérée comme un processus de substitution d’une certaine activité humaine par un dispositif ou machine, mais également comme un état de développement technologique. Cependant, d’autres, [166], estiment que l’automatisation devrait être vue comme la substitution d’un agent par un autre. Néanmoins, la présence de l’automatisation a infiltré chaque aspect de la vie moderne. Les machines non seulement facilitent, rendent plus sûr et efficace le travail, mais également nous donnent plus de temps libre. L’arrivée de l’automatisation nous a permit d’atteindre ces buts. Avec l’automatisation, les machines peuvent maintenant exécuter plusieurs activités que nous devions faire autrefois. Maintenant, les portes automatiques s’ouvrent pour nous, les thermostats règlent la température dans nos maisons pour nous, les transmissions automobile « passent les vitesses » pour nous.

Avantages de l’automatisation

Il existe un certain nombre d’avantages dans l’automatisation des systèmes homme–machine. Parmi eux existent l’augmentation de la capacité de production et de la productivité, la réduction des petites erreurs, la réduction de la charge de travail manuel et de la fatigue, l’assistance dans des opérations courantes, la manipulation plus précise des opérations courantes et l’utilisation économique des machines.
Même si, dans certaines applications, on peut (on doit) faire le choix de systèmes complètement automatisés, autonomes (i.e. la conquête spatiale lointaine, l’exploration de fonds marins, le démantèlement de centrales nucléaires, etc.), l’opérateur humain est souvent introduit dans les systèmes en tant qu’élément de décision dans la boucle (systèmes de pilotage variés : avion, train, métro, navire, automobile,…) ou en tant qu’élément de la hiérarchie de gestion, supervision des systèmes de production (contrôle de trafic aérien, conduite de procédées industriels, surveillance des centrales nucléaires, des raffineries, etc.).
Cette présence humaine intervient, souvent, pour des raisons de complexité moindre, d’acceptabilité sociale, mais surtout parce que l’homme n’est pas encore capable, lors de la conception d’un système complexe, d’imaginer des schémas d’action préprogrammés pour des situations inconnues. L’opérateur humain a un ensemble de références qui lui permettent rapidement d’identifier la situation présente. En particulier, il est capable de faire des analogies, même si celles-ci ne sont pas identiques aux « modèles » qu’il connaît déjà. Ces modèles de situations sont le résultat d’années d’expérience. Ce type de connaissance est très difficile, est bien souvent impossible, à faire expliciter [32].

Inconvénients de l’automatisation

L’automatisation a également un certain nombre d’inconvénients. L’automatisation augmente et complexifie les charges des responsables du fonctionnement, du dépannage et de la gestion des systèmes.
Dans, [166], Woods déclaré que l’automatisation est « … un ensemble intégré – un ensemble composé de différentes dimensions intégrées conjointement comme un système composé de matériel–logiciel. Quand un nouveau système automatisé est introduit dans une activité, le changement est réparti au long de ces dimensions ». Certains de ces changements incluent :
x l’addition ou le changement d’une tâche, telle que l’installation et l’initialisation d’un dispositif, le contrôle de la configuration et les séquences d’opération ;
x le changement des demandes cognitives, telles que la baisse de la conscience de la situation ;
x le changement du rôle actuel des opérateurs dans le système, souvent reléguant des personnes aux tâches de surveillance ;
x l’incrément de l’intégration des différentes parties d’un système, souvent ayant pour résultat la surcharge et la « transparence » des données ;
x et l’incrément de la satisfaction de ceux qui emploient la technologie.
Ces changements peuvent avoir comme conséquence une satisfaction professionnelle pauvre (automatisation vue comme déshumanisante), la vigilance affaiblie, des systèmes intolérants aux fautes, des défaillances silencieuses, une augmentation de la charge de travail cognitif, des défaillances induites par automatisation, l’excès de dépendance, l’ennui accru, la confiance diminuée, la diminution de la compétence manuelle, des fausses alarmes et une diminution de la conscience de mode opératoire, [123].

Les interactions homme–système

Un système homme–machine, HM, est composé d’un opérateur en interaction avec un système technologique. Ce concept est généralement associé à un poste de travail et s’applique quelles que soient l’étendue et la complexité du système homme–machine (un pilote d’avion ou de voiture, par exemple).
En plus des deux éléments d’un système homme–machine, le système technologique et l’homme, il est important de s’intéresser aux interactions homme–système régies par l’organisation du travail. D’une part, le système technologique peut être un processus de fabrication, une voiture, un ordinateur, etc. et regroupe, en ergonomie, les systèmes matériels avec lesquels l’homme est en interaction à travers des interfaces homme–système. Ces dernières peuvent être définies comme l’ensemble de moyens mis à disposition de l’opérateur. D’autre part, l’opérateur, concept central en ergonomie, renvoie à tout homme réalisant une tâche en interaction avec un système technologique dans une situation de travail. Le terme homme est lui-même utilisé de façon plus large pour faire référence à l’opérateur isolé ou au collectif de travail. Ce collectif est constitué d’une collection, groupe ou équipe d’opérateurs coopérants, chargés de manière permanente ou temporaire de l’accomplissement d’une fonction. Finalement, l’organisation du travail couvre l’ensemble des règles régissant la relation entre les hommes et les systèmes technologiques. Elle inclut les spécifications du rôle des hommes et des systèmes technologiques (fonctions, tâches et procédures), la répartition de tâches entre les différents composants du système homme–machine, les aspects réglementaires et contractuels (horaires, organisation en équipes, relations hiérarchiques, règlement de sécurité, …).

Coopération homme–système

La notion de coopération est introduite au sein des interactions homme–système, en distinguant différents niveaux : co-activité, collaboration, coopération.
La co-activité homme–système
Il s’agit d’une relation simple dans laquelle l’homme et le système technologique n’ont pas à interagir, mais à réaliser des tâches qui interfèrent, positivement ou négativement. L’interférence résulte d’une relation conjoncturelle de nature temporelle (les composants interviennent successivement en un même endroit), spatiale (les composants interviennent simultanément en un même endroit), ou causale (les composants interviennent en des endroits différents mais sur des supports reliés par une relation causale).
Dans la co-activité, l’interférence est éventuellement connue par l’un ou l’autre des composants en relation ; malgré cela, elle n’est pas maîtrisée par eux. C’est le cas d’un calculateur et d’un homme utilisant simultanément les capacités de traitement d’un calculateur central, où le lancement d’un traitement lourd par l’homme alors que le système monopolise les capacités du calculateur et interfère, négativement dans ce cas, avec l’activité de l’autre utilisateur. Dans le domaine homme–homme, cette co-activité se rencontre lors des interventions de la maintenance sur un procédé en exploitation ; même s’il existe des procédures pour maîtriser les interférences, il n’est pas rare que des défaillances, parfois catastrophiques, succèdent aux interventions des équipes de maintenance (On peut bien entretenir une voiture et ne pas être à l’abri d’une défaillance mécanique à n’importe quel moment).
Inversement, la co-activité peut permettre de détecter des erreurs, les interférences entre les activités permettant par exemple de détecter une mauvaise configuration du système. La co-activité peut être connue ou non, maîtrisée ou non, coordonnée ou non, au niveau du système incluant les composants humains et technologiques. Ces co-acteurs n’ont pas de relations fonctionnelles explicites, ni de relations hiérarchiques.
La collaboration homme–système
Celle-ci est une forme d’interaction dans laquelle l’homme et le système s’assistent ou s’utilisent pour atteindre leurs buts spécifiques. Parmi l’ensemble de leurs fonctions, les composants ont la tâche (explicite ou non) de satisfaire la demande d’interaction de l’autre. Ils disposent de moyens nécessaires pour mettre en œuvre cette interaction (en l’occurrence, les interfaces homme–système). L’assistance peut être toujours unidirectionnelle (l’interaction entre l’homme et le système se résume à la demande, par le système des valeurs de variables non instrumentées, par exemple) ou bidirectionnelle (l’homme peut demander un relevé de valeurs et le système peut solliciter l’homme pour « renseigner » certains paramètres).
Il existe de nombreuses formes de collaboration, de la plus simple (demande ponctuelle d’information, sans explication de la finalité d’utilisation de celle-ci), à la plus riche (offre volontaire de collaboration pour assister l’autre composant dans la réalisation de sa tâche ; prise en charge par le système de tâches habituellement réalisées par l’homme pour alléger sa charge de travail, détection, diagnostic et résolution d’un incident du système par l’homme, …).
La plupart des interactions que l’on peut observer entre un opérateur et un système de conduite d’un procédé relève de ce niveau d’interactions où l’on peut considérer les composants humains et technologiques comme des collaborateurs. Les collaborateurs sont inscrits dans une relation hiérarchique et/ou fonctionnelle.
La coopération homme–système
Dans cette interaction, l’homme et le système sont en charge, collectivement, de l’atteinte d’un objectif commun, souvent inaccessible à l’un ou à l’autre. Pour qu’un dialogue instauré entre un homme et un système inscrive l’interaction dans un contexte de coopération, il faut qu’un objectif commun soit clairement identifiable (à défaut d’être identifié), partagé de façon explicite entre les deux composants.
De même que pour la collaboration, il existe de nombreuses formes de coopération ; le niveau plus élevé se rencontre dans les coopérations homme–homme et repose sur une reconnaissance mutuelle d’intention. Si la collaboration peut s’inscrire dans la relation homme–homme ou homme–système hiérarchique, la coopération s’inscrit nécessairement dans une relation exclusivement fonctionnelle, en dehors des relations hiérarchiques pouvant exister entre les coopérants. Une divergence sur les actions, les moyens pour l’atteinte de l’objectif ou sur les objectifs intermédiaires induit une rupture de la coopération accompagnée d’une redistribution des rôles. Cette rupture replace au mieux l’interaction au niveau inférieur de collaboration. Celui qui prend la main, prend du même coup la charge de l’atteinte de l’objectif, l’autre lui apporte assistance (une voiture équipée d’un système ACC peut assister le conducteur en l’informant de la distance frontale quand ce module n’est pas activé).
Ainsi, la coopération homme–système passe par la mise en jeu de mécanismes coopératifs utilisant les fonctionnalités de l’interface destinées à faciliter les activités collectives entre les opérateurs d’une équipe ou entre l’opérateur et un système technologique. Les fonctionnalités doivent, bien entendu, respecter des critères de convivialité et de pertinence pour être totalement adaptées aux besoins des opérateurs.

Partage de tâches

Le niveau de coopération entre les hommes et les systèmes dépend de la logique de répartition des tâches. Ainsi, on peut la définir comme l’allocation de rôles entre les différents composants du système homme–machine (humains, organisationnels, technologiques) pour permettre à ce dernier de fournir le service attendu à ses systèmes utilisateurs.
Pour exploiter au mieux les qualités respectives des hommes et des systèmes, on peut mesurer la performance d’un simple système homme–machine comme une fonction des différents niveaux d’autonomie et des différents niveaux de compréhension ou de connaissance autour de l’environnement du système [32], Figure I.1. L’axe horizontal représente les niveaux d’autonomie allant du contrôle manuel jusqu’à l’automatisation complète. L’axe vertical représente la performance du système homme– machine. Celle-ci peut être mesurée par le temps d’exécution, la précision des résultats, le coût de la solution ou un autre critère heuristique approprié, pour un problème donné. Chaque courbe de la Figure I.1 correspond à un certain niveau de connaissance ou compréhension, la plus basse étant celle qui représente un niveau pauvre de connaissance. Figure I.1 : Performance d’un système homme–machine comme une fonction des niveaux d’autonomie.
En accord avec ce modèle, la performance du système homme–machine augmente avec l’autonomie de la machine, mais seulement jusqu’à un certain optimum après lequel elle commence à décliner. Si l’autonomie de cette machine est trop importante pour que l’opérateur humain comprenne ce qu’elle fait, il peut perdre le contrôle de la situation. Cette perte peut entraîner également une diminution de la vigilance due à une charge de travail insuffisante ou excessive. Il faut bien préciser que, pour un niveau de connaissance donné, le niveau d’autonomie ne peut pas excéder une certaine valeur fixée par les limitations technologiques.

Défaillances dans les systèmes homme–machine

Une défaillance du système homme–machine survient lorsque la fonction délivrée s’écarte de la satisfaction de la fonction de ce système. Celle-ci peut directement résulter de la défaillance de l’un des composants (humain ou technologique) ou encore provenir des erreurs de spécification du système homme–machine.
Suivant le point de vue considéré, la perception des défaillances peut être cohérente (tous les éléments du système ont le même jugement de défaillance) ou incohérente, qualifiée également de byzantine (les utilisateurs peuvent avoir des jugements différents d’elle), [96]. Les limites de tolérance fixées pour apprécier la défaillance ne sont pas absolues mais relatives à chacune des références pouvant estimer le caractère valide où défaillant du comportement du système.
La défaillance d’un système homme–machine résulte d’une erreur affectant son état. La chaîne causale entre les causes de l’erreur, l’erreur elle-même et ses conséquences s’applique donc aussi bien au système homme–machine qu’à ses composants humains et technologiques, mais le point d’entrée diffère selon que l’on cherche à agir sur un composant technique ou humain. Dans le cadre des composantes technologiques, un concept important est celui de faute (cause adjugée ou supposée de l’erreur).
Pour ce qui concerne le composant humain, l’obtention de la sûreté de fonctionnement passe par des ressources internes à l’opérateur (connaissance, représentations mentales, diversité des modes de traitement, …) ainsi que par des ressources externes (détection de ses erreurs par l’interface homme– machine ou assistance externe à ses mécanismes de régulation internes). Evidement, on ne peut agir sur les causes internes de l’erreur humaine et sur les moyens internes de prévention et tolérance que de l’extérieur par des supports tels que la formation, les modifications d’interfaces et la documentation, etc. Ces mesures son indirectes et présentent un long délai de réponse.
Actuellement, la recherche des causes de l’erreur (internes ou externes à l’homme) n’est que rarement possible et ne donne pas forcement les éléments nécessaires pour établir une stratégie de recouvrement correspondante. On ne dispose que d’une quantité limitée (ou nulle) d’informations sur les gestes de l’opérateur, sa motivation d’action, etc. qui sont des éléments nécessaires pour déterminer de façon certaine le caractère adapté ou erroné de son comportement. La vérification du caractère erronée permet la déduction des techniques et moyens à mettre en œuvre pour optimiser sa contribution dans le système homme–machine.

La performance humaine dans l’interaction homme–machine

L’étude de la performance humaine fait référence à sept grands domaines, chacun identifié comme critique aux interactions des systèmes homme–machine, [52] :
x charge de travail
x conscience de la situation
x surveillance de système
x travail d’équipe
x confiance
x utilisation et acceptation par les utilisateurs
x erreur humaine
En plus de ces sept domaines généraux de performance humaine, un domaine humain « spécifique » additionnel de performance est la performance de la tâche (c.-à-d. de quelle façon l’opérateur exécute sa tâche, par rapport aux mesures concernant la performance globale du système). Puisqu’une telle mesure dépend fortement de son application, elle est omise de la liste ci-dessus et est donc adressée au cas par cas. Pour chacun des sept secteurs, il existe un certain nombre de théories traitant des mécanismes sous-jacents et de la signification opérationnelle des résultats.

Charge de travail

L’intérêt de définir et développer des métriques sur la charge de travail s’est considérablement développé à partir milieu des années 1970. Il existe une discussion continue dans la communauté scientifique au sujet de la définition de la charge de travail (une discussion qui est également reflétée dans la variété de moyens disponibles pour évaluer la charge de travail). Néanmoins, il y a un accord général qui établit que la charge de travail mentale n’est pas unitaire, mais un concept multidimensionnel englobant la difficulté d’une tâche et l’effort appliqué associé (physique et mental).
Inhérent à la notion de charge de travail mental a été l’idée que l’opérateur humain a une capacité limitée pour traiter l’information. Les modèles de traitement de l’information des années 1950 se sont développés hors du champ de la technologie des communications. L’un des points de vue empiriques les plus supportés était le regroupement des multiples ressources spécifiques. Les tâches différent entre elles par rapport à leurs demandes en termes de : modalité de l’entrée (visuelle contre auditif), de perception des entrées (spatiale/verbale), d’interprétation de l’information (codage/interprétation/réponse) et du type de réponse (manuelle contre verbale).
Les techniques pour mesurer la charge de travail sont typiquement classées par catégories :
x physiologiques,
x subjectives, (incluant les psychologiques)
x ou de performance.
Dans chaque catégorie, il y a un certain nombre d’indicateurs spécifiques disponibles pour le chercheur. Les critères appropriés pour juger l’utilité de divers indicateurs de charge de travail sont en général : sensibilité, diagnosticabilité, coût, acceptabilité de l’opérateur, requêtes d’implémentation, fiabilité, et intrusion, [41]. Cependant, rare est l’indicateur de charge de travail mental pouvant satisfaire tous ces critères à la fois.

Conscience de la situation

La conscience de la situation (situation awareness, SA) est un concept actuellement populaire, employé pour décrire la compréhension d’un opérateur des caractéristiques dynamiques et complexes d’un système, [53]. Actuellement, le rôle primordial de la SA dans le domaine des facteurs humains est dû, en grande partie, à l’incrément de la nature cognitive des tâches homme–machine, [50]. La littérature sur la performance humaine distingue généralement la SA et la construction de la surveillance de système, comme discuté dans la section suivante. Bien qu’il y ait un certain chevauchement potentiel entre les deux (mais le même peut être dit de tous les domaines identifiés de la performance humaine), le dernier concerne généralement la détection et la réponse initiale à un certain état discret non nominal (une alarme soudaine de dépassement des limites d’opération). La notion de la SA se prolonge bien loin au delà de ceci, pour entourer la compréhension de l’opérateur des états du système complexe et la capacité de prévoir le futur comportement du système. Néanmoins, certaines des techniques comportementales d’évaluation de la SA pourraient employer des mesures de surveillance typiques (par exemple, temps de réponse, taux de détections, fausses alarmes).
La carence courante d’un consensus sur la définition de la SA est propagée dans la gamme des techniques de mesure employées pour l’évaluer. Les techniques se sont étendues, commençant par des mesures d’autoévaluation, des évaluations « au dessus de l’épaule », jusqu’à l’utilisation des mesures physiologiques telles que la direction du regard, [52]. Dans, [50], les auteurs ont passé en revue les techniques disponibles de mesure sur la SA et ont distingué trois types populaires de mesure de la SA :
x méthodes subjectives, telles que l’autoévaluation,
x méthodes à base de questionnaires, soit avec la situation originale absente, soit avec la situation continûment présente,
x méthodes de performance, semblable aux mesures de charge de travail, les tâches opérationnelles relevantes peuvant fournir des mesures implicites sur la SA.
Comme avec les mesures « charge de travail mentale » il y a plusieurs années, des discussions sur comment évaluer la SA reviennent souvent sur un ensemble fondamental de critères évaluatifs (sensibilité, diagnosticabilité, coût, acceptation de l’opérateur, requêtes d’implémentation, fiabilité et intrusion), [41], [52]. Souvent ces critères doivent être mesurés l’un contre l’autre. Un exemple particulier sont les mesures subjectives de la SA, qui sont contraintes au même ensemble d’avantages potentiels (prix réduit, facilité de gestion) et d’inconvénients (limitations de mémoire, susceptibilité aux caractéristiques de demande) en tant que techniques subjectives en général. Suivant la classification présentée ci-dessous, les méthodes à base de questionnaires et de performance, peuvent être nommées techniques « objectives », contrairement au groupe de techniques subjectives. Les techniques objectives et les techniques subjectives de la SA ont des avantages relatifs.
Les mesures subjectives de la SA, comme d’autres types de mesures subjectives, sont susceptibles d’erreur. Les évaluations objectives, d’autre part, sont souvent coûteuses ou difficiles à gérer (les mesures physiologiques) ou excessivement intrusives (les méthodes à base de questionnaires), [41]. Une solution semblerait se situer dans la conception de sous–tâches appropriées qui permettent la collection naturelle de données comportementales, avec un minimum d’interruption de tâche. Si de telles données peuvent être enregistrées en tant qu’élément de la routine normale de l’opérateur (ou légèrement modifiée), l’acceptation est susceptible d’être beaucoup plus importante. Ceci est particulièrement critique dans des scénarios plus réalistes, tels que les simulations de grande fidélité ou l’environnement opérationnel. Les mesures de performance peuvent éviter plusieurs difficultés théoriques, actuellement abordées par la communauté scientifique. C’est le point de départ pour les sous–tâches, ou « la performance implicite », des mesures de la SA.
Finalement, il est important de réitérer qu’aucune technique n’est susceptible d’être appropriée pour tous les domaines de la SA. On discute que les mesures « objectives » (i.e. temps de réponse) et subjectives (i.e. autoévaluations) de la SA pourraient influencer fondamentalement différents aspects de conscience. Considérant que l’ancienne tendance se relie à la conscience, la dernière tendance relie plus à la « conscience de cette conscience », ou la réaction subjective de l’individu a sa propre conscience. Le cas dans lequel deux mesures de la SA (valides et fiables) peuvent être dissociées, met en évidence un point important : dans le développement d’un système, ou dans n’importe quel cas où l’acceptation de l’utilisateur est essentielle, l’évaluation subjective des opérateurs peut influencer l’acceptation et, finalement, l’utilité du système. Si un aiguilleur du ciel, par exemple, n’identifie pas (subjectivement) les avantages de SA d’un nouvel outil, il utilisera très probablement des moyens raffinés pour éviter son utilisation.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction
Chapitre I Facteurs impliqués dans la surveillance de l’opérateur humain dans les systèmes homme–machine
I.1 Introduction
I.2 Les systèmes complexes
I.2.1 L’impact de l’automatisation dans les systèmes complexes
I.2.1.1 Avantages de l’automatisation
I.2.1.2 Inconvénients de l’automatisation
I.2.2 Les interactions homme–système
I.2.2.1 Coopération homme–système
I.2.2.2 Partage de tâches
I.3 Défaillances dans les systèmes homme–machine
I.3.1 La performance humaine dans l’interaction homme–machine
I.3.2 Charge de travail
I.3.3 Conscience de la situation
I.3.4 Surveillance de système
I.3.5 Travail d’équipe
I.3.6 Confiance
I.3.7 Utilisabilité et acceptation
I.3.8 Erreur humaine
I.4 Métriques sur la performance humaine
I.4.1 Mesures physiologiques
I.4.1.1 L’activité cérébrale
I.4.1.2 L’activité cardiaque
I.4.1.3 L’activité oculaire
vi Table des Matières
I.4.2 Mesures subjectives
I.4.2.1 Autoévaluation instantanée
I.4.2.2 Technique subjective d’évaluation de charge de travail
I.4.2.3 Indice de charge de la tâche
I.4.2.4 Echelle d’endormissement Karolinska
I.4.3 Mesures de performance
I.4.3.1 Métriques de performance de la charge de travail
I.4.3.2 Mesures de la charge de tâche
I.5. Surveillance des systèmes homme–machine
I.5.1 Les systèmes d’assistance intelligents
I.6 Conclusion
Chapitre II Le prétraitement des signaux, l’analyse temporelle et fréquentiel et extraction de caractéristiques
II.1 L’intérêt du prétraitement
II.2 Analyse en temps continu
II.2.1 Filtrage linéaire stationnaire
II.2.2 La transformée de Fourier
II.3 La révolution discrète
II.3.1 L’échantillonnage des signaux analogiques
II.3.2 Filtres discrets
II.3.2.1 Filtrage linéaire stationnaire discret
II.3.2.2 Série de Fourier
II.3.3 Signaux finis
II.3.3.1 Convolutions circulaires
II.3.3.2 Transformée de Fourier discrète
II.3.3.3 Transformée de Fourier rapide
II.3.3.4 Convolutions rapides
II.4 L’analyse temps–fréquence
II.4.1 Atomes temps–fréquence
II.4.2 Transformée de Fourier à fenêtre
II.4.2.1 Choix de la fenêtre
II.4.2.2 Transformée de Fourier à fenêtre rapide
II.4.3 Transformée en ondelettes
II.4.3.1 Transformée en ondelettes discrète
II.4.3.2 Transformée en ondelettes dyadiques
II.4.4 Analyse en ondelettes
II.4.4.1 Régularité
II.4.4.2 Maxima de la transformée en ondelettes et détection de singularités
II.4.5 Bases d’ondelettes
II.5 Extraction de caractéristiques
II.5.1 Analyse statistique
II.5.1.1 Statistiques du premier ordre
II.5.1.2 Statistiques du deuxième ordre
II.5.2 Analyse spectrale
II.5.3 Fenêtres d’analyse
II.5 Conclusion
Chapitre III Techniques d’apprentissage et d’intelligence artificielle pour la modélisation de systèmes complexes
III.1 Introduction
III.2 Modélisation à partir des données
III.2.1 L’apprentissage statistique
III.2.1.1 Les machines d’apprentissage
III.2.1.2 Les fonctions de perte et la minimisation du risque
III.2.1.3 Les trois problèmes principaux d’apprentissage
III.2.1.4 Les principes d’induction
III.2.2 Les machines d’apprentissage classiques : l’approche neuronale
III.2.2.1 Les machines linéaires
III.2.2.2 Les machines non–linéaires
III.2.2.3 L’estimation de la densité
III.2.2.4 Remarques
III.2.3 Les machines à vecteurs de support SVM
III.2.3.1 Règles de décision non linéaires
III.2.3.2 SVM pour la reconnaissance de formes
III.2.3.3 SVM pour la régression
III.2.3.4 SVM pour l’estimation de la densité
III.2.3.5 Remarques
III.2.4 Le mécanisme d’apprentissage des SVM
III.2.4.1 Caractéristiques du problème d’optimisation quadratique SVM
III.2.4.2 Les algorithmes d’optimisation des problèmes quadratiques
III.2.4.3 Implémentation des SVM
III.2.4.4 Application des SVM sur des bases de données
III.3 Modélisation à partir de la connaissance
III.3.1 Généralités sur l’intelligence artificielle
III.3.1.1 Agents intelligents
III.3.1.2 Systèmes Experts
III.3.2 Les systèmes d’inférence flous
III.3.3.1 Eléments d’un système d’inférence flou
III.3.3.2 Généralités sur la logique floue
III.3.3.3 Le mécanisme de fuzzification, d’inférence et de défuzzification
III.3.3.4 Types de modèles flous
III.3.3.5 Génération de règles à partir de l’expertise
III.4 Modélisation à partir de la connaissance et les données
III.4.1 Modèles flous conventionnels avec apprentissage
III.4.1.1 Choix du nombre d’ensembles flous
III.4.1.2 Paramétrisation des règles
III.4.2 Modèles neuro–flous
III.4.2.1 Les algorithmes de groupage par données (clustering)
III.4.2.3 Le groupage SVM
III.4.2.4 Initialisation des algorithmes de groupage
III.4.3 Identification des modèles TS pour des systèmes MIMO
III.4.3.1 Structure d’un modèle flou TS pour des systèmes MIMO
III.4.3.2 Méthode d’identification
III.4.3.3 Exemple d’identification
III.5 Conclusion
Chapitre IV Le problème de la surveillance du conducteur automobile. Les projets AWAKE et PREDIT
IV.1 Introduction
IV.1.1 Les enjeux de la sécurité routière
IV.2 Les systèmes d’assistance à la conduite
IV.2.1 Taxonomie des systèmes d’assistance à la conduite
IV.2.3 La tâche de conduite
IV.2.3.1 Les capteurs de position latérale et le contrôle associé
IV.2.3.2 Les capteurs de distance longitudinale et le contrôle associé
IV.3 La surveillance du conducteur automobile
IV.3.1 Généralités
IV.3.1.1 Mesures directes du niveau de vigilance
IV.3.1.2 Mesures directes de la performance de la conduite
IV.3.2 Bilan sur les systèmes de surveillance du véhicule/conducteur
IV.3.2.1 Quelques systèmes de surveillance de la conduite et de l’état du conducteur
IV.3.2.2 L’analyse synthétique
IV.4 Les projets de recherche
IV.4.1 Le programme Européen AWAKE (Septembre 2001 – Septembre 2004)
IV.4.2 Le projet national Hypovigilance du Conducteur – PREDIT (Mars 2002 – Mars 2004)
IV.4.3 Architectures de fonctionnement
IV.4.3.1 L’architecture AWAKE
IV.4.3.2 L’architecture PREDIT
IV.5 Les essais
IV.5.1 Moyens expérimentaux
IV.5.2 Les campagnes d’essais
IV.5.2.1 Les essais sur démonstrateurs
IV.5.2.2 Les essais sur simulateurs
IV.6 Développement du module de diagnostic de situations à risque
IV.6.1 Architecture du module de diagnostic de situations à risque
IV.6.2 Module de Diagnostic Événementielle basé sur le temps de sortie de voie
IV.6.3 EDM basé sur vibreur de bord de route adaptatif
IV.6.4 Comparaisons des différents approches EDM
IV.7 Détection de l’hypovigilance du conducteur automobile
IV.7.1 Architecture du module de détection de l’Hypovigilance
IV.7.1.1 Architecture du HDM performance
IV.7.1.2 Analyse temporelle et fréquentielle des signaux
IV.7.1.3 Fusion des caractéristiques
IV.7.1.3 Diagnostic cumulé
IV.7.2 Evaluation du HDM performance
IV.7.2.1 Mesures de référence de la vigilance
IV.7.2.2 Validation
IV.7.2.3 Résultats
IV.8 Conclusion
Conclusion Générale
Bibliographie

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *