Protocole de test pour agents développementaux et intrinsèquement motivés par une approche interactionniste

Contexte : IA développementale et intrinsèquement motivée 

Pendant de longues années, l’IA s’est focalisé sur le développement d’agents capables de résoudre des problèmes spécifiés par des humains. Les agents étaient donc créés dans un contexte précis (le contexte du problème) pour un but précis (résoudre le problème). En IA développementale, l’intérêt est porté sur la reproduction de l’apprentissage observé chez l’enfant. Un tel apprentissage permet non plus de se limiter à la résolution d’un seul problème mais de résoudre toutes sortes de problèmes. L’apprentissage par renforcement conduit à des agents extrinsèquement motivés. Un agent extrinsèquement motivé est un agent qui a un but précis et qui est récompensé lorsqu’il atteint ce but. Ce type d’agent cherche un comportement optimal au travers d’expériences successives. En contraste, un agent intrinsèquement motivé est un agent qui n’a pas de but défini par avance et par conséquent, pas de récompense venant de l’extérieur non plus. Il est plus autonome dans la recherche de nouveaux comportements.

Approche interactionniste vs symbolique 

En intelligence artificielle traditionnelle, quand un agent perçoit un environnement, celui-ci passe des symboles à l’agent. Cette approche est dite symbolique. Elle demande donc au développeur d’implémenter une sémantique dans l’agent. Le sens donné à ces symboles vient donc du développeur et non de l’agent. Une deuxième approche se distingue de celle-ci : l’approche interactionniste. L’environnement passe non plus des symboles mais des stimuli à l’agent. En effet, « le sujet ne connait pas de « choses en soi » (hypothèse ontologique) mais il connait l’acte par lequel il perçoit l’interaction entre les choses » (Le Moigne, 1995). L’agent apprend alors des régularités d’interaction. Cette approche est centrée sur l’interaction ce qui conduit à une nouvelle problématique. La frontière entre un agent et un environnement simulé est floue, sa position exacte est donc un choix arbitraire de l’utilisateur. En définissant cette frontière, nous définissons deux flux qui traversent cette frontière. Le flux allant de l’environnement vers l’agent est appelé flux de stimuli. Le flux allant de l’agent vers l’environnement est appelé flux d’actions.

En définissant la position de cette frontière, l’utilisateur définit la nature de ces stimuli et de ces actions. Ainsi, les stimuli et les actions peuvent être plus ou moins abstraits. Un fort niveau d’abstraction réduit la quantité de données transmises et le processus d’interprétation qui est en aval. Un faible niveau d’abstraction permet de simuler des interactions plus proches de la réalité, riche en informations qui n’ont pas toutes un intérêt suivant l’interaction considérée. Il faut donc un processus d’interprétation plus complexe.

Projet IDEAL 

Le projet IDEAL (Implementation of DEvelopmentAl Learning) consiste à implémenter un mécanisme d’apprentissage développemental des premiers stades de l’évolution individuelle (Piaget, 1937) dans un agent artificiel situé dans un environnement simulé. Pour cela, un mécanisme permet à l’agent de rentrer dans un processus de type « bottom-up » pour organiser hiérarchiquement ses schèmes de comportements, au fur et à mesure que l’agent interagit avec l’environnement simulé. Ce travail cherche à étayer deux hypothèses sur la cognition : l’hypothèse émergentiste et l’hypothèse constructiviste. D’après ces hypothèses, un observateur peut attribuer des phénomènes cognitifs à un agent en observant son activité, à condition que le comportement de l’agent s’autoorganise de manière appropriée. Ces hypothèses sont liées aux épistémologies constructivistes (Le Moigne, 1995), et aux théories de la cognition située (Suchman, 1987) et incarnée (Wilson, 2002). Ce projet répond au besoin d’une implémentation information des hypothèses émergentistes et constructivistes afin de les valider ou de voir quelles sont leur limites. Il apporte également un nouveau point de vue à l’approche développementale en intelligence artificielle. Si les hypothèses sont confirmées, des démonstrations d’agents capables de se développer dans un environnement simulé seront mises en ligne. Ces démonstrations agrémenteront le débat éthique à propos du statut des futurs agents intrinsèquement motivés, qui feront transparaître une sensibilité et un comportement de plus en plus élaboré.

IDEAL n’est pas le seul projet à développer une IA développementale et intrinsèquement motivée. Un problème commun se pose alors : Comment valider ces IA à partir des protocoles de test mis en place pour tester les IA sensées résoudre des problèmes. En effet, les IA développementale et intrinsèquement motivée n’ont pas de problème à résoudre, de but à atteindre. Les protocoles de test actuels ne sont donc pas adaptés à ces nouvelles IA (Oudeyer, Kaplan, & Hafner, 2007). Nous proposons alors de modéliser et d’implémenter un protocole de test pour les agents développementaux. Ce protocole de test repose sur un environnement de simulation, spécialement conçu pour les apprentissages comportementaux.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

1 Introduction
1.1 Contexte : IA développementale et intrinsèquement motivée
1.2 Problématique
2 Etat de l’art sur les paradigmes expérimentaux
2.1 Environnements génériques pour agents apprenants
2.1.1 oRis : Langage de simulation
2.1.2 RoboCode/dTank : Jeu de simulation
2.1.3 Vacuum Cleaner Environment : Un problème de ménage
2.2 Environnements ad hoc en apprentissage constructiviste
2.2.1 Gridland : Représentation par la géométrie
2.2.2 Perotto & Alvarez : Apprentissage par induction
2.2.3 Guerin & McKenzie : Un bébé au bras articulé
2.3 Comparatif des environnements
3 Propositions
3.1 Deux niveaux d’utilisateur
3.1.1 Les observateurs
3.1.2 Les concepteurs d’agents
3.2 Environnement centré sur les interactions
3.2.1 Interactions Agent-Environnement
3.2.2 Interactions Observateur-Environnement
3.3 Environnement utilisant des traces
4 Implémentation : l’environnement SECA
4.1 Introduction
4.2 Architecture de l’environnement
4.3 Interactivité de l’environnement
4.4 Tableau de bord : visualisation d’indicateurs
5 Conclusion
5.1 Bilan
5.1.1 Retour sur la problématique
5.1.2 Retour sur le comparatif des environnements
5.2 Perspectives
Bibliographie
Annexe

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *