Stockage
Le processus de stockage représente sans doute la phase la plus complexe de la mémorisation dans la mesure où il induit la prise en compte d’un nombre important de facteurs tels que l’expérience, l’organisation de la connaissance, la prise en compte du contexte, etc. Il consiste en une modification (ou transformation) d’un support physique autorisant la rétention effective d’une connaissance. Cette modification du support physique est effectuée selon des règles propres au système mnésique et suppose l’existence implicite de règles d’encodage de la connaissance. Ainsi, l’encodage gouvernant la rétention de la connaissance 2 × 2 = 4 ne sera pas le même selon que l’on connaît la table de 2 ou non, selon que l’on sait lire ou non, etc. L’organisation de la connaissance sur ce support va induire les propriétés de la mémoire.
L’informatique, un accès par l’adresse
L’informatique trouve son origine dans les travaux fondateurs de [Turing, 1936] et [Neumann, 1941],et près de 70 ans plus tard, les architectures logicielles et matérielles des ordinateurs actuels en restent largement influencées. Ainsi, les machines de Turing sont un outil fondamental de la calculabilité et sont également utilisées en théorie de la complexité où elles servent d’étalon pour déterminer le temps de résolution d’un problème (nombre de transitions de l’automate) et la taille de mémoire nécessaire (longueur du ruban utilisé, permettant de stocker les données et les programmes sur le même support). En fait, cette notion de mémoire présente dans les machines de Turing préfigure déjà la définition générale de mémoire en informatique : un dispositif permettant de stocker et de consulter une information par le biais de son adresse. Le support physique de cette mémoire revêt aujourd’hui des formes largement variées puisqu’il peut être mémoire vive, mémoire morte, mémoire flash, disque dur, disquette, CD-ROM, DVD-ROM, etc. Cependant, si les formes et les pérennités respectives de ces supports varient, la propriété fondamentale demeure : ces mémoires sont toutes sans exception accessibles par leurs adresses, ce qui signifie qu’il est nécessaire de connaître l’adresse d’une information pour accéder à son contenu. Ce type d’accès est tout à fait adapté à l’industrie où les critères de performances et de fiabilité exigent une possibilité de retrait de l’information à la fois consistante et robuste. Cette mémorisation par adresse est efficace car elle autorise la consultation d’une information de façon rapide et non ambigüe : à une adresse unique correspond une information unique, mais elle requiert alors la connaissance préalable de l’adresse de l’information à consulter
Le cerveau, un accès par le contenu
Une mémoire adressable par le contenu fonctionne quant à elle différemment puisqu’elle autorise le rappel d’une information sur la base d’une partie de son contenu ou bien d’indices sur la nature de son contenu. Ainsi, si l’on pose la question Quel est cet objet terrestre possédant 4 roues et un moteur permettant de se déplacer de façon rapide ? , la réponse une voiture vient assez rapidement à l’esprit alors que seuls des indices attenants ont été donnés. On peut d’ailleurs affiner la question en précisant que cet objet permet généralement de transporter des marchandises, et alors la réponse sera un camion . De même, le fait de posséder une partie d’une information peut suffire à rappeler celle-ci dans sa globalité. Par exemple, si l’on vous présente le mot bruité voiture, il est assez facile de le reconstituer (voiture). Cet accès par le contenu est donc intéressant car il n’utilise pas d’adresse pour accéder à une information et c’est là l’une des propriétés fondamentales nécessaire à la cognition humaine. La théorie de l’homoncule , petit être censé résider dans le cerveau, est aujourd’hui rejetée alors même que la notion de traitement de l’information exige qu’il y ait un dispositif permettant de lire cette information [Edelman, 1997]. Le cerveau ne dispose pas d’un tel dispositif isolé permettant la lecture de l’information cérébrale et cela est rendu possible dans la mesure où cette information est accessible par le contenu. Elle peut émerger naturellement par présentation d’indices attenants ou bien par présentation d’une partie de l’information, i.e. le cerveau tout entier ainsi que chaque sous-partie du cerveau peuvent servir de contenant aussi bien que de lecteur de l’information ; les rôles sont complètement confondus .
L’intégrateur à fuite de [Reiss and Taylor, 1991]
Si le neurone formel est historiquement le premier modèle de neurone, il existe aujourd’hui de nombreux autres modèles permettant notamment de mieux rendre compte des phénomènes temporels existant au sein du neurone biologique. Parmi ceux-ci, on trouve en particulier le modèle du neurone impulsionnel de [Gerstner, 1998], le gated dipole de [Grossberg, 1984] et l’intégrateur à fuite de [Reiss and Taylor, 1991] (cf. figure 2.2). Nous ne détaillerons ici que le modèle de l’intégrateur à fuite étant donné qu’il nous servira dans nos modélisations et on pourra se reporter par exemple à [Frezza-Buet et al., 2000] pour de plus amples explications sur les autres modèles. A partir de la constatation que les neurones biologiques agissent comme des intégrateurs à fuite dans le sens où ils stockent sur leur surface un résidu du signal ayant provoqué leur décharge, [Reiss and Taylor, 1991] proposent le principe de l’intégrateur à fuite qui repose sur la notion de potentiel de membrane.
Les modèles connexionnistes
Comme nous l’avons expliqué auparavant, les réseaux de neurones artificiels représentent des outils intéressants pour la navigation autonome car ils sont capables, à partir de traitements simples, de manipuler des informations de nature numérique. Cette propriété est fondamentale pour cette approche puisqu’elle permet d’éviter le problème de l’ancrage du symbole dans la réalité et qu’elle adopte plutôt la démarche inverse en permettant par ses mécanismes numériques simples l’émergence du comportement recherché. Ainsi, des outils très simples peuvent être mis en place pour implanter ce que l’on pourrait qualifier de comportement intelligent . Par exemple, la navigation autonome requiert la capacité d’éviter des obstacles (afin de ne pas endommager le robot). Une approche basée sur le symbole pourrait nécessiter la définition du symbole obstacle ainsi que de la stratégie à adopter lorsqu’un obstacle est rencontré. Or, Braitenberg démontre dans [Braitenberg, 1984] que des traitements de très bas niveau peuvent suffire au comportement d’évitements d’obstacles, sans vraiment reconnaître ni construire une représentation interne de la notion d’obstacle. Cette propriété fondamentale du connexionnisme sera illustrée dans l’exemple qui suit. Un deuxième exemple, plus révélateur des capacités du connexionnisme d’inspiration biologique dans ce domaine, montrera comment une approche constructiviste permet de complexifier l’architecture pour, partant du même mécanisme réactif d’évitement d’obstacles, créer une représentation interne plus riche permettant des comportements plus intelligents , sur la base d’une carte cognitive.
|
Table des matières
Introduction générale
Partie I Mémoires et Robots
Introduction
Chapitre 1 Différentes mémoires
1.1 Les étapes de la mémorisation
1.1.1 Acquisition
1.1.2 Stockage
1.1.3 Exploitation
1.2 Les supports de la mémoire
1.2.1 Approche par adresse vs. approche par contenu
1.2.2 Approche localiste vs. approche distribuée
1.2.3 Approche séquentielle vs. approche parallèle
1.2.4 Approche statique vs. approche dynamique
1.3 Une approche formelle de la mémoire
1.3.1 La mémoire déclarative, un apprentissage par coeur
1.3.2 La mémoire procédurale, une approximation de fonction
1.4 Une approche cognitive de la mémoire
1.4.1 Une définition de la mémoire
1.4.2 La mémoire déclarative, une mémoire épisodique et sémantique
1.4.3 La mémoire non-déclarative, une mémoire procédurale, un amorçage perceptif, un conditionnement, un apprentissage non associatif
1.5 Discussion
Chapitre 2 Notion de mémoire en connexionnisme
2.1 Les fondements du connexionnisme
2.1.1 Le neurone formel
2.1.2 L’intégrateur à fuite de [Reiss and Taylor, 1991]
2.1.3 L’esprit du réseau
2.2 Généraliser une fonction
2.2.1 Les généralisateurs de fonctions
2.2.2 Le perceptron, une mémoire procédurale
2.3 Apprendre par coeur
2.3.1 Les mémoires auto-associatives
2.3.2 Le réseau de Hopfield, une mémoire déclarative
2.3.3 Le problème de l’interférence
2.4 Discussion
Chapitre 3 La robotique autonome
3.1 Fondations
3.1.1 Historique
3.1.2 La robotique autonome
3.2 Les modèles biologiques de la navigation autonome
3.2.1 Les requis minimum de la navigation
3.2.2 Navigation par guidage
3.2.3 Navigation par association
3.2.4 Navigation par carte topologique
3.2.5 Navigation par carte métrique
3.2.6 Discussion
3.3 Les outils informatiques pour la navigation autonome
3.3.1 Les modèles à base de règles
3.3.2 Les modèles de décisions markoviens
3.3.3 Les modèles évolutionnistes
3.3.4 Les modèles connexionnistes
3.4 Discussion
Chapitre 4 Le cerveau comme cadre de modélisation
4.1 Le cerveau
4.1.1 L’abondance de l’information sensorielle
4.1.2 La surenchère des effecteurs
4.1.3 Les boucles sensorimotrices
4.1.4 Une organisation modulaire
4.2 Le cortex cérébral
4.2.1 Anatomie
4.2.2 Les aires sensorielles
4.2.3 Les aires motrices
4.2.4 Les aires associatives du cortex postérieur
4.2.5 Les aires associatives du cortex frontal
4.2.6 L’unité corticale de traitement de l’information
4.3 L’hippocampe
4.3.1 Anatomie
4.3.2 Connexions de la formation hippocampique
4.3.3 Rôles supposés de l’hippocampe
4.3.4 L’hippocampe, une mémoire déclarative
Partie II Modélisations
Introduction
Chapitre 5 Un modèle de mémoire procédurale
5.1 Définition de l’application
5.1.1 Simulation robotique
5.1.2 Supervision
5.2 Architecture du modèle
5.2.1 Architecture
5.2.2 Les cartes visuelles primaires
5.2.3 La carte perceptive intégrée
5.2.4 La carte motrice
5.2.5 La carte associative
5.2.6 Les flux d’information
5.3 Le modèle de maxicolonne
5.3.1 Les bases d’un modèle unifié
5.3.2 Un modèle incrémental
5.3.3 Les connexions
5.3.4 Les différents états de la colonne
5.3.5 Critères d’excitation d’une colonne
5.4 Résultats expérimentaux
5.4.1 Construction d’une carte cognitive
5.4.2 Utilisation de la carte
5.5 Discussion
Chapitre 6 Un modèle de mémoire déclarative
6.1 L’hippocampe pour la mémoire spatiale et la navigation
6.1.1 Les cellules de lieu
6.1.2 Le système directif de la tête (SDT)
6.1.3 L’intégration de chemin
6.1.4 Discussion
6.2 L’hippocampe pour la mémoire déclarative
6.2.1 L’idée originelle de [Marr, 1971]
6.2.2 La proposition de [McNaughton and Nadel, 1990]
6.2.3 Le modèle de [Hasselmo et al., 1996]
6.2.4 Le modèle de [Murre, 1996]
6.3 Un modèle computationnel de l’hippocampe
6.3.1 Architecture du modèle
6.3.2 Les flux d’information
6.3.3 Discussion
6.4 Apprentissage de motifs réguliers
6.4.1 Définition de l’application
6.4.2 Le modèle de référence de Hopfield
6.4.3 Le modèle ART [Grossberg, 1976a, Grossberg, 1976b]
6.4.4 Le modèle d’hippocampe
6.5 Reconnaissance de lieu sur simulation
6.5.1 Dénition de l’application
6.5.2 Apprentissage
6.5.3 Les stimuli
6.5.4 Protocole expérimental
6.5.5 Résultats
6.6 Reconnaissance de lieu sur robot réel
6.6.1 Dénition de l’application
6.6.2 Apprentissage
6.6.3 Protocole expérimental
6.6.4 Résultats préliminaires
6.7 Discussion
Conclusion générale
Annexe A
Algorithme de Bellman-Ford
Annexe B
Programme C pour le réseau de Hopfield
Bibliographie
Télécharger le rapport complet