LA NAVIGATION AUTONOME

LA NAVIGATION AUTONOME

Les perceptrons multicouches

Un perceptron multicouche ou Multilayer Perceptron (MLP) en Anglais n’est rien d’autre qu’un assemblage de couches concatรฉnรฉes les unes aux autres, de la gauche vers la droite, en prenant les sorties d’une couche et en les injectant comme les entrรฉes de la couche suivante. Le problรจme de la navigation peut รชtre vue de diffรฉrentes maniรจres: comme un problรจme ร  deux classes non linรฉairement sรฉparables de type OU exclusif: passer ou ne pas passer, accรฉlรฉrer ou ne passer accรฉlรฉrer, tourner ร  droite ou tourner ร  gauche etc. comme un problรจme d’approximation de fonction. On suppose qu’il y a une loi qui rรฉgit toutes les rรฉactions du conducteur aux stimuli qu’il reรงoit. Et on tente de trouver un estimateur de cette loi, comme un problรจme de classification: tourner ร  droite, tourner ร  gauche, continuer tout droit. Accรฉlรฉrer, dรฉcรฉlรฉrer, maintenir sa vitesse etc. Dans ce qui va suivre, nous essayerons de montrer par des exemples qu’un perceptron multicouche permet de rรฉsoudre ces types de problรจmes au moyen de ses couches supplรฉmentaires. Une chose que l’on peut dรฉjร  remarquer est qu’il ne sert ร  rien d’assembler plusieurs couches linรฉaire (Adaline) car la combinaison de plusieurs couches linรฉaires peut toujours se ramener ร  une seule couche linรฉaire รฉquivalente. Pour รชtre utile donc, un rรฉseau multicouche doit toujours possรฉder des neurones avec des fonctions de transfert non-linรฉaires sur ses couches cachรฉes. Sur sa couche de sortie, selon le type d’application, il pourra comporter des neurones linรฉaires ou non-linรฉaires.
a) Le problรจme du OU exclusif
La rรฉalisation de la fonction OU exclusif est un cas de problรจme ร  deux classe non linรฉairement
sรฉparables que l’on rรฉsout au moyen d’un perceptron multicouche. Mais qu’entend-on par problรจme ร  deux classes ยซlinรฉairement sรฉparablesยป ? Simplement un problรจme de classification dont la frontiรจre de dรฉcision permettant de sรฉparer les deux classes peut s’exprimer sous la forme d’un hyperplan (plan dans un espace ร  n dimensions ; dans un espace ร  deux dimensions, la frontiรจre est une droite). Soit par exemple les problรจmes illustrรฉs sur la figure 2-9 oรน on veut sรฉparer les points noirs des points blancs.Aucun de ces problรจmes n’est sรฉparable au moyen d’une droite). Des frontiรจres possibles sont dessinรฉes
en pointillรฉs. C’est le problรจme du ยซOU exclusifยป (XOR) que l’on ne peut pas rรฉsoudre ni avec un perceptron simple,ni avec un rรฉseau Adaline, car les points noirs ne peuvent pas รชtre sรฉparรฉs des blancs ร  l’aide d’une seule frontiรจre de dรฉcision linรฉaire. Dans ce problรจme, les points noirs reprรฉsentent le vrai (valeur 1) et les points blancs le faux (valeur 0). Le ยซou exclusif>>, pour รชtre vrai, exige qu’une seule de ses entrรฉes soit vraie, sinon il est faux. On peut rรฉsoudre facilement ce problรจme ร  l’aide du rรฉseau multicouche illustrรฉ ร  la figure 2-10 [28], fait de deux couches avec des fonctions de transfert seuil et une combinaison judicieux de poids et de biais. Sur la premiรจre couche, chaque neurone engendre les frontiรจres de dรฉcision illustrรฉes aux figures 2-1 a) et 2-11 b). Les zones grises reprรฉsentent la rรฉgion de l’espace d’entrรฉe du rรฉseau pour laquelle le neurone correspondant produit une rรฉponse vrai. Le rรดle du neurone de la couche de sortie, illustrรฉ ร  la figure 2-11 c), consiste ร  effectuer la conjonction des deux rรฉgions produite par les neurones de la premiรจre couche. La figure 2-11 reprรฉsente toutes les frontiรจres de dรฉcision dans l’espace des entrรฉes. La frontiรจre de dรฉcision engendrรฉe par le neurone de la couche de sortie est aussi illustrรฉe
dans son propre espace d’entrรฉe ร  la figure 2-12.
Mentionnons fmalement que le rรฉseau de la figure 2-10 n’est pas le seul ร  rรฉsoudre le problรจme du ยซou exclusif>>.
b) L’approximation de fonction
Pour faire de l’approximation de fonction, on peut montrer qu’un rรฉseau multicouche comme celui de la figure 2-13, avec une seule couche cachรฉe de neurones sigmoรฏdes et une couche de sortie de neurones linรฉaires permet d’approximer n’importe quelle fonction avec une prรฉcision arbitraire, ร  condition de disposer de suffisamment de neurones sur la couche cachรฉe [28]. futuitivement, c’est comme pour les sรฉries de Fourier qui utilisent des sinus et cosinus. N’importe quelle fonction peut รชtre รฉcrite sous forme de combinaison linรฉaire de sigmoรฏdes.
c) La classification
Pour faire de la classification, on utilise des rรฉseaux soit ร  deux, soit ร  trois couches (comme ร  la figure 26) de neurones sigmoรฏdes. On peut montrer qu’une seule couche cachรฉe suffit ร  engendrer des frontiรจres de dรฉcision convexes, ouvertes ou fermรฉes, de complexitรฉ arbitraire, alors que deux couches cachรฉes permettent de crรฉer des frontiรจres de dรฉcision concaves ou convexes, ouvertes ou fermรฉes, de complexitรฉ arbitraire. La figure 2-14 montre en deux dimensions diffรฉrents types de frontiรจres de dรฉcision. Intuitivement, on peut imaginer que la premiรจre couche cachรฉe d’un tel rรฉseau sert ร  dรฉcouper l’espace d’entrรฉe en plusieurs rรฉgions ร  l’aide de frontiรจres de dรฉcision linรฉaires ou non linรฉaires. La deuxiรจme couche sert ร  faire la conjonction des rรฉgions dรฉlimitรฉes par la couche prรฉcรฉdente et il en rรฉsulte des frontiรจres de dรฉcision non-linรฉaires convexes. De mรชme, la couche de sortie fait la conjonction des rรฉgions dรฉlimitรฉes par la couche prรฉcรฉdente et il en rรฉsulte des frontiรจres de dรฉcision concaves.

L’apprentissage des rรฉseaux de neurones

Le champ des rรฉseaux de neurones a pour objet de rรฉpondre ร  la question suivante: comment pouvons nous construire un systรจme informatique qui automatiquement amรฉliore ses performances avec l’expรฉrience et quel est le principe organisateur du processus d’apprentissage? Il s’agit, trรจs
schรฉmatiquement, de concevoir des algorithmes capables de construire des schรฉmas gรฉnรฉraux des chosesย  ร  partir de cas particuliers et de se servir de ces schรฉmas pour infรฉrer sur d’autres cas particuliers. L’apprentissage est un processus de gรฉnรฉralisation au cours duquel ร  partir d’exemples, on construit un modรจle qui nous permettra de reconnaรฎtre de nouveaux exemples. En fait la caractรฉristique finale de l’apprentissage est de nous faire bรฉnรฉficier d’un retour d’expรฉrience chaque fois que nous avons ร  refaire une chose que nous avons dรฉjร  faite au moins une fois dans le passรฉ. Autrement dit, l’apprentissage permet quand vient le temps de refaire quelque chose qu’on a dรฉjร  faite de:
1) Mieux la refaire (diminution du nombre d’erreur)
2) La refaire rapidement (diminution du temps d’exรฉcution)
3) La refaire plus facilement (diminution de la ressource mentale et/ou physique investie)
Cette dรฉfinition implique qu’un rรฉseau se doit d’รชtre stimulรฉ par l’environnement, qu’il subisse des
changements en rรฉaction ร  cette stimulation, et que ceux-ci provoquent dans le futur une rรฉponse nouvelle vis-ร -vis de l’environnement. Ainsi, le rรฉseau peut s’amรฉliorer avec le temps.Dans la plupart des architectures, l’apprentissage se traduit par une modification de l’efficacitรฉsynaptique, c’est-ร -dire par un changement de la valeur des poids qui relient les neurones d’une couche ร  l’autre.On distingue deux grandes catรฉgories de rรฉseaux de neurones: les rรฉseaux feed-forward (ou rรฉseaux non bouclรฉs) et les rรฉseaux feed-back (ou rรฉseaux bouclรฉs ou rรฉseaux rรฉcurrents). Parmi les principales architectures non-bouclรฉes, on compte le perceptron, le perceptron multicouche, les rรฉseaux ร  fonction radiales (RBF). Elles servent ร  la classification et l’approximation de fonction. Et dans la catรฉgorie des rรฉseaux bouclรฉs, il y a les rรฉseaux ร  compรฉtition dont les cartes auto-organisatrices de Kohonen, les rรฉseaux de Hop field et les rรฉseaux ART [28]. Les rรฉseaux non-bouclรฉs sont entrainรฉs essentiellement au moyen du mode d’apprentissage dit supervisรฉ pendant que les rรฉseaux bouclรฉs utilisent l’apprentissage par renforcement et l’apprentissage non supervisรฉ.

Le rapport de stage ou le pfe est un document dโ€™analyse, de synthรจse et dโ€™รฉvaluation de votre apprentissage, cโ€™est pour cela chatpfe.com propose le tรฉlรฉchargement des modรจles complet de projet de fin dโ€™รฉtude, rapport de stage, mรฉmoire, pfe, thรจse, pour connaรฎtre la mรฉthodologie ร  avoir et savoir comment construire les parties dโ€™un projet de fin dโ€™รฉtude.

Table des matiรจres

Remerciements
LISTE DES TABLEAUX
LISTE DES FIGURES
Rร‰SUMร‰
ABS TRACT
INTRODUCTION
CHAPITRE 1 INTRODUCTION ร€ LA NAVIGATION AUTONOME
1.1 Le concept de tรฉlรฉ-opรฉration basรฉe sur le retour visuel
1.2 Architecture de mobilitรฉ d’un vรฉhicule automatisรฉ
1.3 Niveaux d’intervention
1.3.1 Tรฉlรฉpilotage
1.3.2 Tรฉlรฉguidage
1.3.3 Tรฉlรฉplanification
1.3.4 L’autonomie complรจte
1.4 Problรฉmatique de la navigation autonome
1.5 Les principales approches
1.5.1 Les architectures dรฉlibรฉratives
1.5.2 Les architectures rรฉactives
1.5.3 Les architectures hybrides
1.6 Analyse comparative des approches
CHAPITRE 2 LES Rร‰SEAUX DE NEURONES
2.1 Les architecture de rรฉseaux de neurones
2.1.1 Le parallรจle rรฉseau de neurones et cerveau
2.1.2 Modรจle d’un neurone
2.1.3 Modรจle d’un rรฉseau de neurones
2.1.4 Les perceptrons
2.1.5 Les perceptrons multicouches
2.2 L’apprentissage des rรฉseaux de neurones
2.2.1 L’apprentissage supervisรฉ
2.2.2 L’apprentissage par renforcement
2.2.3 L’apprentissage non-supervisรฉ
2.2.4 Revue de littรฉrature des approches neuronales de la navigation autonome
2.3 Avantages et inconvรฉnients des rรฉseaux de neurones
CHAPITRE 3 GUIDAGE D’UN ROBOT MOBILE PAR UN PERCEPTRON MULTICOUCHE
3.1 L’architecture de commande
3.2 La perception de l’environnement
3.3 La planification de la route
3.4 Le guidage latรฉral du mouvement: commande du cap
3.4.1 L’algorithme pour le guidage latรฉral
3.4.2 Validitรฉ de l’algorithme du guidage latรฉral
3.5 Le guidage longitudinal du mouvement: commande de la vitesse
3.5.1 L’algorithme pour le guidage longitudinal
3.5.2 Validitรฉ de l’algorithme du guidage longitudinal
3.6 Contrรดle parallรจle et conjoint du cap et de la vitesse
3.7 Architectures des rรฉseaux de neurones
3.7.1 Architecture pour le contrรดle latรฉrale
3.7.2 Architecture pour le guidage longitudinal
3.8 L’apprentissage
CHAPITRE 4 MISE EN ล’UVRE ET Rร‰SULTATS
4.1 Constitution de la base d’apprentissage
4.1.1 Base d’apprentissage pour le contrรดle latรฉral
4.1.2 Base d’apprentissage pour le guidage longitudinal
4.2 Choix de l’architecture du rรฉseau
4.2.1 Architecture pour le contrรดle latรฉral
4.2.2 Architecture pour le guidage longitudinal
4.3 L’apprentissage des contrรดleurs neuronaux
4.4 Analyse de le performance du contrรดleur latรฉral
4.4.1 Performance en apprentissage
4.4.2 Capacitรฉ de prรฉdiction
4.5 Analyse de la performance du contrรดleur longitudinal
4.5.1 Performance en apprentissage
4.5.2 Capacitรฉ de prรฉdiction
4.6 Discussion
CONCLUSION
Rร‰Fร‰RENCES

Rapport PFE, mรฉmoire et thรจse PDFTรฉlรฉcharger le rapport complet

Tรฉlรฉcharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiรฉe. Les champs obligatoires sont indiquรฉs avec *