Surveillance et estimation de l’état de véhicules automobiles

Système de surveillance de la pression des pneumatiques (SSPP)

               L’objectif de ce système est d’alerter le conducteur en cas de perte de pression des pneumatiques, ce qui permet de réduire les émissions de CO2 causées par un sous-gonflage, d’allonger la durée de vie des pneumatiques et d’augmenter la sécurité des passagers, en réduisant le risque d’éclatement des roues. Les solutions SSPP actuelles sont basées sur l’utilisation de capteurs de pression installés sur chaque valve des roues du véhicule en mesurant en temps réel les valeurs de pression et de température [Schimetta et al., 2000]. L’inconvénient de ces solutions est que les pneumatiques doivent être adaptés à l’installation de tels capteurs, que ces capteurs de pression nécessitent une maintenance régulière pour minimiser le risque de défaut et la perte de détection, et que les capteurs de pression engendrent des coûts de fabrication et d’entretien significatifs. Une nouvelle solution sans capteur de pression (SSPP indirect), en phase de développement chez Renault, propose de mettre en place un système de détection d’un sous-gonflage à partir de l’analyse de signaux présents sur le bus CAN (angle volant, vitesses angulaires, régime moteur et accélérations) [El-Tannoury, 2012]. En revanche, cette nouvelle solution est plus complexe que les solutions actuelles et sa mise au point est plus difficile. Le SSPP indirect est constitué d’algorithmes de détection de sous-gonflage qui font appel à un nombre important de paramètres de réglage. Afin d’optimiser tous ces paramètres et valider le réglage final obtenu, une grande base de données de plus de 1 380 000 km de roulage a été conçue. Par conséquent, le temps de simulation du système sur toute cette base de données fait que la mise au point manuelle des algorithmes de détection du SSPP est une tâche complexe, fastidieuse et chronophage. Le premier objectif de cette thèse est de concevoir une stratégie de mise au point automatique du système SSPP indirect en prenant en compte la complexité des algorithmes, le nombre important de paramètres à régler, le caractère multi-objectif du critère à optimiser et la très grande taille de la base de données.

Algorithmes déterministes

                 La plupart des algorithmes déterministes partent du principe que la fonction objectif soit Lipschitzienne. Cette hypothèse permet de construire et d’optimiser globalement une fonction qui sous-estime la fonction objectif. Un exemple est l’algorithme DIRECT [Jones et al., 1993] qui divise l’espace de recherche en hypercubes et sélectionne ceux qui ont un fort potentiel de réduction de la fonction objectif. Ce potentiel est défini comme un compromis entre la diminution de la valeur de la fonction objectif (optimisation locale) et la taille de l’hypercube (optimisation globale). Un autre algorithme très utilisé est le Branchand-Bound [Pintér, 2013]. Cet algorithme divise l’espace de recherche en plusieurs régions et détermine des limites supérieures et inférieures de chaque région. L’avantage de cette méthode est le fait de réduire l’espace de recherche en éliminant les régions où la minimisation de la fonction objectif n’est pas possible. Dans le groupe des algorithmes déterministes non-Lipschitziens, on peut citer des algorithmes comme le Multilevel coordinate search [Huyer et Neumaier, 1999].

Optimisation globale multi-objectif

                L’optimisation d’une fonction ayant plusieurs objectifs à optimiser est appelée optimisation multi-objectif. Dans l’industrie, les systèmes sont généralement évalués avec des critères antagonistes, ce qui fait que l’optimisation n’est pas une tâche facile. Une grande partie des algorithmes d’optimisation globale multiobjectif sont des extensions d’algorithmes d’optimisation globale mono-objectif [Minoux, 1983] [Boyd et Vandenberghe, 2004]. En règle générale, les différents objectifs de la fonction à optimiser sont combinés linéairement avec des poids définis a priori en obtenant un seul objectif à traiter. Néanmoins, trouver un bon compromis entre les différents objectifs de la fonction est étudié par d’autres algorithmes d’optimisation multi-objectif [Collette et Siarry, 2003]. Dans cette section, après avoir introduit quelques notions basiques sur l’optimisation multi-objectif, les algorithmes d’optimisation globale multi-objectif de référence seront présentés : le Non-dominated Sorting Genetic Algorithm 2 (NSGA2) [Deb et al., 2000], le Pareto Efficient Global Optimization (ParEGO) Exemple d’une fonction bi-objectif (n =2) avec deux paramètres à optimiser (m =2).(A gauche) L’espace de paramètres X ∈ R m avec quelques configurations de paramètres (points bleus). (A droite) L’espace de performances F ∈ R n avec les résultats obtenus (points rouges) en évaluant les configurations de paramètres par la fonction objectif f(x). (En bas) Représentation du front de Pareto (Pareto Front) et de l’ensemble de Pareto (Pareto Set) obtenus à partir du principe de la dominance. [Knowles, 2005], le Multi-Objective Particle Swarm Optimization (MOPSO) [Coello et al., 2004], le Pareto Envelope-based Selection Algorithm 2 (PESA2) [Corne et al., 2001] et le Strength Pareto Evolutionary Algorithm 2 (SPEA2) [Zitzler et al., 2001]. Les algorithmes NSGA2 et ParEGO seront expliqués avec plus de détail en raison de leur usage fréquent dans l’industrie automobile. Dans la littérature, on trouve des travaux de référence sur l’optimisation multi-objectif comme [Coello et al., 2007] concernant les algorithmes d’optimisation évolutionnaires, et [Voutchkov et Keane, 2010] pour ce qui est des algorithmes d’optimisation avec modèles de substitution.

Strength Pareto Evolutionary Algorithm 2

                   L’algorithme Strength Pareto Evolutionary Algorithm 2 (SPEA2) [Zitzler et al., 2001] est l’évolution de l’algorithme multi-objectif évolutionnaire SPEA [Zitzler et Thiele, 1998]. L’idée principale de cette méthode est d’utiliser une archive externe pour enregistrer, à chaque itération de l’optimisation, les solutions non-dominées. Deux critères sont utilisés pour définir la performance des évaluations :
• Valeurs de rangs. À chaque itération de l’algorithme, deux valeurs sont calculées. La première valeur est proportionnelle au nombre d’évaluations que celle-ci domine. La seconde est, quant à elle, proportionnelle au nombre d’évaluations qui la dominent.
• Valeur de densité. Le principe de dominance est utilisé pour calculer la distance entre les évaluations du PF afin de définir la densité des évaluations proches, permettant de guider la recherche plus efficacement.
Pour le calcul des critères précédents, les évaluations de l’archive externe sont prises en compte. Une particularité de cet algorithme est la définition de la taille de l’archive externe. Le nombre maximal d’évaluations à enregistrer est un paramètre très important, car une valeur trop grande provoquera une recherche locale de l’optimisation (intensification), et une valeur trop petite incitera une recherche globale (exploration).

Comparaison des algorithmes KEEP et ParEGO

                       Les algorithmes ParEGO et KEEP (le 1er modèle de substitution) sont basés sur le même principe : la combinaison linéaire des objectifs de la fonction à optimiser (différents poids des objectifs à chaque itération) en utilisant la fonction de Tchebycheff (2.56), plus l’utilisation du critère EI (2.50) comme critère d’échantillonnage. Néanmoins, l’introduction d’une stratégie à double krigeage permet d’utiliser un nouveau critère d’échantillonnage appelé PEI (3.2), qui peut être vu comme une évolution du critère EI. Pour montrer les différences entre les deux algorithmes, un exemple est présenté dans la Figure 3.1. Ces résultats ont été obtenus avec deux nombres d’itérations différentes (j0 étant le nombre d’évaluation initiales nécessaires pour la réalisation du HCL égale à 21), avec 22 évaluations (j0 + 1) et 41 évaluations (j0 + 20). La nouvelle configuration candidate est sélectionnée en maximisant ce critère. Le but de ces deux critères d’échantillonnage (EI et PEI) est de proposer la meilleure configuration candidate possible à chaque itération. Le problème est que, pour de grandes dimensions, les modèles de substitution utilisés par l’approximation de la performance ˆfλ(x) (j) ont plusieurs minima locaux, spécialement aux limites de l’espace de recherche où le krigeage a une erreur très élevée (principale limitation de l’algorithme ParEGO). L’ajout d’un second modèle de substitution par l’algorithme KEEP présente l’avantage de concentrer les évaluations dans des zones plus intéressantes de l’espace de recherche (d’un point de vue de l’optimisation multi-objectif) à partir de la probabilité d’appartenir au PS. Pour illustrer le comportement des GA sur les deux critères d’échantillonnage (critère EI pour l’algorithme ParEGO et le critère PEI pour l’algorithme KEEP), un exemple en petite dimension est présenté dans la Figure 3.2. Après 31 évaluations (21 du PdE initial + 10 de l’algorithme d’optimisation), le critère EI présente plus de maximum locaux (12) que PEI (9). De plus, les maxima présentés pour le critère EI sont éloignés du vrai PS et concentrés aux limites de l’espace de recherche, alors que le critère PEI présente des maxima plus proches du vrai PS et moins dispersés dans l’espace de recherche. En général, les GA sont plus efficace en optimisant le PEI que le EI, à cause du fait que le critère EI a trop de maxima répartis sur tout l’espace de recherche (problème de grande dimension) et a des phénomènes d’aiguilles3 (problème à petite dimension). Dans l’exemple proposé, on peut remarquer que, après 10 itérations d’optimisation avec chaque algorithme, le ParEGO a proposé 4 configurations de paramètres proche du vrai PS alors que l’algorithme KEEP n’a proposé 11 (PS très bien défini).

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

1 Introduction générale
1.1 Motivation de la thèse
1.1.1 Système de surveillance de la pression des pneumatiques
1.1.2 Système de conduite automatique en embouteillage
1.2 Contributions principales
1.2.1 Articles dans des revues internationales
1.2.2 Articles dans des revues internationales en soumission
1.2.3 Brevets déposés
1.2.4 Communications dans des conférences avec actes et comité de lecture
1.2.5 Communications dans des colloques ou des journées scientifiques sans actes
1.2.6 Documents techniques
1.3 Autres contributions
1.4 Organisation du manuscrit
I Optimisation globale de fonctions coûteuses et boîtes noires 
2 État de l’art 
2.1 Notions fondamentales
2.2 Optimisation globale mono-objectif
2.2.1 Algorithmes déterministes
2.2.2 Algorithmes stochastiques directs
2.2.3 Algorithmes stochastiques indirects
2.2.4 Modèles de substitution
2.2.5 Fonctions de covariance
2.2.6 Estimation de paramètres de covariance
2.2.7 Plan d’expérience
2.2.8 Critère d’échantillonnage
2.3 Optimisation globale multi-objectif
2.3.1 Quelques définitions
2.3.2 Nondominated Sorting Genetic Algorithm 2
2.3.3 Pareto Efficient Global Optimization
2.3.4 Multi-Objective Particle Swarm Optimization
2.3.5 Pareto Envelope-based Selection Algorithm 2
2.3.6 Strength Pareto Evolutionary Algorithm 2
2.3.7 Récapitulatif
2.4 Conclusion
3 Double krigeage pour l’optimisation multi-objectif 
3.1 Nouvelle méthode d’optimisation multi-objectif
3.2 Comparaison des algorithmes KEEP et ParEGO
3.3 Analyse comparative des performances
3.3.1 Conditions d’optimisation
3.4 Conclusion
4 Système de surveillance de la pression des pneumatiques 
4.1 Introduction
4.2 Système de détection du SSPP indirect
4.2.1 Système de Détection de Crevaison (SDC)
4.2.2 Système de Détection de Diffusion (SDD)
4.2.3 Algorithme de décision
4.3 Base de données de tests
4.3.1 Niveaux de sous-gonflages
4.3.2 Types de routes
4.3.3 Charge du véhicule
4.3.4 Type de pneumatiques
4.4 Plan de validation
4.4.1 Critères de performance
4.5 Mise au point du SSPP indirect
4.5.1 Mise au point du SDC
4.5.2 Mise au point du SDD
4.5.3 Étape intermédiaire
4.5.4 Mise au point de l’algorithme de décision
4.6 Conclusion
II Observateurs pour les systèmes d’aide à la conduite 
5 Introduction aux observateurs 
5.1 Notations et notions mathématiques
5.2 Observateurs pour systèmes linéaires
5.2.1 Observateur de Luenberger
5.2.2 Observateur de Kalman
5.2.3 Observateur dans une boucle de commande
5.3 Observation des systèmes non linéaires
5.3.1 Forme canonique d’observabilité et synthèse d’observateurs
5.3.2 Observateurs à grand gain
5.3.3 Observateurs par mode glissant
5.4 Conclusion
6 Estimation d’état dans le cadre du Traffic Jam Pilot (TJP) 
6.1 Systèmes de contrôle et observateurs pour l’automobile
6.2 Dynamique latérale du véhicule
6.2.1 Classification des modèles du mouvement latéral du véhicule
6.2.2 Modèle bicyclette
6.2.3 Modèle bicyclette avec un véhicule cible
6.2.4 Radar et caméra
6.2.5 Colonne de direction
6.2.6 Modèle complet du véhicule
6.3 Contrôle latéral TJP
6.4 Observateur linéaire
6.4.1 Analyse de l’observabilité
6.4.2 Filtre de Kalman
6.5 Observateurs non linéaires
6.5.1 Observabilité et condition d’observabilité
6.5.2 Forme canonique d’observabilité
6.5.3 Observateur à grand gain
6.5.4 Observateur par mode glissant
6.6 Optimisation du réglage des observateurs non linéaires
6.6.1 Critères de performance
6.6.2 Optimisation des gains de l’observateur
6.6.3 Résultats de l’optimisation des observateurs
6.7 Installation expérimentale
6.8 Résultats par simulation
6.9 Résultats sur des données réelles
6.10 Conclusion
Conclusion générale et perspectives
Annexes

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *