Dans les problèmes d’optimisation multidisciplinaire, les disciplines représentent généralement une spécialité d’ingénierie (mécanique, mécanique des fluides, thermique. . .). Elles peuvent cependant désigner d’autres types d’entités, telles que des codes de calcul différents ou des équipes de travail. Leur formulation peut être explicitement donnée par des équations – les équations d’état –, représentant des problèmes d’optimisation ou le résultat de simulations par des codes de calculs dédiés, ou représenter des données fournies par une équipe gardant sa méthode confidentielle. C’est pourquoi nous modéliserons les disciplines comme des boîtes noires dont on ne connaît que les entrées et les sorties. Les disciplines sont généralement couplées, c’est-à-dire que les entrées d’une discipline peuvent être le résultat d’un calcul effectué par une autre discipline. Des solutions admissibles, globalement optimales et satisfaisant au mieux chacune des disciplines simultanément doivent alors être trouvées. Ces solutions constituent des solutions de compromis du problème.
La résolution des couplages constitue une des difficultés majeures de l’optimisation multidisciplinaire et est abondamment traitée dans la littérature. Dans ce chapitre, nous donnons des définitions formelles de l’optimisation multidisciplinaire et de ses principales méthodes de résolution. Plusieurs méthodes d’optimisation multidisciplinaire ont été proposées depuis le début des années 1990. Les différences entre ces méthodes sont analysées et en particulier la manière dont les solutions de compromis sont définies.
Description des problèmes d’optimisation multidisciplinaire
L’optimisation multidisciplinaire est définie de manière générale comme l’ensemble des problèmes liés à la conception de systèmes d’ingénierie complexes impliquant plusieurs disciplines (AIA 1991, Sobieszczanski-Sobieski et Haftka 1997, Alexandrov et Lewis 1999). Ces problèmes vont de la modélisation mathématique des problèmes d’optimisation multidisciplinaire, à la gestion des équipes disciplinaires, en passant par le choix algorithmes d’optimisation. Les problèmes d’optimisation multidisciplinaire font souvent référence, plus précisément, à la résolution de problèmes d’optimisation couplés. Cramer et al. (1993) proposent une formalisation des problèmes d’optimisation multidisciplinaire en identifiant les différentes équations et variables mises en jeu dans la résolution du problème . On retrouvera par la suite des formulations simplifiées des problèmes d’optimisation multidisciplinaire (Alexandrov et Kodiyalam 1998), où les équations sont décrites comme des fonctions. Les formulations précédentes (Sobieszczanski-Sobieski 1988b) présentaient les problèmes d’optimisation multidisciplinaire comme des problèmes de décomposition hiérarchique, l’analyse multidisciplinaire étant jugée trop coûteuse.
Analyse disciplinaire
Le terme discipline, dans le cadre de la conception, désigne à l’origine une discipline au sens discipline scientifique ou d’ingénierie (mécanique, mécanique des fluides, électronique. . .). Plus généralement, une discipline peut faire référence à un sous-problème, un code de calcul ou une équipe, suivant le contexte. En règle générale, une discipline peut être considérée comme une boîte noire à laquelle on donne des valeurs d’entrée et qui retourne des valeurs de sortie.
Chaque discipline a un système d’équations d’états à résoudre, qui, pour la discipline i, s’écrit sous la forme :
Ai(ei , si) = 0 (2.1)
où ei ∈ Ei représente les variables d’entrée et si ∈ Si les sorties. En pratique, il s’agit souvent de codes de calculs dont les équations ne sont pas résolues exactement. Un résidu ri est alors renvoyé. Les disciplines possèdent également leurs propres variables internes décrivant leur physique. Ces variables entrent en compte dans la résolution de l’équation d’état mais n’ont pas d’interaction avec les autres disciplines.
Les problèmes d’optimisation multidisciplinaire sont généralement classés en deux catégories : hiérarchiques et non hiérarchiques. Nous distinguons ainsi plusieurs types de problèmes d’optimisation multidisciplinaire suivant la présence ou non de problèmes d’optimisation locaux ou globaux :
– problème d’optimisation uniquement global,
– problèmes d’optimisation uniquement locaux,
– problèmes d’optimisation globaux et locaux.
Le premier cas ajoute l’analyse multidisciplinaire à un problème d’optimisation. Il s’agit du type de problème d’optimisation le plus étudié dans la littérature (voir par exemple Cramer et al. 1993, Balling et Sobieszczanski-Sobieski 1994, Alexandrov et Kodiyalam 1998, Alexandrov et Lewis 1999, Hulme et Bloebaum 2000, Dennis et al. 2005, DeMiguel et Murray 2006). Le second peut être vu comme un problème de théorie des jeux (Nash 1951, Chanron et Lewis 2005). En théorie des jeux, cependant, seuls les problèmes mono-objectifs par joueur sont considérés. Dans ce cas, les solutions optimales sont les solutions optimales au sens de Pareto, il ne s’agit cependant pas toujours des solutions d’équilibre. Quel que soit le type de problème d’optimisation multidisciplinaire, les fonctions coûts locales et globales sont souvent agrégées en une somme pondérée (voir par exemple Balling et Rawlings 2000, Gantois et Morris 2004, Lee et Jeong 2006) ou une fonction multiobjectif (voir par exemple Gunawan et al. 2003), soit des sous-ordres de (R,≤R) dans le cas de l’agrégation des fonctions en somme pondérée ou de (Rᵖ , ≤Rᵖ ) dans le cas multiobjectif.
Méthodes de résolution
Les méthodes de résolution des problèmes d’optimisation multidisciplinaire ont fait l’objet de nombreux articles de synthèse de la littérature (Balling et Sobieszczanski-Sobieski 1994, Sobieszczanski-Sobieski et Haftka 1997, Alexandrov et Lewis 1999, Dépincé et al. 2007, Yi et al. 2008, Tosserams et al. 2009). Les méthodes d’optimisation multidisciplinaire y sont généralement classées suivant l’un des critères suivants :
Niveaux d’optimisation (mononiveau ou multiniveau). Une méthode mononiveau est une méthode ne comportant qu’un seul optimiseur, tandis qu’une méthode multiniveau en possède à la fois dans les disciplines et au niveau global.
Intégration de l’analyse et de l’optimisation Balling et Sobieszczanski-Sobieski (1994) introduisent un autre type de classification, en faisant une distinction entre SAND (Simultaneous Analysis and Design ) et NAND (Nested Analysis and Design). Cette distinction peut être opérée au niveau global ou disciplinaire. SAND signifie que les variables de conception et d’état sont déterminées simultanément par l’optimiseur, tandis que NAND signifie que l’optimiseur ne détermine que les variables de conception, mais requiert les variables d’état à chaque itération.
Traitement des contraintes Alexandrov et Lewis (1999) classent les méthodes suivant trois critères, suivant que les contraintes dans l’analyse disciplinaire, l’optimisation ou la cohérence interdisciplinaire soient ouvertes ou fermées.
Ces classifications s’intéressent à la manière dont les phases d’optimisation et d’analyse interagissent. Notre problématique est différente, puisque nous ne nous intéressons non pas à la résolution des couplages, mais à la définition des solutions de compromis. Parmi les méthodes existantes, nous distinguons trois approches différentes :
1. les méthodes de reformulation de problèmes qui, se basant sur des formulations mathématiquement équivalentes, ont pour objectif de donner le maximum d’indépendance aux disciplines, tout en accélérant la convergence des algorithmes;
2. les méthodes basées sur la théorie des jeux ;
3. les méthodes basées sur les algorithmes évolutionnaires multiobjectifs.
Afin d’illustrer les formulations, nous présenterons le cas d’un problème à deux disciplines. Dans les schémas, les notations suivantes sont utilisées :
– O et Oi pour respectivement l’optimiseur global et l’optimiseur de la discipline i;
– A et Ai pour respectivement l’analyse multidisciplinaire et l’analyse de la disciplinei;
– Ei pour l’évaluation de la discipline i.
|
Table des matières
Introduction
1 Optimisation et algorithmes évolutionnaires
Introduction
1.1 Les optimums d’un ensemble
1.1.1 Notions de préordres
1.1.2 Définition des minimums
1.2 Problème d’optimisation
1.2.1 Minimum d’une fonction
1.2.2 Prise en compte des préférences
1.2.3 Solutions d’un problème d’optimisation
1.3 Algorithmes d’optimisation
1.3.1 Métaheuristiques
1.3.2 Algorithmes d’optimisation itératifs et à population
1.3.3 Principe des algorithmes évolutionnaires
1.4 Génotype : codage des individus et opérateurs génétiques
1.4.1 Codage des individus
1.4.2 Croisements
1.4.3 Mutations
1.4.4 Structure de l’espace de recherche
1.5 Phénotype : évaluation et sélection des individus
1.5.1 Évaluation des individus
1.5.2 Sélection
Conclusion
2 Formalisation et résolution des problèmes d’OMD
Introduction
2.1 Description des problèmes d’optimisation multidisciplinaire
2.1.1 Analyse disciplinaire
2.1.2 Optimisation disciplinaire
2.1.3 Analyse multidisciplinaire
2.1.4 Problème d’optimisation multidisciplinaire
2.2 Méthodes de résolution
2.2.1 Reformulations de problèmes
2.2.2 Théorie des jeux
2.2.3 Méthodes basées sur les algorithmes évolutionnaires
Conclusion
3 Le compromis en OMD multiobjectif
Introduction
3.1 Problématique
3.1.1 Définition du problème
3.1.2 Traitement du compromis dans les méthodes d’OMD
3.1.3 Limites des méthodes actuelles
3.2 C1 : Le produit d’ordre
3.2.1 Principe
3.2.2 Formalisation
3.3 C2 : une extension du produit
3.3.1 Principe
3.3.2 Formalisation
3.3.3 Propriétés
3.4 C3 : Le compromis comme le rang des rangs
3.4.1 Principe
3.4.2 Formalisation
3.4.3 Propriétés
3.5 Inconvénients des compromis C2 et C3
3.6 C4 : Un produit faible entre les disciplines
3.6.1 Principe
3.6.2 Formalisme
3.6.3 Propriétés
Conclusion
4 EMO-MDO : un algorithme évolutionnaire pour l’OMD
Introduction
4.1 Algorithme
4.1.1 Algorithme général
4.1.2 Calcul du rang
4.2 Expérimentations
4.2.1 Protocole expérimental
4.2.2 Problème 1
4.2.3 Problème 2
4.2.4 Problème 3 : problème à quatre barres
4.2.5 Problème 4 : le réducteur de vitesse
4.2.6 Synthèse des résultats
Conclusion
Conclusion