Quelques éléments relatifs à l’unicité et à l’existence du minimum
Dans le cadre de l’optimisation considérée ici, il est possible de connaître a priori l’existence et l’unicité de la solution à un problème d’optimisation sans et sous contraintes (à condition bien entendu de connaître certaines propriétés de la fonction objectif et des fonctions contraintes). Ces résultats d’existence sont regroupés sous forme de conditions d’optimalité dites du premier et du second ordre (portant respectivement sur le gradient et le hessien de la fonction objectif). Il est possible de les écrire pour chaque type de problèmes (optimisation sans contrainte, optimisation avec contraintes d’égalités, optimisation avec contraintes d’inégalités et optimisation avec contraintes d’égalités et d’inégalités). Dans le cadre le plus général, c’est-à-dire dans le cadre d’un problème d’optimisation avec contraintes d’égalités et d’inégalités, on emploie classiquement les conditions nécessaires d’optimalité connues sous le nom de conditions de Karush-Kuhn-Tucker [KARUSH 1939 ; KUHN et TUCKER 1951]. Ces conditions ne seront pas explicitées ici mais peuvent être trouvées dans [NOCEDAL et S. J. WRIGHT 1999] par exemple. Certains des algorithmes d’optimisation ont été conçus et/ou leurs convergences prouvées à partir des conditions d’optimalité. Parmi les algorithmes dont la convergence a été prouvée (sous certaines conditions), on retrouve les algorithmes de descente de gradient avec pas de Wolfe, avec pas fixe et avec pas optimal, les algorithmes de gradients conjugués (par exemple Pollack-Rivière), les algorithmes de Newton et de quasi-Newton (par exemple BFGS)…
Algorithmes d’optimisation globale
Les méthodes d’optimisation locales introduites précédemment permettent de trouver le point minimum d’un problème d’optimisation avec ou sans contraintes dans le voisinage d’un point initialement choisi. Le défaut principal de ce type de méthodes est qu’elles n’assurent pas d’obtenir le minimum global dans tous les cas. En effet, dans le cas d’une fonction multimodale (ayant plusieurs minima), le minimum atteint sera lié au point initial choisi pour initialiser l’algorithme. Dans le cadre de l’optimisation d’assemblage proposé dans ces travaux, on cherche à trouver le minimum global associé au problème d’optimisation considéré. Pour cela, il est nécessaire d’employer un algorithme d’optimisation globale. On propose, dans cette partie, de rappeler les principes des différents algorithmes de recherche globale employés couramment. Afin d’expliciter les différents principes régissant les algorithmes d’optimisation globale, il est possible de les classer en distinguant
◮ les méthodes énumératives qui cherchent à détecter les zones de l’espace de recherche qui ne contiennent pas de minimum. Pour cela, elles se basent sur une discrétisation de l’espace de recherche. Le principal inconvénient de ce type de méthodes est qu’elles nécessitent un nombre important d’évaluations pour parvenir à localiser le minimum global (ce nombre est d’autant plus grand que la dimension du problème est importante et que le pas de la discrétisation est fin). Parmi les méthodes énumératives, on trouve
◁ la méthode branch and bound [LAND et DOIG 1960], qui est une méthode récursive de recherche de minima basée sur le partitionnement de l’espace de recherche en plusieurs zones pour y détecter la présence du minimum. Elle s’applique dans le cadre de l’optimisation discrète. La méthode cherche alors à déterminer des bornes d’encadrement du minimum.
◁ la méthode DIRECT (DIividing RECTangles [D. R. JONES, PERTTUNEN et STUCKMAN 1993]) construisant itérativement un pavage de �. Cet algorithme s’applique aux fonctions lipschitziennes . Les rectangles du pavage sont progressivement divisés en considérant tous les compromis entre la valeur de la fonction objectif au centre de chaque pavé et la taille du pavé.
◮ les méthodes de recherche aléatoires [ANDERSON 1953 ; RASTRIGIN 1963 ; SOLIS et WETS 1981 ; BOENDER et al. 1982] qui consistent à tirer des jeux de paramètres aléatoires et à évaluer la fonction objectif en ces points. À la suite à chaque évaluation, on compare la valeur obtenue avec la meilleure valeur obtenue précédemment. Si une meilleure valeur est trouvée alors on l’enregistre. Le processus continue ensuite. Ces méthodes peuvent être couplées avec des méthodes de recherche locale où les points tirés au hasard sont utilisés comme points initiaux de l’algorithme d’optimisation locale. Il faut noter que ces méthodes peuvent converger plusieurs fois vers les mêmes minima locaux.
◮ les méthodes de regroupement (clustering) [R. W. BECKER et LAGO 1970 ; TORN 1977 ; RINNOOY KAN et TIMMER 1987] qui, suite à un échantillonnage de l’espace de recherche et à l’évaluation de la fonction objectif aux points échantillonnés, regroupent les points en régions prometteuses. Dans chaque zone, une recherche locale est ensuite réalisée. Les recherches locales convergeant vers une zone déjà explorée sont abandonnées. Dans le cas d’une fonction possédant de nombreux minima, ces méthodes nécessitent un nombre important d’échantillons et donc d’évaluations de la fonction objectif pour converger.
◮ les méthodes de descente généralisées basées sur le principe des méthodes de descente brièvement décrites précédemment. Ces stratégies visent à éviter de converger vers un minimum local lorsque celui-ci a déjà été trouvé et à poursuivre la recherche dans une autre zone potentielle où se situerait un « meilleur » minimum. Il existe deux principales stratégies permettant d’éviter de converger vers un minimum connu :
◁ il est possible de pénaliser la fonction objectif au fur et à mesure du déroulement du processus d’itération afin de tenir compte des minima déjà atteints
◁ une autre stratégie consiste à chercher un nouveau point d’initialisation [LEVY et MONTALVO 1985] de l’algorithme de descente
◮ les méthodes évolutionnaires sont des méthodes stochastiques qui peuvent être présentées par analogie avec la théorie de la sélection naturelle de Darwin : les individus les plus performants d’une population ont une plus grande probabilité de survivre et d’engendrer des descendants encore plus résistants. . L’algorithme ainsi conçu considère une population initiale et un ensemble d’opérations de sélection, de croisement et de mutation. Il se déroule ensuite en trois phases : (1) tout d’abord, certains individus de la population sont choisis pour leurs performances (en fonction de la valeur de la fonction objectif qui leur est associée), (2) puis par croisement de ces individus, de nouveaux individus sont créés, et (3) finalement, une perturbation aléatoire des individus (mutation) permet de générer la population. L’algorithme continue itérativement jusqu’à convergence (régie par un critère d’arrêt). Parmi les différentes méthodes évolutionnaires, on distingue trois variantes [BACK, HAMMEL et SCHWEFEL 1997] : les algorithmes génétiques (genetic algorithm – GA) [HOLLAND 1962 ; HOLLAND 1975 ; GOLDBERG 1989]) les stratégies d’évolution (evolution strategies – ES) [RECHENBERG 1973 ; SCHWEFEL 1995] et la programmation évolutive (evolutionary programming – EP) [FOGEL 1962 ; FOGEL 1964].
◮ les méthodes basées sur l’intelligence en essaims sont fondées sur le comportement de certaines espèces animales. Plus précisément, certaines espèces qui vivent en colonie (de 2 ou plusieurs membres) adoptent un comportement de groupe pour assurer leur survie. Chaque individu (on parle également d’« agents ») du groupe semble avoir un comportement autonome mais celui-ci est au service du groupe, ce qui lui permet, par exemple, d’atteindre un endroit qu’un individu seul ne pourrait atteindre. L’étude et l’adaptation informatique de ces comportements a donné lieu à la création de nombreuses stratégies d’optimisation regroupées sous le terme générique d’intelligence en essaim (swarm intelligence [BONABEAU, DORIGO et THERAULAZ 1999]). Actuellement, de nombreux algorithmes basés sur le principe de l’intelligence en essaim sont développés. On se propose ici de se concentrer sur les deux principaux aujourd’hui utilisés :
◁ les algorithmes des colonies de fourmis (Ant Colony Optimization) ont été proposés par DORIGO [DORIGO 1992 ; DORIGO et GAMBARDELLA 1997 ; DORIGO et DI CARO 1999]. Ces algorithmes ont été initialement introduits pour traiter des problèmes discrets tels que la recherche de chemins optimaux dans un graphe (par exemple le problème du voyageur de commerce, qui consiste à trouver le plus court chemin passant une seule fois par un ensemble de noeuds). Ils se basent sur le comportement des colonies de fourmis lorsque celles-ci cherchent de la nourriture. Lors de cette recherche, une fourmi parcourt au hasard l’espace autour de la colonie. Lorsqu’elle trouve une source de nourriture, elle en rapporte à la colonie tout en laissant sur son trajet des phéromones volatiles. Ces phéromones sont un marqueur que les autres fourmis ont tendance à suivre. Dans le cas où plusieurs sources de nourriture sont trouvées, la plus proche verra le trajet pour y accéder parcouru par le plus grand nombre de fourmis dans une même durée et, par conséquent, le dépôt de phéromones sera plus important. À terme, les autres trajets seront délaissés (et le taux de phéromones sur ces trajets deviendra quasi-nul). Ce comportement de recherche de trajet le plus court a été mis en œuvre numériquement et progressivement amélioré afin de le rendre plus robuste [DORIGO et GAMBARDELLA 1997]. Il tient compte du phénomène de dépôt des phéromones, de leur volatilité (on parle d’évaporation) et du caractère aléatoire de la recherche. Pour cela, les algorithmes de colonie de fourmis intègrent un certains nombre de lois paramétriques permettant de restituer ces comportements. Par la suite, le domaine d’application de cette famille d’algorithmes a été étendu aux problèmes d’optimisation continus [DRÉO 2004 ; SOCHA et DORIGO 2008].
◁ les algorithmes par essaims particulaires (Particle Swarm Optimization) ont été proposés par [J. KENNEDY et EBERHART 1995]. Ils mettent en œuvre numériquement une stratégie de collaboration entre agents. A l’instar de l’algorithme des colonies de fourmis, chaque agent n’a qu’une vision partielle du problème (dans la zone où il se déplace). L’algorithme pilote le comportement d’un ensemble de particules (formant l’essaim) en agissant sur leur position et leur vitesse. Il cherche itérativement à faire converger l’essaim vers la solution optimale du problème. Pour cela, l’algorithme calcule à chaque itération la vitesse de déplacement de chaque particule. Il est possible de scinder l’essaim en sous-groupes et en adaptant le comportement panurgien à la nouvelle structure. Bien qu’ayant un principe de fonctionnement et une mise en œuvre assez aisés, ce type d’algorithme présente des points délicats tels que le choix des paramètres qui régissent le comportement des particules, le nombre de particules à choisir (pour avoir un bon compromis entre nombre d’itérations et convergence) et le type de scission de l’essaim. Quelques éléments complémentaires peuvent être trouvés dans [TRELEA 2003 ; CLERC 2005 ; PARSOPOULOS et VRAHATIS 2007 ; FONTAN 2011].
◮ la recherche tabou (tabu search) introduite par [GLOVER 1986 ; GLOVER et TAILLARD 1993]. Elle vise à améliorer les stratégies d’optimisation locale en y ajoutant un effet mémoire : les informations relatives aux minima déjà atteints ainsi que les jeux de paramètres qui leur sont associés sont stockés au fur et à mesure des itérations. Ainsi la progression à chaque itération de l’algorithme se fait dans une direction et vers un jeu de paramètres qui n’est pas « tabou » (c’est-à-dire qui est autorisé). La mise en œuvre de cette démarche permet d’éviter l’arrêt de l’algorithme aux minima locaux.
◮ le recuit simulé se base sur un phénomène observé en metallurgie. La méthode de recuit permet d’améliorer les caractéristiques d’un matériau métallique en le chauffant graduellement puis en le refroidissant progressivement. Cette méthode est utilisée par exemple pour faciliter la relaxation des contraintes internes qui apparaissent au cœur des pièces suite à leur mise en forme. Elle permet de rétablir l’état d’équilibre de la micro-structure du matériau. Le recuit simulé vise à reproduire numériquement les phénomènes thermodynamiques qui se déroulent lors du recuit pour obtenir le nouvel état du matériau (obtenu en minimisant son énergie). Il a été développé par [KIRKPATRICK, GELATT et VECCHI 1983 ; Cˇ ERNÝ 1985] et emploie l’algorithme de Metropolis [METROPOLIS et al. 1953] qui permet de décrire l’évolution d’un système thermodynamique. Par analogie avec le phénomène physique, l’algorithme de recuit simulé cherche à minimiser la fonction objectif (qui, par analogie avec le phénomène physique, serait l’énergie du système) par le biais d’un paramètre interne (qui serait la température). Cet algorithme assure une exploration à la fois aléatoire (l’algorithme de Metropolis cherche à reproduire le phénomène aléatoire de réagencement des atomes au sein du matériau basé sur l’équation de Boltzmann) et contrôlée afin de converger vers le minimum global en évitant les minima locaux (c’est ce qui se produit lorsque l’on refroidit de manière contrôlée la pièce pour atteindre l’état le plus stable à énergie minimale). L’algorithme tire ensuite un nombre aléatoire compris entre 0 et 1. Si ce nombre est inférieur à la probabilité, alors le jeu de paramètres est retenu. Ainsi les jeux de paramètres pour lesquels la valeur de la fonction objectif n’est pas meilleure ne sont pas nécessairement rejetés. Cependant, la décroissance de la température limite progressivement la liberté de recherche de l’algorithme, ce qui lui permet ainsi d’éviter un arrêt prématuré dans une zone de minimum local. Cette décroissance est pilotée itérativement par une loi (cf. [TRIKI, COLLETTE et SIARRY 2005]). Le recuit simulé est une méthode d’optimisation très populaire en raison de son efficacité et de sa capacité à s’adapter à de nombreux types de problèmes d’optimisation. Cependant, la convergence, bien qu’assurée sous certaines conditions (cf. [VAN LAARHOVEN et AARTS 1987]), est relativement lente et l’algorithme nécessite de fixer empiriquement un nombre important de paramètres. Ces méthodes dédiées à l’optimisation globale sont également classiquement regroupées sous le terme meta-heuristique [DRÉO 2004]. Ce terme désigne une méthode d’optimisation approchée capable de s’adapter facilement et sans grande modification de l’algorithme à un grand nombre de problèmes différents. Elle est, par ailleurs, utilisable en connaissant très peu d’informations concernant le problème. Elles s’appuient sur une base commune ayant les caractéristiques suivantes :
◮ elles ont un caractère stochastique qui assure une exploration du domaine de recherche ;
◮ ces méthodes sont directes (elles ne nécessitent pas le calcul du gradient) ;
◮ elles s’inspirent de comportements rencontrés dans la nature ;
◮ elles n’offrent aucune garantie sur l’optimalité de la meilleure solution fournie.
Une méthode de calcul pour les études paramétriques ou l’optimisation
Dans le contexte des études paramétriques ou dans celui de problèmes d’optimisation,il est nécessaire d’évaluer la réponse d’un modèle pour plusieurs jeux de paramètres. Dans les travaux présentés dans ce manuscrit, on s’intéresse à des paramètres tels que des coefficients de frottement, des jeux et des précharges. Les problèmes résultant de la prise en compte des variabilités de ce type de paramètres sont très similaires : ils n’engendrent pas de modifications de la géométrie et leur action est très locale. Cependant, ils peuvent avoir une influence à l’échelle globale de la structure. Par exemple, la modification des caractéristiques de frottement au niveau d’une liaison boulonnée peut engendrer une modification notoire et globale du comportement de celle-ci : les efforts transmis par adhérence de la liaison pourraient être transmis par l’intermédiaire d’une ou plusieurs vis travaillant en cisaillement. L’obtention d’une réponse du modèle peut nécessiter un temps de calcul extrêmement important du fait :
◮ de la taille du problème qui, si on le souhaite représentatif d’un assemblage complexe, peut comporter un nombre important d’interfaces, un nombre important de degrés de liberté aux interfaces et dans les pièces.
◮ de la nécessité de prendre en compte les comportements non-linéaires pouvant survenir aux interfaces.
◮ de la prise en compte de chargements ayant des évolutions complexes qui nécessitent une discrétisation temporelle conséquente.
◮ de la nécessité de s’assurer d’une convergence suffisante de la méthode itérative employée (afin de minimiser les erreurs locales commises). En partant de ce constat, il n’est a priori pas viable de recalculer l’intégralité de la solution du problème d’assemblage considéré pour chaque jeu de paramètres. Cependant, il est possible de tenir compte des spécificités d’un calcul réalisé par la Méthode des Éléments Finis comme par exemple la constance de certains opérateurs ou au contraire leur dépendance connue aux paramètres. Les méthodes brièvement rappelées dans la suite se démarquent par le type de paramètres qu’elles peuvent prendre en compte en proposant une modélisation appropriée. On distinguera les méthodes adaptées aux variables aléatoires et celles adaptées aux variables déterministes. Par ailleurs, aux études paramétriques et à l’optimisation peuvent s’ajouter les analyses de sensibilité (qui visent à évaluer la variabilité de la réponse du modèle ou du système considéré en fonction de paramètres déterministes ou aléatoires) et les analyses de fiabilité (qui visent à évaluer la probabilité des défaillances d’un système en tenant compte de performances à atteindre). Dans cette partie, plusieurs méthodes dédiées à cette problématique de multiples résolutions seront rappelées. Une attention particulière sera portée sur la stratégie multiStratégie multiparamétrique et métamodèles pour l’optimisation multiniveaux de structures paramétrique qui est capable de tenir compte des spécificités de la méthode LATIN afin de réduire les coûts de calcul.
Quelques aspects pratiques de la mise en œuvre du krigeage
La matrice de corrélation présente dans la construction du krigeage peut être le foyer de plusieurs problèmes. En effet, celle-ci doit être inversée lors de la résolution du problème de krigeage. Un mauvais conditionnement 4 peut alors rendre cette étape particulièrement complexe. Plusieurs causes et solutions à ce problème ont été identifiées. Parmi celles-ci on trouve :
◮ la présence de deux sites échantillonnés trop proches (dans l’espace des paramètres) pouvant engendrer l’apparition de deux lignes et colonnes de la matrice quasiment similaires. Le conditionnement s’en trouve alors dégradé et l’inversion peut devenir impossible. Pour remédier à ce problème, il est important d’employer une méthode de tirage assurant une bonne uniformité des points dans l’espace de conception et de ne pas avoir de sites en doublons.
◮ certaines valeurs des paramètres peuvent altérer le conditionnement de la matrice de corrélation (voir figure 3.7b). Ce problème peut survenir lors de la détermination des paramètres du modèle de krigeage : par exemple lors de la maximisation de la vraisemblance par un algorithme d’optimisation, un jeu de paramètres de krigeage peut conduire à une matrice de corrélation mal conditionnée, à l’impossibilité de l’inversion et par conséquent à l’impossibilité du calcul de la vraisemblance. Il est donc nécessaire de définir judicieusement les bornes de l’espace où l’on recherche ces paramètres ou d’employer un algorithme d’optimisation ou une méthode capable de tenir compte de ce problème.
◮ parallèlement au problème précédent, certaines fonctions de corrélation peuvent engendrer une altération du conditionnement de la matrice de corrélation de manière plus systématique. Ce problème a été constaté par exemple dans [ABABOU, BAGTZOGLOU et WOOD 1994] où il est montré qu’en général, le conditionnement de la matrice de corrélation est mauvais pour une fonction gaussienne et meilleur pour une fonction exponentielle (voir la figure 3.7). La fonction Matérn permettrait quant à elle d’améliorer de façon notoire le conditionnement de la matrice de corrélation [VAZQUEZ 2005].
Optimisation globale sur le métamodèle
Une fois le métamodèle construit, l’idée de base consiste à réaliser l’optimisation globale directement sur le métamodèle. Cette phase, bien que simple à mettre en œuvre, est réalisée avec un coût très faible. Elle peut conduire à une convergence vers un minimum local existant sur le métamodèle mais inexistant pour la fonction réelle issue du solveur mécanique. Ce phénomène est dû à plusieurs éléments :
◮ l’échantillonnage, choisi initialement pour construire le métamodèle, peut ne pas s’avérer pertinent pour obtenir une approximation correcte dans la zone où se trouve le minimum ;
◮ la présence sur la fonction objectif réelle d’une « vallée », c’est-à-dire une zone où la fonction prend une valeur très proche de sa valeur minimale ;
◮ la présence de plusieurs minima globaux de même valeur.
La solution pour remédier à ces 3 problèmes consiste à employer un échantillonnage très dense dans la zone où se trouve le minimum. Or, dans la pratique, cette zone n’est pas connue. Il serait donc envisageable de densifier l’échantillonnage sur l’intégralité de l’espace de conception. Cette méthode ne s’avère bien entendu pas viable car elle engendrerait un nombre d’appels au solveur mécanique bien trop important. La seule solution possible est alors d’utiliser le métamodèle pour obtenir la ou les zones nécessitant un ajout d’information. On parlera alors d’enrichissement. Ce dispositif fera l’objet de la partie suivante. Par ailleurs, la méthode d’enrichissement pourra fournir une réponse au deuxième point introduit précédemment. La problématique de la présence de plusieurs minima ne sera pas abordée dans ce manuscrit. Elle nécessiterait une stratégie de traitement de chacun des minima pour s’assurer de leur pertinence dans la recherche du minimum global. Pour quelques éléments de réponse quant au traitement de ces candidats potentiels, on pourra se référer aux travaux suivants [VILLANUEVA et al. 2013].
|
Table des matières
Table des figures
Liste des tableaux
Introduction
1 Outils au service de l’optimisation d’assemblages
1 Introduction
2 Optimisation
2.1 Différents types d’optimisation et de stratégies
2.1.1 Optimisation de forme
2.1.2 Optimisation paramétrique
2.2 Formulation d’un problème d’optimisation paramétrique
2.2.1 Formulation générale et vocabulaire
2.2.2 Solutions du problème d’optimisation et vocabulaire
2.2.3 Quelques éléments relatifs à l’unicité et à l’existence du minimum
2.2.4 Problématiques de l’optimisation
2.3 Algorithmes d’optimisation
2.3.1 Optimisation locale ou globale ?
2.3.2 Algorithmes d’optimisation locale
2.3.3 Algorithmes d’optimisation locale sous contraintes
2.3.4 Algorithmes d’optimisation globale
2.4 Approches multiniveaux
2.4.1 Vocabulaire et contexte
2.4.2 Optimisation multiniveaux de paramètres
2.4.3 Optimisation multiniveaux de modèles
3 Calculs d’assemblages pour l’optimisation
3.1 La méthode LATIN
3.1.1 Hypothèses, notations et problème de référence
3.1.2 Décomposition de domaine
3.1.3 Séparation des difficultés
3.1.4 Algorithme LaTIn
3.1.5 Lois de comportement des interfaces
3.1.6 Aspects pratiques de la résolution et spécificités de la méthode
3.1.7 Quelques compléments sur la méthode LATIN
3.2 Une méthode de calcul pour les études paramétriques ou l’optimisation
3.2.1 Quelques stratégies pour les multiples résolutions
3.2.2 Approches numériques pour les multiples résolutions
3.2.3 La stratégie multiparamétrique
4 Modèles de substitution
4.1 Notations
4.2 Mise en œuvre d’un modèle de substitution
4.3 Inclusion dans un processus d’optimisation
4.4 Méthodes d’échantillonnage de l’espace des paramètres
4.4.1 Rappels sur les plans d’expérience usuels
4.4.2 Méthodes de remplissage de l’espace (Space Filling Design)
4.4.3 Bilan des stratégies de tirages
4.5 Modèles de substitution
4.5.1 Historique des modèles de substitution
4.5.2 Régression polynomiale
4.5.3 Moindres carrés mobiles
4.5.4 Interpolation Cumulative
4.5.5 Réseaux de neurones
4.5.6 Régression à Vecteur de Support
4.6 Validation
4.6.1 MSE, RMSE
4.6.2 �2
4.6.3 Erreur relative moyenne absolue (RAAE)
4.6.4 Erreur relative maximale absolue (RMAE)
4.6.5 Quelques erreurs normées
4.6.6 Erreurs basées sur l’emploi de la validation croisée
4.7 Comparaisons de métamodèles
5 Bilan et cadre de l’étude proposée
2 La stratégie multiparamétrique au service de l’optimisation d’assemblages
1 Introduction
2 Mise en œuvre de la stratégie
2.1 Aspects pratiques des études paramétriques
2.1.1 Première solution
2.1.2 Solution retenue, mise en place et développée
2.2 Moyens de calcul
2.3 Présentation des performances
2.3.1 Mesure de performance
2.3.2 Influence du type de paramètres
2.3.3 Influence du critère d’arrêt
2.3.4 Problématique de l’initialisation de la stratégie mutliparamétrique
2.3.5 Stratégies d’initialisation
2.3.6 Etude de choix d’une stratégie d’initialisation
2.3.7 Méthodes de tri des jeux de paramètres
2.4 Bilan intermédiaire
3 Calcul des gradients
3.1 Méthodes de calcul des gradients
3.1.1 Différences finies
3.1.2 Approche par variable complexe
3.1.3 Méthode directe
3.1.4 Méthode adjointe
3.1.5 Différenciation automatique
3.2 Stratégie multiparamétrique et calcul des gradients
3.2.1 Problématique des différences finies appliquées à la stratégie multiparamétrique
3.2.2 Recherche du pas des différences finies
4 Illustrations des performances
5 Bilan sur l’emploi de la stratégie multiparamétrique pour l’optimisation
3 Modèles de substitution et prise en compte des gradients
1 Introduction
2 Krigeage et RBF sans gradient
2.1 Krigeage
2.1.1 Élaboration du krigeage
2.1.2 Principe de construction
2.1.3 Différents types de krigeage
2.1.4 Structure de covariance
2.1.5 Interpolation
2.1.6 Illustration du krigeage
2.1.7 Détermination des paramètres
2.1.8 Calculs des gradients du krigeage
2.1.9 Quelques aspects pratiques de la mise en œuvre du krigeage
2.2 Fonctions de base radiales (RBF)
2.2.1 Formulation du modèle
2.2.2 Choix de la fonction de base radiale
2.2.3 Détermination des paramètres
2.2.4 Variance de prédiction des RBF
2.2.5 Version étendue des RBF
3 Modèles de substitution à gradients
3.1 Cokrigeage à gradients
3.1.1 Formulation du cokrigeage à gradients
3.1.2 Cokrigeage indirect
3.1.3 Extension à des dérivées d’ordre supérieur
3.2 RBF à gradients
3.3 Autres métamodèles à gradients
4 Comparaisons de métamodèles
4.1 Fonction d’une variable
4.1.1 Réponses
4.1.2 Intervalles de confiance
4.2 Fonction de deux variables
4.2.1 Prise en compte de l’anisotropie
4.2.2 Prise en compte des gradients
4.3 Dimensions supérieures
4.4 Bilan
5 Métamodèles et stratégie multiparamétrique
5.1 Illustration sur un exemple simple
5.1.1 Exemple à nombre de tirages fixés
5.1.2 Exemple à qualité fixée
5.1.3 Montage fretté
5.2 Application à des exemples comportant plus de variables de conception
6 Bilan de l’élaboration des modèles de substitution
4 Mise en œuvre d’une méthode d’optimisation à deux niveaux
1 Description de l’approche considérée
2 Premier niveau
2.1 Construction du modèle de substitution
2.2 Optimisation globale sur le métamodèle
2.2.1 Méthodes d’enrichissement
2.2.2 Mise en œuvre de l’optimisation globale
2.2.3 Exemples d’application sur une fonction analytique
3 Second niveau
4 Application de la procédure d’optimisation à des assemblages
4.1 Etude de l’impact d’un rainurage sur une répartition de pression
4.1.1 Problème d’optimisation
4.1.2 Etude paramétrique
4.1.3 Approche sans enrichissement
4.1.4 Approche avec enrichissement
4.2 Montage fretté
4.3 Joint d’accouplement
5 Bilan de la stratégie d’optimisation proposée
Conclusions et perspectives
Bibliographie
Télécharger le rapport complet