Quantification des Incertitudes

Quantification des Incertitudes 

La quantification des incertitudes a été depuis longtemps un des axes principaux de la recherche en modélisation mathématique (Bachelier, 1900; V.P.L.S., 1828). L’objectif étant toujours eu d’établir une relation entre les entrées et les sorties d’un système donné étant donné des informations sur les entrées.

Plus récemment, un très grand nombre d’études a été focalisé sur la quantification des aléas que l’on peut observer sur une mesure, une chaine de production (Van Der Vorst et Beulens, 2002; Santoso et al., 2005; Sawhney, 2006), un signal électrique (Bian et al., 2014; Heidari et al., 2017), la durée d’un processus industriel (Al-Hinai et Elmekkawy, 2011; Xu et al., 2015; Karunakaran et al., 2017), ou un phénomène écologique ou biologique quelconque (Calabrese et al., 2016; Franzke et al., 2015; Wang et al., 2016). Dans ce cadre, nombreuses méthodes ont été élaborées pour évaluer la variabilité, l’erreur ou le seuil de risque ou de confiance en question et parmi les plus célèbres entre celles-ci on cite la Simulation de Monte Carlo (SMC), l’Hypercube Latin (LHS) et les Polynômes du Chaos (PC).

Simulation de Monte Carlo 

Les premières réflexions qui ont conduit à la SMC sont dues à Ulam Stanislaw qui – en jouant au solitaire – a pensé à jouer des centaines de parties pour estimer la probabilité d’un succès (Metropolis, 1987). En se basant sur ce principe avec Nicolas Metropolis, Stanley Frankel et d’autres et sous la direction de John Von Neumann, cette méthode a été utilisée pour la première fois sur ENIAC, le premier ordinateur entièrement électronique, et ce, dans le cadre du projet de construction de la bombe H. La SMC a été présentée par Ulam et Metropolis en 1949 (Metropolis et Ulam, 1949). Malgré son succès dans plusieurs domaines et le rôle important qu’elle joue encore dans les travaux de recherche en modélisation et en optimisation les plus récents (Cheng et al, 2017; Cleveland et Wollaber, 2018; Duc Tam et al., 2017; Ma et al., 2018 et Mavrotas et al., 2015), la SMC a été remise en cause dans certaines études du fait qu’elle devient couteuse lorsque des échantillons de grande taille sont requis pour des résultats significatifs (Souza de Cursi et Sampaio, 2015), plus particulièrement, pour diminuer l’erreur d’approximation de 1/? avec SMC il faut générer un échantillon ?2 fois plus grand (Poles et Lovison, 2009).

Hypercube Latin 

Une autre technique d’échantillonnage multidimensionnel qui sert à quantifier les incertitudes dans les systèmes complexes est celle de l’Hypercube Latin (Latin Hypercube Sampling : LHS). Le LHS a été conçu par McKay, Beckman et Conover et proposée pour la première fois comme une alternative à la SMC dans (Mckay et al., 1979). En effet, Poles et Lovison ont montré dans (Poles et Lovison, 2009) que le LHS fournit une meilleure précision comparé à la SMC, et que pour diminuer l’erreur d’un facteur de 1/? il faut générer un échantillon ? fois plus grand. Des travaux récents ont porté sur le LHS, on en cite (Donovan et al., 2018; Lebon et al, 2016; Maschio et Schiozer, 2016; Sheikholeslami et Razavi, 2017; Shields et Zhang, 2016), toutefois, certaine imperfections de cette méthode ont été mises en exergue dans (Lebon et al., 2016) notamment le fait que le LHS peut former des grappes (clusters) dans certaines régions de l’espace au détriment d’autres régions qui restent inexplorées.

Polynômes de Chaos

Une des techniques les plus performantes et les plus utilisées pour quantifier les incertitudes est le développement en série infinie de polynômes orthogonaux avec des coefficients déterministes. Cette approche qui a connu un très grand succès dans les dernières décennies trouve ses origines dans les travaux de Norbert Wiener qui l’a introduite pour la première fois dans son article « The Homogeneous Chaos » (Wiener, 1938). Wiener, dans ses travaux a présenté le cas particulier d’une expansion en série de polynômes d’Hermite qui sont des fonctions d’une suite de variables gaussiennes indépendantes. Cette méthode demeure plus efficace et moins onéreuse que le LHS et la MCS ; cependant l’approche de Wiener présente certaines imperfections, notamment la restriction sévère aux variables gaussiennes et aux polynômes d’Hermite d’où son nom « Wiener Hermite». En outre, pour utiliser une telle technique il faut disposer de la loi conjointe de (?, ?), où ? est le vecteur aléatoire à développer en série de polynômes et ? le vecteur gaussien utilisé dans l’expansion – information qui n’est pas toujours disponible. Aussi, l’utilisation de variables indépendantes fournit de mauvaises approximations (Holdorf Lopez, 2010) : dans une telle situation, l’espérance conditionnelle ?(?, ?) – qui est la meilleure approximation de ? par une fonction de ? -est une constante (voir le théorème 8, le corollaire 9 et les résultats qui suivent). D’autres limitations sont mises en exergue dans (Augustin et al., 2008; Branickiy et Majda, 2013 et Crestaux et al., 2009).

En ce qui concerne les bases de projection, des bases autres que polynomiales peuvent être utilisées, pour guider le choix on peut se référer à (Badieirostami et al., 2009; Ernst et al., 2012; Oladyshkin et Nowak, 2012; Emmanuel Pagnacco, 2018; Dongbin Xiu, 2010). Pour des problèmes multidimensionnels il existe des bases adaptées, mais la complexité computationnelle grandit rapidement, ce qui limite leur utilisation en pratique.

Généralisation de la théorie des Polynômes de Chaos

Introduction et travaux connexes 

Depuis quelques décennies, la quantification des incertitudes par l’expansion des variables aléatoires en Séries de Fourier Généralisées (SFG) a suscité l’intérêt de nombreux chercheurs ; ceux-ci se sont inspirés des travaux de Wiener en vue de remédier aux limitations de son approche et construire des modèles généralisés du sien et non restreints aux polynômes d’Hermite et aux variables gaussiennes. Historiquement, Ghanem et Spanos étaient les premiers à utiliser la méthode de Wiener-Hermite pour modéliser la réponse d’un système mécanique, sous incertitudes, avec la méthode des éléments finis (EF) et, ainsi, établir une approximation de la densité de probabilité (FDP) de cette réponse (Ghanem et Spanos, 1990). Une deuxième étude qui s’inscrit dans le même cadre est (Ghosh et Iaccarino, 2007). Une extension de la méthode de Wiener-Hermite à des distributions non-gaussiennes et à d’autres familles de polynômes orthogonaux a fait l’objet de plusieurs publications de Xiu et Karniadakis (Karniadakis et al., 2005; Xiu et Karniadakis, 2002a; Xiu et Karniadakis, 2002b; Xiu et Karniadakis, 2003a, 2003b). Celle-ci, étant basée sur le résultat de Cameron et Martin (Cameron et Martin, 1944) est connue sous le nom des « Polynômes de Chaos Généralisés (PCG) ». En 2008, Bruno Sudret a utilisé les PCG pour calculer un indice de Sobol. Dans certaines études qui avaient pour objectif d’élaborer un nouveau modèle d’une expansion de type hilbertien, la convergence des séries était un problème majeur et c’est dans cette optique qu’Olivier Ernst a établi les conditions de convergence du carré des PCG (Ernst al., 2012). Dans la même perspective Xiu et Karniadakis disent : “ convergence to second-order stochastic processes can be possibly obtained as a generalization of Cameron–Martin theorem ” (Xiu et Karniadakis, 2002 – p4930), aussi, Arnst a signalé en 2010 que la convergence du second ordre d’une telle expansion est conditionnée par la normalité des variables aléatoires, ainsi dit-il : “ however, it should be stressed that, in the present state of the art in mathematics, the convergence of a chaos expansion for a second-order random variable with values in an infinite-dimensional space can be obtained only if the germ is Gaussian ” (Arnst et al., 2010 – p3137). Dans ce qui suit nous étudions ce problème et nous répondons ….

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

1. Introduction générale
1.1. Contexte du travail et problématique
1.2. Contribution et organisation du travail
2. Quantification des Incertitudes
2.1. Introduction
2.2. Simulation de Monte Carlo
2.3. Hypercube Latin
2.4. Polynômes de Chaos
3. Généralisation de la théorie des Polynômes de Chaos
3.1. Introduction et travaux connexes
3.2. Problématique et méthodologie
3.3. Démonstration
3.3.1.Séparabilité
3.3.2.Convergence
3.4. Applications numériques
3.4.1.Base polynomiale
a) ?(?) = |?|
b) ?(?) = ???(?)
c) ?(?) = ?[0,4](?) − ?[−4,0](?)
d) ?(?) = 0,5. ? + ???(??)
3.4.2.Base trigonométrique
a) ?(?) = |?|
b) ?(?) = ???(?)
c) ?(?) = ?[0,4](?) − ?[−4,0](?)
d) ?(?) = 0,5. ? + ???(??)
3.4.3.Remarques
3.5. Situation où l’information sur ? n’est pas complète
3.5.1.L’ajustement des moments
3.5.2.Approche par collocation
3.5.3.Tri croissant des échantillons
3.6. Conclusion
4. Statistique des Courbes
4.1. Introduction
4.2. Illustration de l’approche
4.2.1.Famille de cercles aléatoires
4.2.2.Famille d’hypocycloïdes aléatoires
4.2.3.Famille d’épitrochoïdes aléatoires
4.2.4.Famille d’arcs de cercles concentriques aléatoires
4.3. Implémentation
4.3.1.Distance de Hausdorff
4.3.2.Distance ?2
4.3.3.Moyenne et Médiane
4.3.4.Quantiles et Intervalle de Confiance
5. Conclusion générale

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *