Applications à la résolution des équations de Navier-Stokes instationnaires

Mémoire pour l’obtention du diplôme de master en mathématiques
Parcours : mathématiques appliquées
Spécialité : mécanique

Méthode du gradient conjugué

La méthode du gradient conjugué permet de résoudre les systèmes linéaires dont la matrice est symétrique définie positive. Il s’agit d’une méthode qui consiste, à partir d’un vecteur donné x0, à déterminer à chaque étape un vecteur wk et un scalaire αk permettant de calculer xk+1 à partir de xk par xk+1 = xk +αkwk (1.6) l’ objectif étant de minimiser une fonction(descendre un potentiel). Avant d’introduire la méthode du gradient conjugué pour résoudre un système linéaire, il est utile d’aborder sommairement les méthodes du gradient.

Les méthodes du gradient

On considère le problème de minimisation d’une fonction suivant :
( Trouver ˜ x ∈RnJ (˜ x)≤ J(x) pour tout x ∈Rn où J est une fonction donnée de Rn dans R. Dans ce paragraphe nous adopterons le gradient de la fonction à minimiser comme direction de descente : wk =∇J(xk) où J : x ∈ Rn 7−→ J(x) ∈ R est la fonction à minimiser. Le paramètre αk sera d’abord choisi constant, ensuite nous calculons sa valeur optimale. Le but étant de résoudre le système linéaire : Ax = b où A es tune matrice d’ordre nsymétrique définie positive et b ∈Rn.
Nous considérons la fonction J suivante J(x)= 1 2(Ax,x)−(b,x)
Ce choix est motivé par le résultat de la proposition suivante:  Soient A ∈ Mn(R) une matrice symétrique définie positive et b ∈Rn. Alors ˜ x ∈Rn est solution du système linéaire (1.9) si et seulement si ∀x ∈Rn, J(˜ x)≤ J(x) où J est la fonction définie par (1.10).
Démonstration : Supposons que ˜ x est solution de . On a alors pour tout x ∈Rn J(x)−J(˜ x) = 1 2(Ax,x)−(b,x)− 1 2(A˜ x,˜ x)+(b,˜ x) = 1 2(Ax,x)− 1 2(A˜ x,˜ x)−(b,x−˜ x) = 1 2(Ax,x)− 1 2(A˜ x,˜ x)−(A˜x,x−˜ x) carA˜ x = b = 1 2(Ax,x)+ 1 2(A˜ x,˜ x)−(A˜x,x) = 1 2(A(x−˜ x),x−˜ x)≥0 (car A est positive et symétrique) Réciproquement, supposons que (1.11) est vérifiée. On introduit pour z donné dans Rn, la fonction f : R−→R définie par f(t)= J(˜ x+tz) On a d’après (1.11) : ∀t ∈R,f(0)≤ f(t) et par conséquent, zéro est un minimum de la fonction dérivable f, d’où f0(0)=0 On a par ailleurs f0(0) = lim t→0 f(t)−f(0) t = lim t→0 1 2(A(˜ x+tz),˜ x+tz)−(b,˜ x+tz)− 1 2(A˜ x,˜ x)+(b,˜ x) t = lim t→0 t((A˜x,z)−(b,z))+ 1 2t2(Az,z) t = (A˜ x−b,z)
Cela entraine que :
∀z ∈Rn,(A˜ x−b,z)=0 c’est à dire que x˜ est solution du système linéaire
Remarque  On rappelle que le gradient d’une fonction G : Rn −→R au point x ∈Rn vérifie ∀z ∈Rn,(∇G(x),z)=lim t→0 G(x+tz)−G(x) t Il en résulte, en considérant la fonction définie par (1.10),que ∀z ∈Rn,(∇J(x),z)=(Ax−b,z) et que ∇J(x)= Ax−b 1.5.3 La méthode du gradient à pas fixe La méthode du gradient à pas fixe est définie par l’algorithme suivant ( x0 donné xk+1 = xk +α∇J(xk)= xk +α(Axk −b)
Théorème  Si A ∈Mn(R) est symétrique définie positive, alors la méthode du gradient à pas fixe α, converge pour α ∈]− 2 ρ(A),0[ où ρ(A) est le rayon spectral de la matrice A. C’est-à-dire, que la suite générée par l’algorithme  converge, pour tout choix de x0, vers l’unique solution du système linéaire : Ax = b Démonstration 1.14. La matrice de la méthode itérative (1.12) est donnée par B = I +αA (1.13) On sait que la suite définie par (1.12) converge si et seulement si ρ(B) < 1 (1.14) Cela entraine que α 6=0. Par ailleurs, en désignant par Sp(A) et Sp(B), respectivement les ensembles de valeurs propres de A et de B, on a Si λ ∈ Sp(A) alors 1+αλ ∈ Sp(B) (1.15) En effet,il est clair que si λ ∈ Sp(A)alors1+αλ ∈ Sp(B). Inversement, si δ ∈ Sp(B) alors il existe u ∈Rn(u 6=0) tel que (I +αA)u = δu d’où pour α 6=0 Au = δ−1 α u 11
et δ =1+αδ−1 α avec δ−1 α ∈ Sp(A).On déduit de(1.15),que la condition de convergence(1.14)est satisfaite si et seulement si ∀λ ∈ Sp(A) 1+αλ ∈]−1,1[ On en déduit puisque A est définie positive et donc Sp(A)⊂R∗,que ∀λ ∈ Sp(A) α ∈]− 2 λ ,0[ où de manière équivalente α ∈]− 2 ρ(A),0[

La méthode du gradient à pas optimal

Méthode du gradient à pas optimal consiste à changer le paramètre α intervenant dans (1.12) à chaque itération k par un pas αk, dit pas optimal, dont la construction est basée sur le résultat suivant.
Proposition: Soient J la fonction définie sur Rn par (1.10), x un vecteur de Rn et w un vecteur non nul de Rn. On considère le problème ( Trouver α ∈R tel que ∀t ∈R,J(x+αw)≤ J(x+tw) (1.16) Si la matrice A intervenant dans (1.10) est symétrique définie positive, alors (1.16) admet une solution unique donnée par α =−(Ax−b,w) (Aw,w) .

Démonstration 1.16. On considère la fonction f : R−→R définie par f(t)= J(x+tw) On a f(t) = 1 2(A(x+tw),x+tw)−(b,x+tw) = 1 2[(Ax,x)+2t(Ax,w)+t2(Aw,w)]−(b,x)−t(b,w) = 1 2t2(Aw,w)+t(Ax−b,w)+ 1 2(Ax,x)−(b,x) Puisque (Aw,w) > 0 (car A est définie positive et w 6=0 par hypothèse), on en déduit que la fonction f admet un minimum global au point t = α donné par α =−(Ax−b,w) (Aw,w)

Guide du mémoire de fin d’études avec la catégorie mathématiques appliquées

Étudiant en université, dans une école supérieur ou d’ingénieur, et que vous cherchez des ressources pédagogiques entièrement gratuites, il est jamais trop tard pour commencer à apprendre et consulter une liste des projets proposées cette année, vous trouverez ici des centaines de rapports pfe spécialement conçu pour vous aider à rédiger votre rapport de stage, vous prouvez les télécharger librement en divers formats (DOC, RAR, PDF).. Tout ce que vous devez faire est de télécharger le pfe et ouvrir le fichier PDF ou DOC. Ce rapport complet, pour aider les autres étudiants dans leurs propres travaux, est classé dans la catégorie méthode des éléments finis où vous pouvez trouver aussi quelques autres mémoires de fin d’études similaires.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport gratuit propose le téléchargement des modèles gratuits de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Remerciements
Nomenclature
Introduction Générale
1. GENERALITES
1.1 Etablissement des équations de Navier-Stokes
1.1.1 Conservation de la masse
1.1.2 Equation de conservation de la quantité du mouvement
1.1.3 Loi de comportement du fluide newtonien
1.2 Méthode des éléments finis
1.2.1 Problème variationnel
1.2.2 Méthode de Galerkin
1.3 Introduction à l’Optimisation
1.3.1 Extrema, points critiques et points selles
1.3.2 Lagrangien et point selle
1.4 Méthode de descente
1.5 Méthode du gradient conjugué
1.5.1 Introduction
1.5.2 Les méthodes du gradient
1.5.3 La méthode du gradient à pas fixe
1.5.4 La méthode du gradient à pas optimal
1.5.5 Description de la méthode du gradient conjugué : Cas des fonctionnelles quadratiques
1.5.6 Algorithme du gradient conjugué
2 Discrétisation du problème
2.1 Matériel
2.2 Discrétisation du problème
2.2.1 Repérage du domaine
2.2.2 Maillage
2.2.3 Adimensionnalisation
2.2.4 Remarque :
2.2.5 Discrétisation en temps
2.2.6 Formulation variationnelle
2.2.7 Existence et unicité de la solution
2.2.8 Définition des espaces Vh et Mh
2.2.9 Fonctions de base
2.2.10 Formulation discrète
3 Applications à la résolution des équations de Navier-Stokes instationnaires
3.1 Méthode de Lagrangien augmenté
3.2 Algorithme de calcul de point selle
3.3 Algorithme de base
3.4 Algorithme Uzawa et Algorithme de Gradient Conjugué
4 Résultats et Interprétation
4.1 Dimension du domaine
4.2 Etude du paramètre α
4.2.1 Nombre de Reynolds égal à 100
4.2.2 Nombre de Reynolds égal à 500
4.3 Variation du paramètre α avec la méthode de gradient conjugué
4.3.1 Comparaison des deux méthodes
4.4 Conclusion générale

Télécharger le rapport completApplications à la résolution des équations de Navier-Stokes instationnaires

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *