Etude par la fonctionnelle de la densité des agrégats SimCn avec m+n  6

Télécharger le fichier pdf d’un mémoire de fin d’études

Les différentes fonctionnelles d’échange et de corrélation

Voyons maintenant les différents types de fonctionnelles d’échange et de corrélation déve-loppées. On peut en distinguer principalement trois, qui correspondent à trois générations d’approximations, et plusieurs autres approches sont en cours de développement.
La première génération d’approximations est celle de l’approximation de la densité locale (LDA, d’après son acronyme anglais), qui a permis les premières applications pratiques du formalisme Kohn-Sham. L’hypothèse au cœur de la LDA est que l’énergie d’échange et de corrélation par électron, xc[ ], en tout point d’un système électronique non uniforme est reliée à la densité en ce point de la même façon que xc[ ] est relié à dans le gaz uniforme d’électrons. Ceci revient à dire que si le nombre d’électrons par unité de volume en un point est , alors la quantité d’énergie d’échange et corrélation par unité de volume en ce point est xc[ ], où xc[ ] est la fonctionnelle obtenue dans le cas du gaz uniforme d’électrons de même densité . On néglige ainsi toute influence des fluctuations de la densité sur la forme fonctionnelle de xc[ ]. On a alors E xcd 3 r ( r ) xc [ ]. (I-19)
En pratique, l’énergie de corrélation-échange est divisée en deux termes, l’énergie d’échange d’une part et l’énergie de corrélation d’autre part. L’énergie d’échange est donnée par la fonctionnelle de Dirac [DIR30], aussi appelée Slater-Dirac : x cx 1 3 . (I-20)
En ce qui concerne la fonctionnelle de corrélation, de nombreuses fonctionnelles locales ont été proposées, principalement entre 1970 et 1980, par exemple par Hedin et Lundqvist [HL71], von Barth et Hedin [BH72], Gunnarson et Lundqvist [GL76], ou Vosco, Wilk et Nusair [VWN80]. Dans cette dernière, qui est aujourd’hui la plus couramment utilisée, l’énergie de corrélation par électron est obtenue par interpolation analytique sur une base de données d’énergie de corrélation du gaz uniforme d’électrons issue de calculs “Monte Carlo quantique” effectués par Ceperley et Alder [CA80].
En fait, la plupart des méthodes tirées de l’approximation de la densité locale tiennent compte de la polarisation de spin, et l’approximation locale est alors abrégée LSDA pour Local Spin Density Approximation.
Ce type de fonctionnelles, tiré d’une approximation pourtant extrêmement simple, donne des résultats remarquablement précis pour de nombreux systèmes, y compris dans le cas de systèmes moléculaires ou ioniques, qui présentent pourtant d’importantes variations de la densité électronique. Les résultats obtenus sont, pour un coût égal, souvent bien meilleurs que ceux obtenus par la méthode Hartree-Fock. La LSDA permet en particulier d’obtenir avec une bonne précision la géométrie et les fréquences de vibration de molécules dans l’approximation harmonique. Une des raisons de ce succès est que les plus importantes des conditions que nous avons vues plus haut, notamment les règles de somme, sont satisfaites par les fonctionnelles LSDA. Le problème principal de la LSDA est cependant la détermi-nation des énergies, la précision obtenue sur les énergies de systèmes moléculaires étant en particulier tout à fait insuffisante pour des applications en chimie. Les énergies de liaison, tout en étant également largement meilleures que celles obtenues en Hartree-Fock, sont en effet surestimées. La LSDA surestime fortement (d’un facteur approximativement égal à deux) les énergies de corrélation, et sous-estime d’au moins 10 % les énergies d’échange, ce qui donne une erreur absolue sur l’échange opposée à celle sur la corrélation et environ trois fois plus grande, l’énergie d’échange étant plus grande d’un ordre de grandeur que l’énergie de corrélation. Le fait que les différences d’énergie soient mieux calculées en LSDA qu’en Hartree-Fock est donc probablement dû au moins en grande partie à des compensations d’erreurs.
Stoll et al. [SPP78, SGP80] ont montré que la majeure partie de l’erreur sur l’énergie de corrélation provient de la corrélation entre électrons de même spin qui, dans des systèmes finis, est beaucoup plus faible que dans les gaz homogènes infinis. On peut également expli-quer cette erreur sur les énergies par l’existence en LSDA d’une self-interaction [PZ81], c’est-à-dire d’une interaction d’un électron avec lui-même par l’intermédiaire du terme de Coulomb, qui n’a bien sûr aucune signification physique. En effet, contrairement à la métho-de Hartree-Fock, où la self-interaction est exactement compensée car les opérateurs de Cou-lomb et d’échange comportent le même opérateur 1 / r1 r2 , la LSDA ne permet qu’une compensation partielle. On a donc un reste de self-interaction, qui devient négligeable pour les orbitales délocalisées sur un grand système (terme en 1 / r1 r2 ), mais qui est à l’origi-ne d’une erreur systématique qui est particulièrement importante pour les états localisés.
La deuxième génération est celle des fonctionnelles dépendant de la densité et du gradient de celle-ci, encore appelée fonctionnelles “non-locales” (surtout au début) ou semi-locales. L’idée de faire un développement en gradient (Gradient Expansion Approximation ou GEA) a été proposée très tôt [KS65, SHA71], mais les premiers résultats se sont avérés sinon désastreux, du moins nettement moins bons que ceux de l’approximation locale LSDA. Il a fallu plus d’une dizaine d’années pour en comprendre les raisons [PER85], qui sont reliées en particulier au fait que les premières fonctionnelles dépendant du gradient de la densité développées ne satisfaisaient pas aux règles de somme (I-17) et (I-18). De fait, ce n’est qu’à partir de 1986 que seront proposées les premières fonctionnelles dépendant du gradient de la densité remplissant ces conditions. Ces fonctionnelles, appelées GGA pour approximation du gradient généralisé, sont obtenues en tronquant dans la fonctionnelle GEA les termes pathologiques afin que l’énergie d’échange soit négative et que le trou de corrélation-échange s’intègre à –1. Les plus répandues sont celles de Becke [BEC88] pour l’échange et celles de Perdew [PER86], de Perdew-Wang [PW92] ou de Lee-Yang-Parr [LYP88] pour la corrélation. Les résultats obtenues à l’aide de ces fonctionnelles sont très satisfaisants pour les systèmes moléculaires classiques, aussi bien pour les géométries, les fréquences de vibration que pour les énergies, qui ne sont plus que très légèrement surestimées [BEC95]. Ces fonctionnelles ne permettent en revanche toujours pas de décrire correctement les liaisons faibles, comme les liaisons de van der Waals.
La troisième génération de fonctionnelles est celle des fonctionnelles “hybrides”, proposées par Becke et basées sur la méthode de la connexion adiabatique [BEC93a]. Leur principe est d’ajouter une certaine proportion d’échange exact à la fonctionnelle d’échange calculée en DFT. De fait, le terme d’échange interélectronique pouvant être calculé de façon “exacte”, c’est-à-dire en utilisant l’expression exacte mais avec les orbitales Kohn-Sham, il semblerait logique, afin d’éliminer le problème de la self-interaction, de calculer l’énergie de corréla-tion-échange comme la somme de l’énergie d’échange “exacte” et de l’énergie de corrélation calculée en DFT : Exc E xexact EcDFT (I-21)
Cette façon de procéder, qui donne des résultats corrects pour les atomes [JON85], donne des résultats bien plus mauvais que ceux de la GGA dans le cas de molécules [KN85, TZ90, BEC93b]. Ces mauvais résultats sont dus au fait que le trou d’échange “exact” est délocalisé avec une composante à longue portée, alors que le trou d’échange-corrélation est relative-ment localisé autour du point de référence. Le trou de corrélation doit donc également présenter une partie à longue portée pour compenser la composante de l’échange. Or, les trous d’échange et de corrélation calculés en LDA sont tous deux à courte portée, reflétant ainsi uniquement les propriétés du système ne dépendant que des interactions à courte distance. Le mélange de l’échange exact et de la corrélation calculée en DFT donne donc un terme de corrélation-échange déséquilibré, sans aucune signification physique, comprenant en particulier une composante à longue portée.
En revanche, Becke [BEC93a] a montré qu’ajouter une petite partie d’échange exact dans le terme d’échange permet d’éliminer presque totalement la faible surestimation des énergies observée en GGA. On écrit alors : Exc aExexact (1 a)ExLDA bExGGA cEcGGA (I-22)

Succès des méthodes de la fonctionnelle de la densité [ZIE91, ZIE95]

Le principal avantage des méthodes de la fonctionnelle de la densité est de permettre d’obtenir, à un coût faible et pour un grand nombre de systèmes, une précision égalant celle de calculs post-Hartree-Fock par exemple celle des calculs HF+MP2. De plus, ce coût tend à diminuer avec le développement d’algorithmes évoluant pratiquement comme n, où n est la taille de la base utilisée [SSF96, WJG96], et non plus comme n3 pour un calcul Hartree-Fock traditionnel, ou n5 au minimum pour un calcul post-Hartree-Fock. C’est principalement ce faible coût qui est à l’origine du développement très rapide de l’utilisation de ces méthodes en chimie. Les applications de la DFT couvrent en effet aujourd’hui la plus grande partie du domaine concernant les propriétés dépendant de la structure électronique de l’état fonda-mental et nous donnons ici les résultats de quelques applications de la DFT à l’étude de systèmes moléculaires. Notre but n’est cependant pas d’être exhaustif et pour plus de détails, on pourra se reporter aux deux articles de revue sur ces méthodes publiés par Ziegler [ZIE91, ZIE95].
Les structures calculées avec la LSDA sont en bon accord avec l’expérience. Les corrections de gradient améliorent encore les résultats pour les molécules “standard” et les complexes des métaux de transition en allongeant les longueurs de liaison en général un peu courtes en LSDA.
Les énergies de liaison dans les molécules, qui sont trop grandes en LSDA, sont en revanche bien reproduites par les fonctionnelles GGA ou hybrides. Les résultats sont en particulier remarquables dans le cas de liaisons métal-métal [HJ79, DFE83, BH83] ou pour les complexes d’éléments de transition [ZIE95]. Il semble que les fonctionnelles dépendant du Laplacien permettent également de calculer les énergies d’interactions faibles, en particulier les liaisons hydrogène, avec une bonne précision [PSS97].
La DFT permet également de calculer les fréquences de vibration IR avec une très bonne précision. Dans une compilation récente de 122 systèmes moléculaires et 1066 fréquen-ces, Wong [WON96] a montré que l’erreur moyenne par rapport aux fréquences mesurées expérimentalement est de 2 % en LSDA, 1 % en GGA, et 4 % avec les fonctionnelles hybrides. Ces erreurs, qui sont à comparer aux 10-12 % obtenus avec la méthode Hartree-Fock, montrent que l’on peut obtenir notamment de très bonnes énergies de point-zéro, à l’anharmonicité près, qui permettent de comparer les énergies théoriques et expérimen-tales.
On peut également citer les bons résultats des méthodes de la DFT dans l’étude des propriétés magnétiques [BBA95], la détermination de potentiels d’ionisation (par calcul de la différence d’énergie entre le système neutre et le même système ionisé), le calcul de constantes de couplage ou de déplacements chimiques RMN [MMS93, MME95], ou celui de spectres XANES [BCL97].

Limitations des méthodes de la fonctionnelle de la densité

Malgré tous ces domaines d’applications, les méthodes de la DFT ne sont pas (encore ?) les méthodes idéales de la chimie quantique. Tout d’abord, il s’agit de méthodes dont les appli-cations à la chimie sont récentes, et on n’a pas la même expérience dans ces méthodes que dans les méthodes traditionnelles de la chimie quantique. Ainsi, on ne comprend pas toujours les excellents ou les mauvais résultats de la DFT dans certains systèmes, et il n’existe aucun critère véritablement précis permettant de choisir une fonctionnelle en fonction du système étudié. De plus, on ne connaît pas vraiment de procédure systématique permettant d’améliorer les fonctionnelles existantes. Enfin, il n’existe pas de théorème variationnel pour les états excités et le formalisme Kohn-Sham indépendant du temps n’est donc pas adapté à l’étude de ces états. On peut cependant les étudier en utilisant un formalisme dépendant du temps dans le cadre de la théorie de la réponse linéaire [CJC98].
D’autre part et plus fondamentalement, la DFT prend effectivement en compte une part de la corrélation électronique, mais elle ne traite pas de la même façon les différents types de corrélation. On distingue en effet la corrélation dynamique, qui est présente dans les atomes et provient du fait que le mouvement d’un électron est influencé par les autres électrons présents dans son entourage proche, et la corrélation gauche-droite présente dans les molécu-les, qui provient d’une interaction entre les électrons à courte mais aussi à plus longue distance et qui permet une bonne description de la liaison chimique. La corrélation dynami-que est présente dans le gaz homogène d’électrons et est donc bien prise en compte par les fonctionnelles actuelles. En revanche, la prise en compte de la corrélation gauche-droite est plus problématique. Cela est relié au problème de la modélisation du trou de corrélation-échange, dont nous avons déjà discuté dans la description des différentes fonctionnelles (paragraphe 1.4). En effet, comme nous l’avons vu, les trous de corrélation et d’échange en LSDA et en GGA sont intrinsèquement localisés et attachés à l’électron de référence. Cette localisation imite automatiquement, mais grossièrement, la corrélation gauche-droite des molécules à relativement courte portée, mais n’a pas le même comportement que la véritable corrélation gauche-droite, en particulier à longue distance. Ceci a plusieurs conséquences.
Tout d’abord, on observe, dans les systèmes comportant de la corrélation gauche-droite, une mauvaise dissociation de la molécule lorsque les distances internucléaires tendent vers l’infini. Cette mauvaise dissociation est due au fait que la description du trou de corrélation-échange est précise à courte portée, mais qu’il ne s’agit que d’une extrapolation pour les grandes distances. C’est le cas des composés A–B où les deux fragments A et B sont des systèmes à couches ouvertes, par exemple celui de la molécule Li–H. Nous avons représenté figure I-1 la variation de l’énergie de cette molécule en fonction de la distance entre Li et H, ainsi que la somme de l’énergie des deux fragments Li et H isolés, calculées par différentes méthodes ab initio : Hartree-Fock, interaction de configurations, LDA et B3LYP. On voit sur cette figure que ni l’énergie de Li–H calculée par la LDA ni celle obtenue en B3LYP ne tendent vers l’énergie des deux fragments isolés, même si l’erreur effectuée avec les deux fonctionnelles est largement plus faible que celle effectuée en Hartree-Fock.
Cette mauvaise dissociation n’est cependant pas contradictoire avec le fait que la DFT permette de calculer les énergies de liaison avec une bonne précision, puisqu’on ne calcule pas l’énergie de liaison El d’un système A–B comme : El (A B) = E(A B)r=r lim E(A B) (I-23) où re est la distance d’équilibre dans la molécule A–B mais comme : El (A-B) = E (A-B)r=re – E(A) – E(B) (I-24)

Obtention du potentiel modèle
La première étape est de choisir les interactions à prendre en compte, en fonction de la nature et de la taille du système étudié et de la précision que l’on veut obtenir. La deuxième étape est le choix de l’expression pour chaque terme. Une fois cette forme choisie, on détermine alors les paramètres par ajustement de grandeurs du système avec des résultats expérimentaux ou théoriques. Cette étape est déterminante et délicate, quelle que soit la forme du potentiel. Comme nous le verrons dans le cas des agrégats d’hydrure de lithium, le choix de la référence pour l’ajustement est crucial. La procédure est a fortiori encore plus difficile dans le cas où il faut également déterminer la forme du potentiel, par exemple dans le cas d’agrégats covalents. Une partie du problème est due au fait que les calculs ab initio par exemple, font simplement correspondre une énergie à une configuration donnée, mais ne décomposent pas cette énergie en différents termes. De même les résultats expérimentaux, comme les moments multipolaires successifs ou les fréquences de vibration ne peuvent être utilisés qu’indirectement pour l’ajustement du potentiel.
Exploration des hypersurfaces d’énergie potentielle
Hypersurfaces d’énergie potentielle [PD91, BRE93]
Généralités
L’hypersurface d’énergie potentielle d’un système est la représentation des variations de l’énergie potentielle du système en fonction des variables permettant de le décrire. Cette hypersurface peut être représentée par une expression analytique donnant l’énergie en fonction des variables nécessaires, comme dans le cas de potentiels modèles, ou peut être construite en calculant l’énergie en chaque point par la diagonalisation de l’Hamiltonien du système considéré, comme c’est le cas pour les méthodes ab initio et certaines méthodes semi-empiriques. La construction systématique, point par point, de la surface d’énergie potentielle d’un système à n degrés de liberté nécessiterait donc en principe pn calculs de l’énergie, où p est le nombre de points désirés sur chaque axe. Le nombre de calculs à envi-sager dans le cas de systèmes relativement complexes est donc considérable et même si l’on disposait des moyens nécessaires à la réalisation de ces calculs, l’analyse d’une telle quantité de résultats serait extrêmement difficile.
Une solution est de réduire au maximum la dimension du problème à traiter en choisissant un petit nombre de variables indépendantes susceptibles de caractériser l’évolution du système et en gardant les autres constantes. Ainsi, dans le cas d’agrégats moléculaires, on néglige généralement les changements conformationnels des molécules et on les considère comme rigides. Si N est le nombre total d’atomes et M le nombre de molécules du système, le nombre de degrés de liberté est alors réduit de 3N – 6 à 6 (M – 1), nombre de coordonnées intermoléculaires. Mais plus fondamentalement, on n’essaye pas de représenter la totalité de la surface, mais plutôt de localiser sur celle-ci certains points remarquables, comme les points stationnaires. On s’intéresse plus particulièrement aux minima, qui correspondent à des configurations stables du système et aux points-selles d’ordre 1, correspondant à des états de transition par lesquels on passe d’une structure stable à une autre.
Caractéristiques des points stationnaires
Soit E l’énergie d’un système à n degrés de liberté: q1, q2, …, qn. Les minima et les points selles sont des points stationnaires de la surface et sont caractérisés par un gradient de l’énergie nul. G(q1, q2, …, qn )=0  soit E 0   pour i compris entre 1 et n (I-26)
De plus, la connaissance du hessien H(q1, q2, …, qn), matrice des dérivées secondes de l’énergie 2E / qi qj avec i et j 1,n , permet de déterminer la nature du point stationnaire. En effet, cette matrice, réelle et symétrique, est toujours diagonalisable et le nombre de valeurs propres négatives, appelé indice de Morse et noté In, dépend du type de point station-naire. Si In = 0, on est en présence d’un minimum, alors que si In = k strictement positif, le point considéré est un point selle d’ordre k, c’est-à-dire un minimum dans (n–k) directions et un maximum dans les k directions restantes.
Il existe de nombreuses méthodes de localisation des minima et quelques procédures de localisation des cols sur la surface d’énergie potentielle. Nous nous intéressons ici unique-ment aux méthodes de recherche des minima. Elles peuvent être divisées en deux grandes catégories :
 les méthodes locales, qui ont pour but la minimisation de l’énergie et permettent d’obtenir avec précision le minimum le plus proche du point de départ, mais non le minimum absolu de la surface.
 les méthodes non locales, qui permettent en principe d’obtenir le minimum absolu grâce à une exploration plus large de la surface car elles autorisent le système à franchir des barrières de potentiel et donc à passer d’un puits de potentiel à un autre.
Méthodes locales
Principe
Le principe des méthodes d’optimisation locale est de minimiser l’énergie du système par étapes successives. Chaque itération consiste en une série de minimisations à une dimension le long de directions de recherche définies par un jeu de n vecteurs v1, v2, … vn où n est le nombre de degrés de liberté du système. On doit donc disposer d’un algorithme efficace de minimisation à une dimension. On part d’un point P de l’espace à n dimensions et pour chaque direction de recherche vi, on détermine i tel que l’énergie au point P+ ivi soit minimale. On remplace alors P par P+ ivi, vi par ivi et on recommence. Ainsi, à chaque itération, on se rapproche du minimum et on améliore le jeu de vecteurs que l’on adapte progressivement à la topologie de la surface.
Les méthodes locales diffèrent par le mode de détermination des directions de recherche et par les grandeurs nécessaires à ce calcul. Elles peuvent être classées en trois catégories :
 les méthodes sans évaluation de gradient
 les méthodes de gradient
 les méthodes avec calcul du hessien
Méthodes sans évaluation de gradient [PFT86]
Ces méthodes, qui ne nécessitent que le calcul de l’énergie et non celui du gradient, procèdent par essais successifs et ne sont efficaces que dans le cas où le nombre de variables est très faible. Les plus connues sont la méthode du simplex et la méthode de Powell. Ces méthodes sont aujourd’hui très peu utilisées, et nous ne les décrirons pas en détail ici.
Méthodes de gradient
Dans ces méthodes, les directions de recherche vi sont construites à partir du gradient telles que vi = –DG où G est le gradient, qui peut être calculé analytiquement ou numériquement et D une matrice carrée pouvant être mise à jour à chaque itération. C’est le choix de cette matrice qui différencie les méthodes de gradient. Les plus utilisées sont la méthode de la plus grande pente ou “steepest descent”, les méthodes du gradient conjugué et les méthodes pseudo-Newton.
 Méthode de la plus grande pente
A chaque itération, la matrice D est la matrice identité. On se déplace donc à chaque étape dans la direction opposée à celle du gradient, qui correspond à la direction de plus grande pente à partir du point considéré. La vitesse de déplacement s’exprime alors comme : où est le potentiel auquel est soumis le système. (I-27)
L’avantage de cette méthode est qu’elle fait baisser très rapidement l’énergie au début de l’optimisation. En revanche, les directions de recherche successives étant perpendiculaires entre elles, puisqu’à chaque itération le gradient est calculé au minimum déterminé dans la direction de recherche de l’étape précédente, la convergence est très lente à l’approche du minimum, même dans le cas où l’énergie est de forme quadratique, ce qui est pratiquement toujours le cas au voisinage du fond du puits de potentiel.
 Méthodes du gradient conjugué et pseudo-Newton
Dans ces méthodes, la matrice D est mise à jour à chaque itération à partir des vecteurs gradients calculés lors des itérations précédentes. La nouvelle direction de recherche est donc conjuguée à toutes les directions suivies précédemment, ce qui permet de profiter de l’expérience accumulée au fur et à mesure des itérations. La différence entre les deux types de méthodes est la quantité d’informations concernant les itérations précédentes qui est stockée au cours de la minimisation. Ces méthodes sont efficaces et relativement peu coûteuses, en particulier si le gradient est calculé analytiquement. Ce sont des méthodes d’optimisation très utilisées pour l’optimisation locale. Parmi les algorithmes les plus connus se trouvent les algorithmes de Fletcher et Reeves [FR64] et de Polak et Ribiere [POL71] pour les méthodes de gradient conjugué et ceux de Davidson, Fletcher et Powell ou DFP [FP63, DAV68, BRO70], et de Broyden, Fletcher, Goldfarb et Shanno ou BFGS [FLE70, GOL70, SHA70] pour les méthodes pseudo-Newton.
Méthodes avec calcul du Hessien
La matrice D est à chaque itération l’inverse du Hessien au point considéré. Ces méthodes exigent donc à chaque pas le calcul du Hessien et son inversion, ce qui les rend beaucoup plus coûteuses que les méthodes pseudo-Newton pour une efficacité seulement légèrement supérieure. Leur principal avantage est qu’elles convergent en une itération dans le cas d’une forme quadratique de l’énergie. Elles sont d’autre part particulièrement utiles lorsque les autres méthodes, par exemple de gradient, rencontrent des problèmes de convergence.
Méthodes “panachées”
Aucune méthode parmi celles que nous venons de présenter ne permet de résoudre tous les problèmes qui peuvent se présenter lors d’une optimisation locale. Une solution est alors d’associer les méthodes. On peut par exemple commencer la minimisation grâce à la métho-de de la “steepest descent” qui on l’a vu, est très efficace au début de l’optimisation, c’est-à-dire “loin” du minimum, continuer par une méthode pseudo-Newton, et éventuellement finir par une méthode avec calcul du Hessien afin d’accélérer la convergence à l’approche du minimum et d’augmenter la précision. Une méthode de ce type est utilisée pour la minimisa-tion de la structure électronique dans le programme de Car et Parrinello dont nous nous servons [FIN98]. L’objectif est de converger le plus rapidement possible sur le minimum le plus proche à partir de n’importe quel point de la surface. La principale difficulté est de déterminer la méthode à utiliser en fonction du point où l’on se trouve et de sa position estimée par rapport au minimum recherché et il faut en général faire un compromis entre vitesse de convergence et robustesse de la méthode. Cette difficulté est en général contour-née dans les logiciels commerciaux, par exemple Gaussian94 [FTS95], où l’algorithme de minimisation peut effectivement utiliser plusieurs méthodes différentes, mais dont le choix est laissé à l’utilisateur.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction générale
Chapitre I Méthodes
Introduction
1 Méthodes de la Fonctionnelle de la Densité
1.1 Introduction
1.2 Principe de la théorie de la fonctionnelle de la densité
1.3 Conditions sur les fonctionnelles d’échange et de corrélation
1.4 Les différentes fonctionnelles d’échange et de corrélation
1.5 Succès des méthodes de la fonctionnelle de la densité
1.6 Limitations des méthodes de la fonctionnelle de la densité
2 Potentiels modèles
2.1 Introduction
2.2 Classification des différentes interactions
2.3 Différents types d’agrégats
2.4 Obtention du potentiel modèle
3 Exploration des hypersurfaces d’énergie potentielle
3.1 Hypersurfaces d’énergie potentielle
3.1.1 Généralités
3.1.2 Caractéristiques des points stationnaires
3.2 Méthodes locales
3.2.1 Principe
3.2.2 Méthodes sans évaluation de gradient
3.2.3 Méthodes de gradient
3.2.4 Méthodes avec calcul du Hessien
3.2.5 Méthodes “panachées”
3.3 Méthodes non locales
3.3.1 Principe
3.3.2 Exemples de méthodes existantes
3.3.2.1 Recuit simulé
3.3.2.2 Méthode de la trempe visqueuse
3.3.3 Stratégie d’exploration globale
3.3.4 Méthode de la croissance Monte Carlo
3.3.4.1 Présentation
3.3.4.2 Article
3.3.4.3 Complément : Applications aux agrégats mixtes
3.4 Méthode de Car et Parrinello
3.4.1 Introduction
3.4.2 Hypothèses et cadre de la méthode Car et Parrinello
3.4.3 Minimisation électronique
3.4.4 Généralisation aux degrés de liberté nucléaires : optimisation de géométrie
3.4.5 Dynamique moléculaire dans l’espace “couplé orbitales-noyaux ”
3.4.6 Succès et limitations de la méthode
Conclusion
Chapitre II Etude d’agrégats covalents silicium–carbone
Introduction
1 Etude par la fonctionnelle de la densité des agrégats SimCn avec m+n  6
1.1 Présentation de l’article
1.2 Article
1.3 Compléments
1.3.1 Structure des isomères obtenus pour certains agrégats SimCn
1.3.2 Résultat du potentiel de Tersoff
1.3.3 Comparaison théorie-expérience : spectres de vibration
1.3.4 Analyse des structures linéaires
2 Etude par la méthode de Car et Parrinello
2.1 Introduction
2.2 Description du programme
2.3 Mise en oeuvre
2.3.1 Choix des paramètres
2.3.2 Description d’une trajectoire de recuit simulé
2.3.3 Exploration effectuée
2.4 Résultats sur l’agrégat Si3C4
2.4.1 Isomères obtenus
2.4.2 Statistique sur les distances, les angles et les coordinences observées
Conclusion
Chapitre III Etude d’agrégats iono-covalents
Introduction
1 Agrégats d’hydrure de lithium
1.1 Choix des méthodes
1.1.1 Stratégie
1.1.2 Méthode ab initio et base
1.1.3 Potentiel modèle
1.2 Exploration avec le potentiel modèle
1.3 Réoptimisation ab initio
1.3.1 Procédure
1.3.2 Résultats
1.3.3 Conclusion
1.4 Propriétés des agrégats Li–H
1.4.1 Influence de la covalence
1.4.2 Familles
1.4.3 Comparaison avec l’expérience
1.4.4 Transition vers l’état solide
2 Agrégats d’hydroxyde d’argent et de sodium
2.1. Procédure
2.1.1 Stratégie
2.1.2 Choix des méthodes et des bases
2.2 Etude des agrégats Na–OH
2.2.1 Analyse de population
2.2.2 Isomères obtenus
2.2.3 Comparaison avec l’expérience
2.2.4 Comparaison des agrégats Li–H et des agrégats Na–OH
2.3 Etude des agrégats Ag–OH
2.3.1 Analyse de population
2.3.2 Isomères obtenus
2.3.3 Comparaison des agrégats Na–OH et des agrégats Ag–OH
Conclusion
Conclusion générale
Bibliographie générale

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *