Vers un traitement de la flexibilité relative aux interactions moléculaires

Télécharger le fichier pdf d’un mémoire de fin d’études

Liaison covalente

La liaison covalente est le résultat de l’interaction entre deux atomes qui se partagent de manière équiprobable leur paire d’électrons de valence (40). Ce sont des interactions qui ont lieu à courte distance (typiquement entre 0.5 et 2 angströms) et elles possèdent une énergie relativement élevée comparée aux valeurs des autres interactions ou de l’agitation thermique. A titre d’exemple, les valeurs de l’énergie de ces liaisons varient de 24 fois à 350 fois kT (avec 1kJ/mol ~ 0.4kT par liaison à 300K) (37).
La liaison covalente est le type commun de liaison où la différence d’électronégativité entre les atomes liés est petite ou nulle. Dans ce dernier cas, on parle parfois de liaison purement covalente. Lorsque les atomes se rapprochent, leurs nuages électroniques se recouvrent et les atomes partagent alors leurs électrons de valence. Un équilibre s’établit entre forces attractive et répulsive entre les atomes. Suivant le nombre de paires d’électrons partagé entre les atomes, la liaison sera plus ou moins forte. Les atomes peuvent partager 1, 2, 3 paires d’électrons et peuvent ainsi former des liaisons simple, double ou triple. Par exemple, dans le cas de la liaison O-O, la liaison simple possède une énergie de 145 kJ/mol, alors que celle de la liaison double est de 498 kJ/mol (41). Lors du recouvrement des nuages électroniques, les orbitales atomiques sont totalement perturbées. On ne distingue alors plus les orbitales de chaque atome : une orbitale moléculaire s’est formée. Dans le cadre de la théorie LCAO (Linear Combination of Atomic Orbitals), les orbitales moléculaires sont déterminées comme étant des combinaisons linéaires d’orbitales atomiques.

Liaison ionique

La liaison ionique est une liaison chimique similaire à la liaison covalente, impliquant deux atomes dont la différence d’électronégativité est supérieure à 1,7. L’atome le moins électronégatif cède un ou plusieurs électrons à l’atome le plus électronégatif, formant ainsi des ions positif et négatif respectivement, tous deux possédant alors une configuration électronique stable. Sous l’effet de l’attraction électrostatique, les deux ions se rapprochent jusqu’à une distance d’équilibre et forment alors une liaison ionique.

Optimisation de la structure

Le potentiel U(R) décrit donc une hypersurface représentative de l’énergie totale de la molécule. Cette énergie, qui décrit les interactions entre tous les atomes de la molécule, est aussi appelée énergie conformationnelle : c’est elle qui décrit la stabilité structurelle de la molécule.
Il faut ensuite optimiser la structure, c’est-à-dire trouver la conformation d’équilibre dans laquelle elle se trouve dans un état stable. Cette conformation est alors celle pour laquelle l’énergie est minimale. On part d’une structure initiale (déterminée expérimentalement par exemple) que l’on suppose proche de son état stable et on minimise son énergie pour atteindre un minimum local. Cette région autour de ce minimum est un bassin de potentiel et définie alors un sous-état de la molécule.
Il existe plusieurs techniques pour minimiser l’énergie. Les deux méthodes les plus utilisées dans les logiciels de simulation sont :
– La descente de gradient : cette méthode utilise le gradient de l’énergie potentielle pour déterminer la direction vers le minimum. A chaque étape de la minimisation, l’énergie est calculée et la direction de l’étape suivante est alors donnée par la nouvelle valeur du gradient. Le minimum est atteint lorsque la différence d’énergie de deux étapes successives est inférieure à un seuil fixé. Cette méthode n’est pas très efficace et est souvent utilisée en début de minimisation, lorsque la structure est loin du minimum local.
– Les gradients conjugués : cette méthode, comme celle la précédente, utilise le gradient de l’énergie comme direction vers le minimum. Mais ici, pour obtenir l’étape suivante, on ne prend pas la direction donnée par le gradient. Il est nécessaire d’effectuer deux calculs intermédiaires : On calcule un premier vecteur perpendiculaire à la direction du gradient puis un deuxième orthogonal à ce dernier, qui sera alors la nouvelle direction à suivre. Ainsi, on évite des effets d’instabilité à proximité d’un minimum et cela permet d’effectuer une optimisation fine de la structure. Le minimum est atteint de la même manière que précédemment.
Les structures minimisées énergétiquement sont la base de tout calcul de modélisation. La méthode des Modes Statiques que nous verrons ultérieurement utilise également des molécules dont la structure a été optimisée par minimisation de l’énergie.

Simulation de type Monte-Carlo

Le nom simulation de type Monte Carlo fait référence aux jeux de hasard et est utilisé pour décrire tout algorithme faisant intervenir un processus aléatoire. Développées au milieu du siècle dernier, ces méthodes connaissent un vaste champ d’application. En biologie, elles sont utilisées aussi bien pour décrire des repliements de protéines, effectuer une exploration stochastique de l’espace des configurations d’une molécule, etc… Dans ce paragraphe, nous allons voir la méthode de Metropolis (59), pionnier de la simulation informatique, qui est la plus répandue pour décrire des systèmes biologiques.
Au lieu de faire évoluer exhaustivement une conformation dans l’espace des phases, la méthode de Monte Carlo Metropolis biaise l’exploration vers les états les plus probables statistiquement, c’est-à-dire ceux qui présentent l’énergie la plus basse. Cette technique se base sur le principe que ces états sont statistiquement les plus probables, donc les plus peuplés, et de ce fait les plus représentatifs du système.
Pour cela, est définie une loi de probabilité basée sur une fonction d’énergie potentielle, équivalente à celle décrite au paragraphe précédent. La différence majeure avec la dynamique moléculaire, est l’absence du temps dans les simulations de type Monte Carlo. De plus, dans le cas d’une simulation Monte Carlo, le système est considéré dans le cadre d’un ensemble canonique, où N (le nombre de particules), V (le volume) et T (la température) restent constants2. Dans un tel ensemble, la probabilité pn d’avoir un échantillon n d’énergie UNn est : Avec où kB est la constante de Boltzmann.

Comment prendre en compte la flexibilité moléculaire ?

Les mouvements atomiques, engendrant parfois des changements conformationnels, induits par les interactions avec le milieu sont une caractéristique primordiale des biomolécules. Cette flexibilité qui leur est propre leur permet ainsi de remplir leur(s) fonction(s) au sein de l’organisme (65). Une modélisation précise des processus biologiques passe alors par la prise en compte de ces mouvements atomiques et des modifications structurales engendrées.
Nous allons voir dans ce paragraphe quelles sont les techniques employées pour traiter la flexibilité moléculaire. Nous verrons plus particulièrement comment elle est prise en compte lors de mécanismes de « docking ».

Les méthodes usuelles de simulation

Il existe plusieurs modèles pour décrire la flexibilité d’une molécule dans son environnement. Dans ce paragraphe, seront traitées les méthodes les plus utilisées, qui sont les simulations dynamiques (dynamique moléculaire et Monte Carlo) et l’analyse des modes normaux de vibration. Il existe d’autres méthodes récentes plus isolées, également présentées dans cette partie.

Simulations dynamiques

Les techniques de simulation décrites dans le paragraphe I-3. donnent une représentation très détaillée de la flexibilité des macromolécules. La dynamique moléculaire permet actuellement de simuler l’évolution d’une molécule sur plusieurs microsecondes (66). L’analyse de la trajectoire permet alors de déterminer les régions flexibles.
Il existe plusieurs variantes de la dynamique moléculaire, chacune essayant de faire reculer ses limites :
– Les méthodes qui prennent en compte la mobilité de tous les atomes permettent d’obtenir une description détaillée de la flexibilité, notamment de petits groupes d’atomes, telles que les chaînes latérales des protéines
– Les méthodes qui simulent les mouvements de domaines rigides d’une molécule donnent une idée des mouvements globaux de la molécule.
– Les méthodes dites « gros grains » dans lesquelles on considère des groupements d’atomes (les chaînes latérales par exemple) comme un seul site (67) (68).

Calcul des modes normaux

Les vibrations d’une molécule sont caractérisées par l’oscillation des atomes autour de leur position d’équilibre. Ces mouvements atomiques sont les modes de vibration de la molécule et, dans le cadre d’une approximation harmonique de l’énergie potentielle, ils sont donnés par les modes normaux.
Pour une molécule non-linéaire composée de N atomes, chaque atome est libre de se déplacer dans les trois directions de l’espace. Ce qui signifie que la molécule possède 3N degrés de liberté, parmi lesquels on a 3 degrés correspondants à la translation de la molécule entière, ainsi que 3 degrés pour sa rotation. Il y a donc (3N-6) modes de vibration, soit (3N-6) modes normaux3.
Les modes normaux sont obtenus par la diagonalisation de la matrice dynamique (matrice des dérivées secondes de l’énergie potentielle pondérée par les masses) à un minimum local. Cela signifie donc que l’utilisation des modes normaux est limitée à un bassin d’énergie. Chaque vecteur propre représente un mode normal, la valeur propre donnant le carré de la fréquence de vibration. Dans un mode normal, les atomes de la molécule vibrent en phase à la même fréquence. Cette technique permet donc d’obtenir les oscillations autour d’une position d’équilibre, mais pas de trouver un autre sous-état conformationnel.
Toutefois, il a été observé expérimentalement que lorsque deux conformations d’une même molécule sont connues, les modes de basse fréquence, typiquement de l’ordre de 30 cm-1, donnent la direction à suivre pour passer d’une conformation à l’autre. C’est le cas des travaux effectués par Brooks et Karplus (69), Hayward et al (70) ou plus récemment Tama et al (71).

Autres méthodes

En marge des deux approches les plus répandues décrites ci-dessus, des méthodes développées plus récemment apportent également des résultats satisfaisants.
Parmi elles, on trouve des méthodes basées sur le découpage d’une macromolécule en plusieurs domaines, considérés comme des corps rigides, qui bougent les uns par rapport aux autres. Des logiciels ont été développés afin d’effectuer un tel découpage et d’extraire les informations relatives au mouvement de ces groupes d’atomes représenté par les domaines rigides automatiquement. C’est le cas de Domain Parser (72), HingeFinder (73) ou plus récemment Protein Domain Parser (74).
Des données sur le mouvement des atomes peuvent aussi être obtenues à partir de bases de données. La base de données des mouvements macromoléculaires développée par Gerstein et Krebs (75) classifie les protéines en fonction de mouvements caractéristiques observés sur des structures cristallographiques. Les informations recueillies traitent uniquement les mouvements dominants (impliquant la chaîne principale). Cette base de données ne fournit pas de données sur des mouvements de petite amplitude, tels que ceux opérés par les chaînes latérales d’une protéine.
Un autre outil original servant à décrire les mouvements de grande amplitude des biomolécules est le logiciel BioMove3D (76). Ce programme s’inspire des algorithmes utilisés en robotique en découpant la molécule en plusieurs parties articulées. Cette dernière est soumise à un champ de force classique de la mécanique moléculaire, et l’espace conformationnel peut ainsi être exploré en un temps de calcul bien moins important comparé à la dynamique moléculaire.
On peut également citer les méthodes MC2 (77) et ARTIST (78) qui permettent de prendre en compte la flexibilité des molécules en jeu dans l’interaction. La première combine deux techniques : le mouvement des boucles et des chaînes latérales est géré par une base de données de conformations multiples et une recherche conformationnelle par Monte Carlo est effectuée pour sélectionner les candidats. La seconde utilise la technique ART (79) pour explorer l’espace conformationnel afin de trouver les meilleurs candidats pour former le complexe.
Dans la lignée des méthodes basées sur le calcul des modes normaux, I. Bahar a été à l’initiative de la méthode GNM (80) (pour Gaussian Network Model). Cette technique permet de décrire la molécule comme un réseau de ressorts qui décrit les interactions interatomiques. Une autre méthode basée sur les modes normaux est la technique RTB (71) (pour Rotations and Translations of Blocks). La molécule est divisée en blocs représentant un groupe d’atomes et on décrit les mouvements des blocs les uns par rapport aux autres à l’aide des modes normaux de vibration pertinents, souvent de basses fréquences.
Enfin, il faut également citer une méthode développée récemment par Parrinello, s’appuyant sur la dynamique moléculaire : la métadynamique (81). L’idée est de faire évoluer la molécule dans son milieu, comme en dynamique moléculaire, et lorsque cette dernière se trouve dans un minimum local d’énergie, de « forcer » pour la faire sortir de ce bassin. De plus, l’algorithme permet d’éviter de repasser par ce sous-état conformationnel.

Représentation du système

La base des calculs de docking est le choix de la structure de départ, et la manière de la représenter. La conformation initiale de chacun des composés est une structure issue de l’expérience, la cristallographie la plupart du temps, mais également la RMN. Pour utiliser cette structure, il faut ensuite faire le choix de la représentation, qui se résume à trois possibilités :
– Coordonnées des positions atomiques de la molécule.
– Représentation par une surface qui définit l’aire accessible par d’autres molécules.
– Représentation par une grille d’énergie potentielle.
Le premier cas, le plus complexe, impose l’utilisation d’une fonction d’énergie potentielle classique de la mécanique moléculaire (93). Bien qu’en général cette représentation n’est utilisée que pour affiner le complexe final, il existe des programmes de docking qui utilisent cette représentation. C’est le cas par exemple du logiciel DARWIN (94) qui communique avec le logiciel de dynamique moléculaire CHARMM (95) pour calculer l’énergie du système.
Le deuxième choix possible est une façon très répandue de représenter le système dans les logiciels de docking. L’une des façons de définir la surface accessible par les molécules environnantes est d’utiliser la surface de Connoly (96). Elle est définie comme la partie de la surface de Van der Waals (définie par les rayons de Van der Waals des atomes) accessible par une sonde sphérique (figure 13).

Les algorithmes de recherche

Explorer l’espace conformationnel du système ligand-récepteur est une des difficultés majeures en modélisation, et cela reste vrai lors de la simulation de docking moléculaire. Le nombre de possibilités croît de manière exponentielle en fonction de la taille des composants (97). A titre d’exemple, pour reproduire la structure expérimentale d’un complexe protéine-ligand composés respectivement de 1562 et 449 atomes, en considérant ces derniers rigides, il faut un nombre d’essais de l’ordre de 107 (97). En intégrant la flexibilité des molécules, le problème devient encore plus important.
La quasi-totalité des programmes de docking proposent une approche qui prend en compte la flexibilité du ligand, tout en considérant le récepteur rigide. La recherche de candidats potentiels dans le problème du docking, en prenant en compte la flexibilité du ligand, s’appuie sur deux approches différentes :
– La recherche et le test de toutes les conformations possibles de l’espace du ligand
– Une recherche progressive, guidée à travers l’espace conformationnel
La première rassemble toutes les méthodes de recherche systématiques qui tentent d’explorer tous les degrés de liberté du système. Parmi elles, il y a :
– Les méthodes de recherche conformationnelle : les liaisons covalentes du ligand subissent une rotation de 360° avec un incrément fixe, jusqu’à ce que toutes les combinaisons aient été atteintes. Le problème de cette méthode, est que le nombre de combinaisons augmente beaucoup avec le nombre de liaisons. Il existe des moyens de réduire le nombre de conformations à explorer, mais son application reste très limitée.
– Les méthodes par fragmentation : dans un premier temps, le ligand est divisé en plusieurs fragments. Le fragment de base est placé sur le récepteur, puis les autres fragments sont attachés de manière covalente petit à petit. Cette approche est la plus répandue dans les logiciels de docking (FlexX (16), DOCK (17), ADAM (98), LUDI (99)) pour traiter la flexibilité du ligand (25).
– Les méthodes des bases de données : afin d’éviter le problème d’explosion combinatoire, certains programmes effectuent la recherche conformationnelle des librairies de conformations prédéfinies. C’est le cas par exemple du logiciel FLOG
(100) qui fait appel à une base de données de 25 conformations par molécule qui sont ensuite dockées de manière rigide.
La seconde approche englobe deux types de méthodes :
– Les méthodes aléatoires : de type Monte Carlo, utilisées par les logiciels Prodock (101) ou MCDOCK (102) par exemple. Certains logiciels utilisent également des algorithmes génétiques : un ensemble de conformations est considéré au départ, où chacune d’entre elles est définie par un ensemble de variables d’état, définies comme les gènes. L’ensemble de ces variables est donc le génotype, alors que les coordonnées font référence au phénotype. Des opérateurs génétiques (mutation, cross-over, migration) sont ensuite appliqués afin d’explorer l’espace conformationnel. La version 3.0 du logiciel AutoDock (103) utilise ce genre d’algorithme, ainsi que le logiciel GOLD (104) (105).
– Les méthodes de simulation : fondées sur la dynamique moléculaire et la minimisation de l’énergie. Bien que la dynamique soit un outil de simulation puissant, elle possède ses limitations, comme nous l’avons vu dans le paragraphe précédent.
Afin de contourner ce problème, de nouvelles techniques font leur apparition, comme la simulation à des températures très élevées ou partir de plusieurs positions du ligand (86). Quant aux méthodes de minimisation, elles ne permettent d’atteindre que des minima locaux. Elle est donc plutôt utilisée en complément des autres méthodes qui ont été décrites.
La flexibilité du ligand étant prise en compte au travers de ces diverses approches, qu’en est-il du récepteur? Les programmes de docking donnent des résultats satisfaisants pour environ la moitié des systèmes étudiés (106) (107). Cela est vrai lorsque le récepteur, considéré rigide, a une conformation « dockée » proche de la structure expérimentale de départ. Mais souvent, le récepteur change de configuration lors de l’arrimage du ligand, ce qui altère les résultats du docking. L’introduction de la flexibilité de la molécule cible dans les logiciels en est encore à ses débuts, mais il existe des techniques pour y parvenir, ou au moins la traiter partiellement :
– La dynamique moléculaire permet de traiter la flexibilité de la même manière que pour le ligand, mais l’espace conformationnel est alors bien plus important. Lorsqu’on utilise cette technique, seule une partie du récepteur est considérée comme flexible, les temps de calcul étant trop élevés.
– En ne considérant plus une seule conformation du récepteur, mais un ensemble de structures. Dans le cas des protéines, des librairies de rotamères sont utilisées pour traiter les mouvements des chaînes latérales, mais cette approche ne rend pas correctement compte des mouvements du squelette. Certains logiciels, tels que FlexE (108) (extension de FlexX), utilisent cette approche des conformations multiples, mais la question se pose encore sur la manière de choisir ces structures (cristallographie, RMN, simulations).
– Le « docking mou » combine les informations de plusieurs conformations obtenues par l’expérience dans le but de générer une représentation moyenne basée sur l’énergie, qui est ensuite utilisée pour accrocher le ligand.

Vers un traitement de la flexibilité relative aux interactions moléculaires

Les interactions moléculaires sont les mécanismes fondamentaux du vivant : elles réalisent les fonctions élémentaires intra et intercellulaires largement gérées à partir d’instructions génétiques, codées dans le séquençage ADN. Ces instructions, toujours par ces mécanismes d’interaction complexes, créent des messages moléculaires qui permettent la mise en œuvre de ces processus biologiques essentiels. Ces messages commandent le fonctionnement métabolique du vivant et interviennent dans tous les mécanismes de défense et d’autodéfense de l’organisme. La biologie moléculaire a pour mission d’étudier ces mécanismes : elle connaît une extraordinaire phase de progrès sur l’analyse du génome humain et le développement d’une ingénierie biomoléculaire déjà très performante.
La médecine met en œuvre ces avancées dans la prévention, la guérison et le soulagement des maladies dont les origines se trouvent très souvent dans des altérations moléculaires génétiques ou accidentelles. La médecine utilise alors des molécules actives qui vont intervenir, toujours par la voie d’interactions moléculaires, en ralentissant, inhibant.
On mesure donc l’extrême importance de la compréhension et de la maîtrise de ces interactions moléculaires : lorsque l’on observe les évolutions récentes de la connaissance, on peut dire que les résultats les plus importants ont été réalisés par l’expérimentation. Mais lorsque l’on considère l’avenir, une fois les premières étapes franchies, la complexité des mécanismes et l’ampleur des expérimentations à mettre en place pour progresser, invitent à construire des outils de compréhension par des modèles et des simulations.
La voie de la modélisation à l’échelle atomique envisagée pour accompagner ces démarches expérimentales reste encore limitée à l’étude des structures et des conformations moléculaires, tirant parti des résultats expérimentaux sur l’analyse structurelle par rayons X ou par RMN. Les tentatives nombreuses pour traiter des interactions entre les molécules progressent, sans atteindre toutefois, le caractère prédictif souhaitable : en pratique, l’obstacle majeur au progrès est lié à une modélisation insuffisamment précise de la flexibilité moléculaire :
– Les approches par la dynamique moléculaire sont certainement les plus attractives, mais cela requiert d’importantes ressources informatiques. En effet, le temps de calcul augmente en fonction du nombre d’atomes N : pour les modèles les plus simples, ce temps est proportionnel à N2, mais il est possible de diminuer ce temps en utilisant des modèles plus simples pour décrire les interactions tels que Particle Mesh Ewald (O(NlogN)) ou P3M (O(N)).
– Les approches plus statiques dites de « docking », intéressantes pour le bio-ingénieur, se heurtent justement au fait que l’on ne dispose que de modèles rigides ou semi-rigides pour chaque molécule en interaction. Ceci conduit le plus souvent à des solutions possibles multiples qui ne peuvent être validées que par l’expérience. Bien sûr, de nombreux travaux précédemment décrits, s’efforcent de surmonter ces difficultés sans pour l’instant y parvenir pleinement : notre travail participe à ces efforts en empruntant un chemin original.
Dans ce qui suit, nous allons voir quelle est notre approche, en quoi elle apporte une réponse alternative et originale dans le traitement de la flexibilité biomoléculaire a priori , que nous détaillerons dans le prochain chapitre.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

CHAPITRE I : MODELISATION ET SIMULATION AU SERVICE DE LA BIOLOGIE 
Introduction
I-1. Contexte
I-1.1. Les enjeux
I-1.1.1. Recherche fondamentale
I-1.1.2. Pharmacologie
I-1.1.3. Nanobiotechnologies
I-1.2. Les biopolymères : une cible privilégiée
I-1.2.1. Les acides nucléiques
I-1.2.2. Les Protéines
I-2. La nature des forces d’interaction
I-2.1. Liaisons fortes
I-2.1.1. Liaison covalente
I-2.1.2 .Liaison ionique
I-2.2. Liaisons faibles
I-2.2.1. Interaction coulombienne
I-2.2.2. Forces de dispersion et de répulsion
1-2.2.3. Liaison hydrogène
I-2.2.4. L’effet hydrophobe
I-3. Modélisation des systèmes biologiques
I-3.1. Les modèles quantiques
I-3.2. La mécanique moléculaire
I-3.2.1. Champ de force
I-3.2.2. Optimisation de la structure
I-3.2.3. Le solvant
I-3.3. Modèles dynamiques
I-3.3.1. Modélisation par dynamique moléculaire
I-3.3.2. Simulation de type Monte-Carlo
I-3.4. Le problème de la flexibilité moléculaire
I-4. Comment prendre en compte la flexibilité moléculaire ?
I-4.1. Les méthodes usuelles de simulation
I-4.1.1. Simulations dynamiques
I-4.1.2. Calcul des modes normaux
I-4.1.3. Autres méthodes
I-4.1.4. Limitations
I-4.2. La flexibilité dans les logiciels de Docking
I-4.2.1. Verrous
I-4.2.2. Représentation du système
I-4.2.3. Les algorithmes de recherche
I-4.2.4. Les fonctions de scoring
I-5. Vers un traitement de la flexibilité relative aux interactions moléculaires
I-6. Conclusion
CHAPITRE 2 : METHODOLOGIE: METHODOLOGIE
INTRODUCTION
II-1. Recherche d’un mode d’introduction des déformations dans un calcul de docking
II-1.1. Les modes normaux
II-1.1.1. Origine
II-1.1.2. Les modes normaux dans une procédure de docking
II-1.2. Les Modes Statiques
II-2. Le calcul des Modes Statiques
II-3. Validation de la méthode
II-4. Avantages et limites de la méthode
II-5. Les outils développés à partir des modes statiques
II-5.1. Description de la flexibilité moléculaire
II-5.1.1. Optimisation de la force
II-5.1.2. Modes de pincements
II-5.1.3. Grandeurs caractéristiques
II-5.2. Arrimage d’un ion métallique
II-6. Conclusion
CHAPITRE 3 : RESULTATS: RESULTATS
Introduction
III-1. Présentation des peptides
III-1-1. Le peptide Amyloïde-β
III-1.2. Le peptide modèle GNNQQNY
III-2. Caractérisation de la flexibilité
III-2.1. Cas du peptide modèle GNNQQNY
III-2.1.1. Calculs sur les monomères
III-2.1.2. Calculs sur les dimères
I-2.2. Cas de l’amyloïde β
III-2.3. Représentation des zones flexibles des molécules
III-2.3.1. Propagation de la déformation
III-2.3.2. Comportement allostérique
III-2.3.3. Relation interactions/oligomérisation
III-2.5. Conclusion
III-3. Application au docking
III-3.1. Description des conformations utilisées
III-3.2 Sonde électrostatique
III-3.2.1. Exploration de l’espace conformationnel de la structure Aβ(1-16) en interaction avec un ion métallique
III-3.2.2. Repliement du peptide à partir de la structure sans zinc
III-3. Conclusions
CONCLUSION GENERALE
ANNEXE A
ANNEXE B
BIBLIOGRAPHIE

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *