La Miniaturisation est une tendance inéluctable en biologie

De nouvelles technologies : les puces à cellules

La Miniaturisation est une tendance inéluctable en biologie

Nous avons introduit précédemment que deux phénomènes distincts sous-tendaient l’importance de la miniaturisation des dispositifs d’étude en biologie. Le premier aspect ressemble à une approche « top-down » (descendant des modèles complexes macroscopiques vers la « simplicité » du microscopique) bien connue des micro-electroniciens. De l’étude du corps humain dans son ensemble, la biologie s’est tournée vers les organes, les tissus, les cellules et aujourd’hui les molécules qui les composent. Des études au niveau moléculaire nécessitent des technologies capables d’individualiser des composés nanométriques. C’est pourquoi les nanotechnologies sont devenues des outils fondamentaux pour la biologie. Le deuxième aspect part du principe que la complexité du vivant peut être appréhendée dans des technologies parallèles et haut-débit. L’étude de l’ensemble des gènes du génome humain dans un seul microsystème est aujourd’hui une réalité. D’un point de vue réaliste ces technologies ne peuvent qu’être miniaturisées. Ces deux approches ont conduit à la notion de micro laboratoires qui peuvent manipuler des entités miniatures à haut-débit.

Principes des puces à molécules

Au niveau moléculaire, les phénomènes biochimiques sont gouvernés par des interactions très spécifiques entre molécules. On peut par exemple citer les appariements entre brins d’acides nucléiques, les liens entre les enzymes et leurs substrats ou encore entre les récepteurs membranaires d’une cellule et leurs ligands. La haute spécificité de ces interactions peut être utilisée pour identifier des molécules dans un échantillon d’une part (les propriétés ou la nature d’une molécule se liant à une molécule connue peuvent être déduites), et tester l’intérêt de candidats d’autres part (un candidat se liant à une cible dans un processus de criblage par exemple). L’utilisation en parallèle de nombreuses molécules connues pour étudier un échantillon permet d’en identifier les composants de manière indépendante. Sur ce schéma, des dispositifs physiques simples ont été imaginés dans les années 1990. De taille centimétrique, ils sont constitués d’une surface plane solide sur laquelle sont placés des plots ou « spots » contenant des molécules d’intérêt, sous forme matricielle et en grand nombre. Ces surfaces sont appelées des biopuces sur lesquelles toutes sortes de molécules biologiques ont déjà pu être matricées .

Des puces à ADN aux puces à molécules 

Les puces à ADN [5 et 8 – Schena et al., 6 – D.J. Lockhart et al, 7 – Shalon D et al., 9 – Ekins et al.] , maintenant utilisées classiquement en biologie moléculaire, constituent les premiers véritables bio-systèmes. Elles sont employées pour analyser la quantité de molécules d’ARN messager (ARNm) exprimées par chaque gène dans un tissu, dans un échantillon biologique (du sang par exemple) ou dans une culture cellulaire. Celles-ci sont converties en molécules d’ADN cibles correspondantes et plus stables, marquées par un fluorochrome. Des spots de molécules d’ADN sondes dont on connaît la séquence sont matricés sur une lame de verre, de plastique ou de silicium. Les molécules d’ADN cibles et sondes sont mises en contact : les ADN cibles s’hybrident de façon spécifique avec leur sonde complémentaire, donnant naissance à un signal fluorescent.

Ce signal permet de mesurer un taux de molécules fluorescentes d’ADN complémentaire présentes dans l’expérience. Chaque gène est représenté sur la puce par une ou plusieurs sondes de molécules d’acides nucléiques (oligonucléotidiques ou issues de PCR – « Polymérase Chain Reaction » en anglais ou « réaction en chaîne de la polymérase »), il est donc possible de déduire le niveau d’expression de ces gènes: plus la cellule a exprimé un gène, plus il y a de molécules d’ARNm correspondantes, donc plus de fluorescence observée sur le spot sonde.

Ces dispositifs permettent d’utiliser peu d’échantillon (quelques microlitres représentant quelques microgrammes d’ARNm), de traiter un nombre très important de gènes sur une seule puce (30 000 gènes pour des puces pan-génomiques qui représentent l’ensemble du génome d’un animal ou d’un individu) de manière globale avec une densité pouvant atteindre les 300000 sondes/cm2 (GeneChip TM d’Affymetrix par exemple). La complexité des puces à ADN (qui peut être caractérisée par la densité de sondes ou le nombre de sondes par gènes par exemple) varie selon les utilisations mais elles sont maintenant un outil incontournable dans tous les domaines de la biologie [10-Venkatasubbarao, 11 -Iyer]. Si la connaissance du niveau d’expression d’un gène permet de comprendre les réseaux de régulations et d’interactions dont ils font partie, elle ne peut pas être directement liée à des aspects fonctionnels. Les protéines issues des gènes constituent les véritables effecteurs des réactions biologiques. Elles proviennent de processus complexes faisant intervenir d’autres acteurs que les seuls gènes (épissage alternatif, phosphorylation, assemblage quaternaire par exemple), c’est pourquoi l’expression d’un gène ne peut pas être directement liée à la présence ou à l’absence de la protéine pour laquelle il code. Pour leur étude et suivant le même raisonnement technique, celles-ci ont été à leur tour matricées sur le format des puces [12–MacBeath, 13– Snyder, 14- Ramachandran]. Deux types d’utilisations principales ont été développés. D’une part, les puces à protéines peuvent servir à la déconvolution d’un échantillon, pour identifier de quelles protéines il est constitué [15 – Phizicky]. Ces expériences sont très difficiles. Le nombre de protéines différentes dans un échantillon vivant dépasse plusieurs centaines de milliers [16- Zhu] et n’est pas accessible dans sa totalité par ces dispositifs. Si les étapes de phosphorylations qui influent sur la fonction des protéines sont ajoutées, le nombre augmente encore. Les puces à protéines représentent un outil adapté à la mise en évidence de la présence ou non de molécules appartenant à une famille plus restreinte (puces kinases par exemple). Des quantifications relatives peuvent alors être mise au point. Cependant la découverte d’un plus grand nombre de protéines d’un échantillon complexe est plus efficacement réalisée par la protéomique utilisant par exemple la spectrométrie de masse . D’autre part, l’utilisation la plus pertinente des puces à protéines concerne l’identification de molécules d’intérêt dans le processus du criblage primaire. Des protéines d’intérêt appartenant au phénotype étudié (toxicité ou efficacité) sont matricées sur le support. Le signal fluorescent issu de la liaison du candidat avec une protéine du substrat permet de déduire son implication potentielle dans le phénotype considéré. Si le candidat se lie à une protéine impliquée dans une maladie par exemple, il pourra avoir une efficacité pour inhiber son action et donc soigner la maladie. Le haut-débit du format puce prend toute son importance pour découvrir des médicaments potentiels rapidement. Le principe de fonctionnement de ces puces à déjà été étendu à plusieurs autres types de molécules matricées : ARN, peptides, ainsi que d’autres molécules chimiques [17- Finny et al., 18- Pellois et al.]. D’un point de vue technique, ces outils ont beaucoup bénéficié des développements des technologies du silicium (microtechnologies, photolithographie par exemple). D’un point de vue général, les puces à molécules représentent des outils très intéressants pour les étapes premières de la recherche en biologie.

Intégration : les puces à cellules

De la génomique structurale à la génomique fonctionnelle : le phénotype

Le but premier de l’utilisation des puces à molécules pour des applications de génomique (comprendre le fonctionnement du génome) est descriptif puisqu’il revient à caractériser une partie de la composition moléculaire d’un échantillon à un temps donné de son développement (quantité relative de molécules d’ARN ou de protéines par exemple). Ces informations ne sont pas corrélées simplement à une fonction que tout changement des quantités relatives de molécules présentes pourrait révéler (signature transcriptomique pour les puces à ADN par exemple). La fonction d’un gène (ou d’un ensemble de gènes ou de molécules) ne peut être déterminée qu’en confrontant son action (identifiée par le biais de son taux d’expression) à un état donné et réel d’un système vivant complexe. La cellule vivante est un modèle de choix pour ces découvertes. Elle permet d’étudier plusieurs fonctions déterminées à travers l’analyse de phénotypes cellulaires spécifiques. Le phénotype peut être défini comme l’état complet de la cellule, c’est-à-dire la réalisation de l’ensemble des caractères (morphologiques et fonctionnels) spécifiant son état. La différentiation cellulaire, la prolifération, l’apoptose sont par exemple des états spécifiques. Pour comprendre l’implication d’un gène dans un processus cellulaire, il faut étudier l’influence de son action sur des phénotypes donnés.

Représenter les modèles animaux in vivo : besoin de tests cellulaires in vitro

La phase ultime de toute évaluation d’une hypothèse biologique a lieu dans le modèle animal (ou même chez l’homme pour les médicaments) [19-Greaves, 25– Li]. D’un point de vue économique, ces tests sont très lourds (coûteux et longs) et éthiquement controversés [http://www.frame.org.uk/3rs/3rsintro.htm, et 20 – Preziosi]. Le remplacement d’une partie du recours au modèle animal par des tests in vitro est de plus en plus demandé (programme REACH européen par exemple), même si le transfert des résultats obtenus vers les modèles plus complexes est souvent difficile [22-25]. Cependant, les tests in vitro utilisant les modèles moléculaires ne représentent que très faiblement ce qui peut se passer dans des environnements plus complexes. La conformation spatiales des molécules n’est pas respectée lorsqu’elles sont accrochées sur une surface solide bidimensionnelle: les protéines peuvent se situer dans des environnements dénaturants, des enzymes peuvent avoir leur site d’activité trop proche de la surface pour pouvoir être stériquement efficace par exemple [26- Merkel]. Les hypothèses fonctionnelles qui débouchent de ces systèmes sont rarement vérifiées. Dans une approche de complexification croissante des modèles, des tests in vitro mettant en jeu des ensembles moléculaires sont considérés comme des expériences plus proches des modèles vivants. Pour obtenir ces complexes protéiques, des méthodes naturelles ont été testées comme celles utilisant la machinerie enzymatique des réticulocytes de lapin [27 – Xu X et al.] ou des liposomes de foie animal ou humain [28 – Noireaux V et al.] mais leur valeur prédictive n’est pas démontrée. Les tests in vitro réalisés sur cellules vivantes sont un bon intermédiaire entre complexité et coûts. La cellule représente le maillon élémentaire de tout organisme vivant (eucaryote ou procaryote). Elle peut être produite pour des coûts raisonnables et donc intégrée dans des systèmes haut débit. Cependant le criblage de médicament sur des modèles cellulaires trop simples (lignées cellulaires immortelles ou assemblage de récepteurs non fonctionnels par exemple) a été un échec et n’a pas permis de prédire l’action de candidats sur des modèles in vivo. On peut citer des IC50 représentant les doses pour obtenir la mortalité de 50% d’une population cellulaire qui ne se traduisent pas toujours en LD50, dose conduisant à la mortalité de 50% des animaux. Les modèles cellulaires doivent se complexifier pour tenter d’intégrer la réalité tissulaire. Il sera alors nécessaire de tester plusieurs modèles cellulaires (provenant de plusieurs organes) en parallèle sur la même puce.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction
Contexte de l’étude
Motivations
1 Génomique fonctionnelle
2 Criblage primaire et secondaire
3 ADME/Tox et Tox
Objectifs de la thèse
Chapitre 1 : Culture de cellules en gouttes
1.1 De nouvelles technologies : les puces à cellules
1.1.1 La Miniaturisation est une tendance inéluctable en biologie
1.1.2 Principes des puces à molécules
1.1.3 Des puces à ADN aux puces à molécules
1.2 Intégration : les puces à cellules
1.2.1 De la génomique structurale à la génomique fonctionnelle : le phénotype
1.2.2 Représenter les modèles animaux in vivo : besoin de tests cellulaires in vitro
1.3 Un standard technologique : les plaques à puits
1.4 « Transfection inverse » : une innovation sur puce
1.4.1 La transfection est une réaction capitale en biologie
1.4.2 Principe et avantages de la « transfection inverse »
1.4.3 Engouement, limites et évolutions
1.5 Intégration du multiplexage : la goutte, une technologie innovante
1.5.1 Caractéristiques génériques des cultures cellulaires
1.5.2 Du puits à la goutte
1.6 Miniaturisation des échantillons cellulaires : notion de plot
1.7 Renforcer la pertinence des analyses cellulaires : le haut contenu
1.7.1 La culture cellulaire est un échantillon très hétérogène
1.7.2 Analyse à l’échelle de la cellule unique
1.8 Micro-gouttes et transfection
1.8.1 Principe
1.8.2 Description du substrat
1.8.3 Système d’incubation en vapeur saturante
1.8.4 Preuves de faisabilité : multi-transfections d’ADN recombinant
Chapitre 2 : Réalisation de « nano-gouttes »
2.1 Des substrats optimisés
2.1.1 Cahier des charges
2.1.2 Stratégie développée au laboratoire Biopuces : monocouches auto assemblées
2.1.2.1 Principes : SAM et silanes
2.1.2.2 Création d’une matrice de spots hydrophiles
2.1.2.3 Performances et limites
2.1.3 Stratégie Ultrahydrophobe
2.1.4 Impression par micro-contact
(« microcontact printing », µCP, ou « stamping » en anglais)
2.1.5 Stratégie industrielle de silanisation en phase liquide
2.1.5.1 Description du protocole transféré
2.1.5.2 Performances
2.1.5.2.1 Biocompatibilité
2.1.5.2.2 Comportement des gouttes
2.1.5.2.3 Test de validation : premières transfections
2.1.5.3 Améliorations
2.2 Robotisation de la formation de nanogouttes de culture cellulaire
2.2.1 Cahier des charges
2.2.2 Choix de la technologie optimale : dispense piézo-électrique
2.2.2.1 Seringues et Capillaires
2.2.2.2 Pointes et contacts
2.2.2.3 Dispense sans contact
2.2.2.4 Perspectives : éjection acoustique
2.2.3 Prototype et modifications
2.2.4 Mise en place du sciFLEXARRAYRER : 1ers résultats
2.2.4.1 Calibrages
2.2.4.2 Validation : premiers essais de transfections automatisées
2.2.4.3 Optimisations
2.2.4.3.1 Lavages
Bulles d’air
Etat de surface des pipettes
2.2.4.3.2 Automatisation poussée
Evaluation de la dispense en ligne
Boucles de contrôles et de lavage
2.2.4.4 Spécificités des cultures cellulaires
2.2.4.4.1 Amas cellulaires
2.2.4.4.2 Viabilité/Prolifération
Chapitre 3 : Détection et Quantification du signal
3.1 Microscopie Haut-contenu
3.1.1 Acquisition automatique à haute résolution en fluorescence
3.1.1.1 Parallélisme des traitements : trempages
3.1.1.2 Contraintes liées à l’acquisition
3.1.2 Caractéristiques de la plateforme d’imagerie (PathFinder OSA, IMSTAR)
3.1.3 Traitement d’images
3.1.3.1 Détection
3.1.3.2 Quantification du signal
3.1.3.2.1 Résultats obtenus et principe d’analyse
3.1.3.2.2 Bruit de fond
3.1.4 Conditions d’utilisation et optimisations nécessaires
3.2 Phénotypage par spectrométrie de masse
3.2.1 Contexte et méthodologie
3.2.1.1 Spectrométrie de masse et protéomique
3.2.1.2 Choix de la technique et concept
3.2.2 Faisabilité : culture cellulaire, viabilité et spectres
3.2.2.1 Viabilité et prolifération
3.2.2.2 Obtention de spectres
3.2.2.3 Influence du nombre de cellules
3.2.3 Signature phénotypique en spectrométrie de masse
3.2.3.1 Principe
3.2.3.2 Différenciation de phénotypes : apoptose et prolifération
3.2.3.2.1 Conditions expérimentales
3.2.3.2.2 Stratégie d’analyse
3.2.3.2.3 Résultats
3.2.3.3 Perspectives : applications
3.2.4 Imagerie de culture cellulaire par spectrométrie de masse
3.2.4.1 Principes
3.2.4.2 Spectrométrie TOF-SIMS
3.2.4.3 Preuve de concept
3.2.4.3.1 Mise au point : étude des contaminations
3.2.4.3.2 Imagerie cellulaire (durée, cellules, contaminants)
3.2.4.4 Perspectives
Chapitre 4 : Application
4.1 Contexte
4.1.1 Les tumeurs cérébrales sont un enjeu clinique majeur
4.1.2 Hypothèses de travail
4.2 Objectifs et modèle
4.2.1 Sélection des gènes et modèles cellulaires
4.2.2 Méthode d’extinction : interférence ARN
4.2.3 Phénotype : mortalité cellulaire
4.2.4 Objectifs des mesures et contenu d’une expérience de criblage
4.3 Implémentation et tests préliminaires
4.3.1 Séquence d’un criblage type
4.3.2 Tests préliminaires et calibrage
4.4 Considérations technologiques
4.4.1 Limitations
4.4.2 Conséquences sur le modèle cellulaire et l’interprétation
4.5 Tendances et résultats
4.5.1 Analyse globale
4.5.2 Analyse haut contenu
4.5.2.1 Construction du modèle
4.5.2.2 Applications au criblage
4.6 Conclusions technologiques – Perspectives biologiques
Conclusions

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *