Depuis toujours, l’homme a voulu contrôler son environnement, ceci étant d’autant plus vrai depuis qu’il a créé tout un ensemble de machines qui lui ont facilité la tâche dans ce sens. En quelques dizaines d’années, l’interface homme-machine a connu une évolution très importante. Ainsi, dans les années 1950, il fallait recourir à des tableaux de connexion, sur lesquels on enfichait des câbles reliant deux opérateurs, pour programmer des opérations mathématiques sur les tabulatrices électromécaniques, lointains ancêtres de nos calculatrices programmables. Dans les années 1960, les systèmes sont devenus capables d’interpréter une ligne de commande : le clavier s’est imposé, bientôt accompagné de l’écran. Dès cette époque, des modes d’interaction plus conviviaux avec les machines ont été recherchés. En 1964, Douglas C. Engelbart avait conçu les principes de l’interface graphique moderne : au lieu d’afficher des lignes de commandes les unes à la suite des autres, l’écran pouvait accueillir des fenêtres dans lesquelles s’affichaient des menus, auxquels on pouvait accéder en déplaçant un pointeur avec une souris. Ecran, clavier, souris : les trois éléments fondamentaux de l’interface de nos ordinateurs personnels étaient réunis. Depuis ce temps, l’interface homme-ordinateur a légèrement évolué. Mais quand on parle de l’interface homme-machine, on pense également à l’ « homme machine », cyborg en anglais, comme Robocop ou Terminator dans l’imagination du néophyte. En effet, il est possible depuis des dizaines années, d’interfacer la machine à l’homme pour améliorer ou rétablir des fonctions corporelles, telle que l’audition avec l’avènement de l’audioprothèse ou de façon plus intime à l’homme, le stimulateur cardiaque, ou pacemaker, qui implanté dans l’organisme, délivre des impulsions électriques au niveau du cœur lui permettant par exemple d’accélérer ce dernier lorsqu’il est trop lent. Depuis lors, l’homme est en perpétuelle recherche d’améliorations ou même de remplacements de certaines fonctions défectueuses du corps humain, à l’aide d’outils comparables à la souris ou au clavier pour l’ordinateur. De nombreux travaux se sont alors focalisés sur la partie qui contrôle le corps humain : le cerveau. L’interface cerveau-machine était née. Il a alors été démontré par P. Fromherz en 1991 [FROM 91], 6 ans après avoir évoqué l’idée [FROM 85], qu’il peut y avoir une affinité entre les neurones, cellules constituant l’unité fonctionnelle de base du système nerveux, et le silicium, support de base de l’électronique actuelle. L’interface neuro-électrique venait de voir le jour.
En 1780, Luigi Galvani démontre que la stimulation électrique d’un nerf provoque la contraction du muscle relié. En 1791, il répète la même expérience avec succès sur le cœur. De nos jours, après plus de cinquante ans de progrès dans le monde des composants semiconducteurs et dans le domaine de la neurobiologie, il est envisageable de faire des interactions, entre les deux domaines, bien plus complexes. Ces deux domaines combinés font maintenant partie d’un domaine plus vaste : les biotechnologies. Cette discipline couvrant un large panel de domaines, nous ne nous intéresserons qu’aux biosystèmes. Il y a deux axes distincts dans les biosystèmes. Le premier consiste à s’inspirer de la nature pour créer des nouveaux systèmes, comme par exemple le velcro qui est une invention inspirée de la nature, de cette fleur de Bardane qui s’accroche à nos vêtements ou aux poils des animaux. Le second consiste à créer des systèmes compatibles et applicatifs aux vivants, comme par exemple la mesure du glucose pour la surveillance du diabète [ANDR 10]. C’est dans ce dernier axe que se situe mon projet de thèse en se focalisant sur l’interface homme-machine et plus particulièrement « neurone-composant ».
L’interface homme-machine
Un des thèmes de la biotechnologie et plus particulièrement des biosystèmes, est l’interface homme-machine. Dans le futur, on souhaite associer à chaque partie du corps et à chaque organe, un système électrique d’aide ou de substitution. Il y a donc autant de sujets de recherche que de possibilités d’interaction. Pour illustrer l’interface homme-machine et apporter des éléments utiles au sujet, nous ne traiterons que de trois cas qui concernent les membres moteurs du corps humain, le sens du goût et celui de la vue.
Les membres « moteurs » du corps humain
Chez une personne paralysée, les muscles existent même si elle ne peut pas les contracter. Imaginons qu’un système intercepte les signaux, les transmette jusqu’à un stimulateur implanté sous la peau, dans les muscles paralysés qui ordonnerait à ceux-ci de bouger. C’est un des projets audacieux du Dr. J. P. Donoghue, du département de Neuroscience à l’université de Brown (USA). Actuellement un des leaders dans le domaine de l’interface entre le cerveau et l’ordinateur, il fait partie du projet BrainGate visant à donner plus d’autonomie aux personnes ayant un handicap moteur en leur permettant de contrôler un ordinateur par la seule force de leurs pensées. Pour cela, on implante au patient un capteur sur la zone du cerveau responsable de la fonction motrice. Le capteur intercepte les signaux électriques du cerveau et les transmet à un ordinateur qui interprète ces données. Matthew Nagle fut le premier humain à utiliser une interface neuronale directe pour restaurer des fonctionnalités altérées suite à une paralysie. Un lien placé à l’extérieur de son crâne permet de relier le dispositif à un ordinateur. L’ordinateur a alors été formaté pour identifier les modèles de pensée de Matthew Nagle et pour les associer aux mouvements qu’il essayait de réaliser [DONO 06]. Depuis, le projet BrainGate permet à un patient paralysé et implanté du nouveau capteur, de contrôler un bras robotisé .
Ces expériences montrent qu’il est déjà possible de pouvoir faire bouger des robots par la simple « force de la pensée ». Cependant, il y a encore des travaux à réaliser avant que ce bras robotique ne devienne une prothèse fixée à l’homme car cela induit l’étude de la biocompatibilité des matériaux. En effet, lorsque l’on interface du vivant avec des matériaux inorganiques, il est important que ces matériaux ne dégradent pas le milieu biologique dans lequel ils sont utilisés. Le titane par exemple est un des matériaux les plus biocompatibles, utilisé notamment pour des prothèses et implants osseux [ENAB 13]. Il est cependant possible d’utiliser des polymères biocompatibles comme le parylène [PROD 09], utilisé pour le pacemaker, pour enrober des parties non-biocompatibles. Il est donc très important dans les choix des matériaux et des polymères, de prendre en compte cet aspect de biocompatibilité.
Le goût
Le goût est un des cinq sens chez l’être humain, qui est une composition de saveurs, perçues par la langue, et d’odeurs, perçues par le nez. Nous n’aborderons ici que la langue. Celle-ci est composée de papilles gustatives qui permettent de reconnaitre les différentes saveurs : sucré, salé, amer, acide et umami. La langue se compose donc comme un réseau de différents capteurs. La société AlphaMOS développe, fabrique et commercialise des langues électroniques sur le marché international [WOER 11]. Ces langues électroniques utilisent des capteurs basés sur la technologie ChemFET (Chemical Field Effect Transistor) pour l’analyse d’échantillons liquides. En présence de composés dissous, une différence de potentiel est mesurée entre chacun des sept capteurs et l’électrode de référence. Chaque capteur comporte une membrane organique spécifique qui interagit différemment avec les composés chimiques ioniques et neutres présent dans l’échantillon liquide. Toute interaction à l’interface de la membrane est détectée par le capteur et convertie en signal électronique.
Pour bien comprendre le fonctionnement de ce type de capteur, il faut remonter jusqu’au transistor à effet de champ, Field Effect Transistor (FET) en anglais. Le premier brevet sur le transistor à effet de champ a été déposé en 1925 par Julius E. Lilienfeld. Comme rien ne fut publié sur cette invention, elle resta ignorée de l’industrie. Ce n’est qu’après la guerre que le transistor à effet de champ sera redécouvert en 1960, par D. Kahng et J. Atalla sous forme de MOSFET pour Metal Oxyde Semi-conducteur FET. La particularité du FET est d’utiliser un champ électrique pour contrôler la forme et donc la conductivité d’un « canal » dans un matériau semi-conducteur. Dès lors, de nombreux composants basés sur la technologie FET sont apparus (MOSFET, JFET, EOSFET …) avec de nombreuses applications [MEYB 05 ; ROTH 11]. Dans les années 70, l’ère des capteurs chimiques portant le nom de ChemFET pour Chemical FET a commencé. L’idée d’utiliser le transistor MOS avec la grille métallique isolée comme un capteur chimique en milieu liquide , a été proposée par P. Bergveld [BERG 02]. Actuellement, il existe différents types de ChemFETs comme les ISFETs pour Ion Sensitive FETs, EnFETs pour Enzyme FETs ou BioFETs pour Biological FETs. Les ISFETs permettent par exemple d’avoir une variation de signal électrique lorsqu’il y a une variation de pH. Il est possible de faire des ChemFETs sensibles à différents composés chimiques ioniques et par conséquent de faire des langues électroniques.
La vue
Un autre sens que la technologie peut également aider quand on le perd, est la vue. En effet, la vue est le sens qui permet d’observer et d’analyser l’environnement par la réception et l’interprétation des rayonnements lumineux. L’œil est l’organe de la vue, celui-ci est composé d’un globe oculaire qui possède une surface, qui capte la lumière et la transforme en influx nerveux, appelée rétine. Le nerf optique conduit ces informations jusqu’au lobe occipital du cerveau. Le projet Artificial Vision System, développé par le professeur Kenneth R. Smith Jr de l’université de St Louis (USA), s’emploie à redonner la vue à des personnes ayant eu le nerf optique sectionné. Pour se faire, il utilise une caméra qui envoie des signaux à des électrodes implantées dans l’aire du cerveau responsable de la vision, qui stimule des zones précises et qui crée des points lumineux permettant de voir légèrement les contours des objets.
Dans le cas où le patient a perdu la vue mais que le nerf optique n’est pas sectionné, il est également possible d’utiliser une rétine artificielle. L’équipe de Serge Picaud, de l’Institut de la Vision à Paris, avec laquelle nous avons collaboré, travaille sur des axes de recherche autour de la rétine comme l’intégration de l’information visuelle et mécanismes de dégénérescence [PICA 09], les prothèses rétiniennes et restauration d’une vision utile après dégénérescence des photorécepteurs [PICA 10] ou encore les mécanismes de dégénérescence et survie des cellules ganglionnaires dans le glaucome [PICA 11]. La rétine est composée de cellules sensibles à la lumière, les photorécepteurs, et d’un réseau de neurones. Les premières transforment les signaux lumineux en signaux électriques et stimulent des neurones, notamment les cellules ganglionnaires, qui acheminent les messages jusqu’au cerveau via le nerf optique. La défaillance des photorécepteurs altère la vue et peut conduire à la cécité. La rétine artificielle se substitue à ces cellules pour stimuler les neurones résiduels de la rétine et rendre en partie la vue à ces personnes. Il s’agit notamment d’un implant de 3×3 mm fixé sur ou sous la rétine et composé d’électrodes qui stimulent les neurones rétiniens. Les premiers essais ont débuté dans les années 1990 avec des dispositifs incluant 16 à 20 électrodes. Ils en comportent actuellement jusqu’à 1 500 et permettent aux différents patients de se déplacer seuls, repérer une porte ou une fenêtre dans une pièce, visualiser des passages cloutés ou encore suivre une ligne sur le sol. Et parmi eux, certains parviennent à lire, sur un écran d’ordinateur, des mots à gros caractères blancs sur fond noir, voire lire de courtes phrases.
Les neurones
Nous venons de voir un certain nombre d’applications réalisées ou en cours d’études en relation avec le thème de l’interface homme-machine. L’objectif de toutes ces prothèses serait à long terme d’être intégrées dans le corps et être reliées au cerveau pour y transmettre en temps réel, les différentes informations. Pour rappel, le cerveau est le principal organe du système nerveux et régule les autres systèmes d’organes du corps, en agissant sur les muscles ou les glandes, et constitue le siège des fonctions cognitives. Il comporte ainsi une structure extrêmement complexe qui peut renfermer jusqu’à plusieurs milliards de neurones connectés les uns aux autres. Malgré de grandes avancées en neurosciences, le fonctionnement du cerveau est encore mal connu. Cependant, il est démontré que les neurones sont les cellules cérébrales qui communiquent entre elles et qui font parties intégrantes du cerveau. En ayant des liens affinitaires avec ces cellules, nous aurions un moyen de communiquer avec les différentes parties du cerveau. Il est donc important de définir le vocabulaire du neurone.
|
Table des matières
Introduction Générale
Chapitre I : Etat de l’art
Introduction
I. L’interface homme-machine
1. Les membres « moteurs » du corps humain
2. Le goût
3. La vue
II. Les neurones
1. La morphologie
2. Le potentiel d’action
3. Les canaux ioniques
III. Les systèmes de mesure de potentiels d’actions
1. Les MEAs et les électrodes
2. Les capteurs à base de transistors
3. Les neuropuces
4. Le Patch-clamp
Nos choix par rapport à l’état de l’art et conclusion
Chapitre II : La Technologie
Introduction
I. Etude des NeuroFETs et conception de leurs masques
1. Simulations sous ATHENA
2. Cahier des charges
3. Utilisation de grilles déportées : Extended Gate
4. Dimensionnement de la grille
5. Réalisation et présentation des masques
II. Fabrication et caractérisation de micro-capteurs NeuroFET
1. Description du procédé technologique
2. Présentation des NeuroFETs
3. Caractérisations électriques des différents dispositifs
III. Vers l’ISFET sensible au Na+ et K+
1. Etude de l’aluminosilicate
2. Modification du process NeuroFETs vers le process ISFETs
Conclusion
Chapitre III : Culture Neuronale
Introduction
I. Culture neuronale sur SU-8
1. Premiers tests de culture neuronale sur SU-8
2. Biocompatibilité de la SU-8
II. Du laminage à la SU-8 3D
1. Le laminage
2. La SU-8 3D
III. Orientation neuronale à l’aide de la SU-8 3D
1. Dessins des masques de la SU-8 3D pour le procédé NeuroFETs
2. Résultats des nouvelles cultures cellulaires
Conclusion
Chapitre IV : Résultats
Introduction
I. La mise en boitier de la puce à NeuroFETs
1. Report de la puce par contact sur carte spécifique de type PCB
2. Mise en place du cône de culture
II. L’électronique associée
1. Principe de détection
2. Principe de l’électronique
3. Résultats expérimentaux
III. Les ISFETs sensibles aux ions Na+ et K+
IV. Vers les mesures du potentiel d’action
1. Culture de neurones d’escargots
2. Mesure de potentiels d’actions à l’aide des NeuroFETs
3. Régénération des puces pour réutilisation
Conclusion
Conclusion générale et perspectives
ANNEXES