Différences inter-hémisphériques associées au langage
De la neuropsychologie à l’imagerie fonctionnelle
100 ans d’études de lésions : vers un modèle connexionniste
Paul Broca (1824-1880) a été un des pionniers de la neuropsychologie avec son observation d’un déficit de production de la parole associé à une lésion dans la troisième circonvolution frontale gauche (Broca, 1861). C’est le premier résultat sur l’asymétrie hémisphérique, et celui-ci a trait au langage, fonction cérébrale latéralisée par excellence. Carl Wernicke (1848- 1905) a poursuivi ce nouveau domaine de recherche, en étendant les observations de Broca aux aires de la compréhension du langage, en spécifiant qu’une aire située dans le lobe temporal postérieur supérieur gauche était le site de la compréhension des phrases (Wernicke, 1874/1969). Sa théorie d’une latéralisation gauche du langage, présentant des sites distincts pour la perception et la production de la parole, fut longtemps la seule à pouvoir prédire de nouveaux phénomènes ou rendre compte de nouvelles observations, tels les problèmes de lecture ou la symptomatologie du corps calleux (Geschwind, 1970).
Un siècle plus tard, le neuropsychologue américain Norman Geschwind reprend ces résultats, ainsi que ceux de Ludwig Lichtheim (1845-1928), et propose un modèle d’analyse anatomique de l’aphasie (Geschwind, 1979). Dans celui-ci, la perception d’un mot induit un traitement dans le cortex auditif, mais sa compréhension est dépendante de l’aire adjacente de Wernicke. Pour être prononcé, une certaine représentation de ce mot est transmise de l’aire de Wernicke à l’aire de Broca par l’intermédiaire du faisceau arqué. Dans l’aire de Broca, le mot évoque un programme détaillé d’articulations qui est transmis au cortex moteur puis aux muscles (Figure I.1 1). Ce modèle, qui fut très influent, a pour avantage d’apporter une contribution dynamique et intégrée des différentes régions cérébrales, avec une interaction sensori-motrice forte, aspect qui jouera sans cesse un rôle dans l’évolution des concepts en neuroscience cognitive. Cependant il est limité en de nombreux points : il ne permet pas de rendre compte des différents types d’aphasie ; il est hermétique aux apports de la linguistique ; il est sousspécifié anatomiquement (Poeppel and Hickok, 2004). On notera par exemple que l’hémisphère droit n’est pas représenté et que mis à part les points d’entrée/sortie, i.e. aires auditives et motrices primaires, seules les aires de Broca et Wernicke sont impliquées . Une autre critique, d’ordre plus fondamental, vient de l’étude de patients ayant subi une commissurotomie (i.e. split-brain, rupture du corps calleux). Chez ces patients les deux hémisphères cérébraux peuvent être interrogés et sollicités de manière indépendante. Bien que leur hémisphère droit soit incapable de production langagière, i.e. soit muet (et agraphique), il possède une capacité de compréhension orale (et écrite) modérée (Sperry, 1982). Ceci semble contradictoire avec les études montrant qu’une lésion de l’aire de Wernicke provoque une incapacité de compréhension orale. Sperry suggère donc que dans un cerveau sain les deux hémisphères travaillent ensemble, bien qu’un coté soit fonctionnellement dominant, selon la tâche, par exemple le gauche lors de la compréhension de la parole. Ainsi lorsqu’une lésion touche l’hémisphère dominant ce dernier produit un signal défectueux mais continu à contraindre les traitements de son homologue droit car l’interaction synergétique bilatérale est encore active (associée à l’intégrité du corps calleux). L’unité fonctionnelle se trouve alors affectée.
Glossaire : langage vs. parole
Le langage comprend différentes étapes de traitement qui peuvent se résumer ainsi : décoder les sons de la parole ; identifier les mots ; récupérer la structure syntaxique de la phrase (c.-àd. les relations entre les mots) ; calculer la représentation sémantique de la phrase (c.-à-d. le sens des mots et de la phrase) ; et enfin intégrer toutes ces informations pour interpréter la phrase dans sa globalité. La perception de la parole (i.e. speech perception) quant à elle correspond aux étapes précoces du traitement du langage et peuvent être détaillées comme suit : traitement du signal acoustique ; extraction des indices acoustiques pertinents ; et traitement de l’information phonétique. Ces étapes correspondent à une analyse analogique du signal, a contrario de l’étape suivante, phonologique, qui emploie des représentations discrètes et abstraites permettant l’accès au lexique ou le jugement explicite de sons de parole. Durant ma thèse je me suis tout d’abord intéressé aux processus dynamiques sous-tendant la perception de la parole. Dans la deuxième étude présentée j’intégrerai les résultats obtenus dans le cadre du traitement du langage.
La révolution de l’imagerie cérébrale
Les techniques d’imagerie cérébrale développées dès les années 80, avec les premières études publiées en 1975 pour la TEP (tomographie par émission de positons) et en 1992 pour l’IRMf (imagerie par résonnance magnétique fonctionnelle), ont permis de raffiner et d’étendre les concepts apportés par l’étude des lésions en y ajoutant une dimension plus dynamique, détaillée, et intégrée de l’architecture cérébrale impliquée lors du traitement de la parole. En intégrant les théories développées en (psycho-) linguistique dans la deuxième moitié du XXème siècle, la diversité des paradigmes a explosé tant par la variabilité des stimuli présentés que celle des tâches effectuées par le sujet. En 1993 une étude en TEP met en évidence les régions cérébrales impliquées lors de l’écoute passive de phrases (Mazoyer et al., 1993). Ces résultats mettent en exergue l’implication nouvelle de l’hémisphère droit ainsi que des régions temporales supérieures bilatérales pour la perception de la parole. D’autres études utilisant des tâches de discrimination ou d’identification de syllabes ont trouvé des activations latéralisées à gauche dans le gyrus temporal supérieur (Demonet et al., 1992) et dans le lobe frontal inférieur (Zatorre et al., 1992). De nombreux auteurs ont postulé que les activations frontales observées pouvaient être liées à la tâche demandée aux participants. Cette tâche pouvait engendrer un recrutement plus ou moins grand de la mémoire de travail (Demonet et al., 1992; Price et al., 1996) ou de la prise de décision (Binder et al., 1994). Ces études montrent aussi que certains facteurs, plutôt liés au stimulus, induisent un recrutement plus ou moins latéralisé des régions temporales. La prise en compte de ces deux paramètres (stimulus et tâche) a permis récemment de faire émerger un modèle unifié de l’anatomie fonctionnelle du traitement de la parole décrit cidessous (Hickok and Poeppel, 2007).
L’organisation corticale du traitement de la parole
Hickok & Poeppel proposent un modèle à deux voies du traitement de la parole (Figure I.1 2), à l’image du système de traitement visuel, dont le concept était déjà ébauché par Wernicke (Wernicke, 1874/1969). L’organisation du traitement de la parole étant tâchedépendant, ils proposent de distinguer la perception de la parole qui se réfère à des tâches sub-lexicales, comme par exemple la discrimination de syllabes, de la reconnaissance de la parole (compréhension auditive) qui se réfère aux traitements réalisés pour transformer un signal acoustique en une représentation lexicale.
Les premières étapes du traitement de la parole sont bilatérales : (i) une analyse spectrotemporelle est effectuée dans les cortex auditifs bilatéraux, au niveau de la partie dorsale du gyrus temporal supérieur (STG), avec de possibles différences computationnelles interhémisphériques. (ii) le traitement des représentations phonétiques et phonologiques implique la partie postérieure du sillon temporal supérieur médian (STS), et est possiblement latéralisé à gauche (Turkeltaub and Coslett, 2010). L’information est ensuite traitée dans différentes régions, en fonction de la demande cognitive.
La voie ventrale de reconnaissance de la parole, des objets acoustiques, contient plusieurs routes pour l’accès lexical, réparties bilatéralement, avec une dominance gauche possible pour la labellisation phonémique, par contraste avec des représentations non catégorielles. Il est à noter que les différents traitements lexicaux effectués en parallèle peuvent être caractérisés par des processus computationnels différents, avec cependant une possible complémentarité ou redondance. Une question importante, abordée dans cette thèse, est d’une part de savoir à quelle étape de traitement cortical ces processus parallèles et complémentaires débutent, et d’autre part de caractériser les processus présentant une asymétrie de traitement. A cet égard une analogie peut-être faite avec la redondance dans le signal acoustique des indices temporels et spectraux importants pour la compréhension, signe d’un encodage robuste (Rosen, 1992). Enfin ces régions ne traitent pas spécifiquement le signal de parole au détriment d’autres informations acoustiques. L’interface lexicale entre les informations phonologiques et sémantiques (distribuées) se situe dans la portion postérieure des lobes temporaux, tandis que la partie antérieure gauche correspond au réseau combinatoire, impliqué dans les traitements syntaxiques de haut niveau et dans la structuration sémantique.
|
Table des matières
I Introduction
1. Différences inter-hémisphériques associées au langage
1.1. De la neuropsychologie à l’imagerie fonctionnelle
i. 100 ans d’études de lésions : vers un modèle connexionniste
ii. Glossaire : langage vs. parole
iii. La révolution de l’imagerie cérébrale
1.2. L’organisation corticale du traitement de la parole
1.3. Asymétries structurelles
i. Anatomie
ii. Cytoarchitectonie
1.4. Spécificité des caractéristiques acoustiques de bas niveau
i. Principe d’incertitude acoustique : compromis spectro-temporel
ii. Validations expérimentales
2. La théorie de l’échantillonnage asymétrique (AST)
2.1. Discrétisation du signal de parole
i. Discrétisation de l’information continue
ii. Les constantes de temps du signal de parole
2.2. Les oscillations cérébrales comme support de la sélection sensorielle
i. Importance physiologique des oscillations neuronales
ii. Oscillations et rythmicité de la parole
2.3. L’échantillonnage asymétrique
3. Avancées expérimentales et théoriques sous-tendant l’AST
3.1. Indices expérimentaux
i. Sensibilité à la structure temporelle acoustique
ii. Activité oscillatoire latéralisée
3.2. Neurophysiologie de l’activité intrinsèque
i. L’état de repos comme reflet de la perception
ii. Origine commune de l’activité IRMf et LFP
iii. L’AST sous l’angle des oscillations spontanées
4. Cadre de la contribution expérimentale de cette thèse
II Organisation hiérarchique asymétrique de l’activité oscillatoire auditive
1. Description de l’étude
1.1. Enregistrements intracrâniens
1.2. Interactions oscillatoires
1.3. Hypothèses
1.4. Résumé des résultats
2. Résultats de l’étude
3. Conclusions de l’étude
3.1. Interactions inter-hémisphériques
3.2. Rôle du rythme thêta dans le traitement hémisphérique gauche
3.3. Relation de dominance entre bandes de fréquences
III Origine neurophysiologique de l’asymétrie hémisphérique du langage
1. Description de l’étude
1.1. Pattern d’asymétrie oscillatoire du réseau du langage
1.2. Théorie auditive vs. motrice de la latéralisation
1.3. Utilisation de l’EEG/IRMf combinée
1.4. Pertinence des stimuli naturels
1.5. Résumé des résultats
2. Résultats de l’étude
3. Conclusions de l’étude
3.1. Discussion générale de l’étude
3.2. Perception vs. production
3.3. Rôle des basses fréquences
IV Discussion générale
1. Complémentarité des deux études
1.1. Mise en exergue des rythmes thêta ou gamma
1.2. Modèle de l’activité oscillatoire des cortex auditifs primaires
2. Implication pour l’AST
2.1. Corrélats anatomiques de l’asymétrie fonctionnelle
2.2. Résolution des fenêtres d’échantillonnage
i. Fréquence centrale
ii. Limite neurophysiologique des fenêtres d’intégration
2.3. Implication potentielle d’autres rythmes
i. Le rythme delta
ii. Digression
3. Pertinence d’un modèle hiérarchique distribué
3.1. Interactions inter-hémisphériques
3.2. Organisation hiérarchique du traitement auditif
Conclusion
Bibliographie