L’appariement entre représentations phonétiques et phonologiques 

Télécharger le fichier pdf d’un mémoire de fin d’études

L’appariement entre représentations auditives et phonétiques

Dès lors que l’une ou plusieurs de ces images auditives ont été générées par le système auditif périphérique, le système cognitif va devoir apparier chaque portion temporelle de ces images avec des représentations linguistiques abstraites (matrices de traits, phonèmes, diphones, syllabes). Or les signaux de parole que doit traiter le système auditif humain présentent une variabilité importante (Blumstein, 1986 ; Klatt, 1986). Il est possible de définir deux types de variabilité. Nous appelons variabilité intrinsèque les formes de variabilité qui affectent le signal de parole sans être déterminées par le contexte phonétique (hauteur de la voix, vitesse d’élocution). La variabilité extrinsèque correspond aux formes de variabilité qui sont déterminées par le contexte. Les problèmes posés par ces diverses sources de variabilité pourraient éventuellement trouver leur solution dans des procédures communes (par exemple l’analyse en ondelettes, cf. infra.).

Variabilité intrinsèque

L’une des principales difficultés posées par cette étape est liée à l’importante variabilité des productions possibles pour un même message linguistique. Cette variabilité est à la fois fréquentielle et temporelle. Du fait des différences dans la taille des cavités articulatoires des locuteurs (liées à leur âge, à leur sexe, etc.), leurs fréquences de résonance diffèrent d’un individu à l’autre. Les filtres qui vont amplifier ou atténuer certaines fréquences du signal source sont donc différents. Chaque locuteur génère ainsi des signaux de parole avec une hauteur de ix (fréquence fondamentale ou F0) différente ; ce phénomène induit également une répartition variable des formants sur l’échelle des fréquences. Par ailleurs, un locuteur peut parler plus ou moins rapidement en fonction des situations et changer de vitesse d’élocution à l’intérieur d’un même énoncé. Cette variabilité dans l’organisation spectrale et temporelle des sons de parole n’entrave cependant pas la stabilité perceptive qui permet à un auditeur d’entendre des phonèmes formes stables.
L’une des méthodes qui ont été proposées afin de rendre compte de la capacité du système cognitif humain à gérer la variabilité du signal de parole consiste à effectuer une normalisation spectrale et / ou temporelle. Cette méthode repose sur le principe de l’appariement entre un signal physique de forme variable et un référent. Par des méthodes mathématiques qui consistent à transformer la représentation spectrographique du signal à la fois dans le domaine spectral et temporel, on peut apparier des signaux de parole variant sur ces deux dimensions avec une représentation normalisée. Ce type de procédure pose cependant le problème des méthodes adéquates qui permettent d’identifier le signal référent pertinent. On trouve dans le domaine des travaux sur la vision des propositions alternatives telles les cônes généralisés (‘generalized cones’, Marr, 1982 p.223) ou les géons (‘geometric ions’, Biederman, 1987). Le principe consiste à utiliser un nombre restreint de formes (un cône chez Marr, diverses formes de base nommées géons chez Biederman) pour décrire ou définir une scène visuelle. Si l’on prend l’exemple des cônes généralisés, une forme conique peut être utilisée pour reproduire intégralement une scène visuelle par la combinaison d’un nombre considérable de ces unités. En faisant varier leur taille et leur disposition respectives, on peut générer une reproduction de la scène visuelle réelle. Il reste alors à identifier en mémoire le ou les objets qui correspondent à cette combinaison de cônes. Le problème de la normalisation -donc de l’identification adéquate de l’objet sur la base duquel on effectuera cette normalisation- ne se pose pas puisque la taille des cônes contribuant à l’image n’a d’importance que relative : c’est la configuration des cônes entre eux qui permet de récupérer l’objet en mémoire. Dans le domaine du traitement de la parole, des propositions similaires tendent à voir le jour actuellement avec l’utilisation des transformations en ondelettes (‘wavelets transformation’, Graps, 1995) comme une alternative à la Transformée de Fourier qui est utilisée actuellement pour aboutir à une représentation spectrographique, mais le recours à ces procédures se limite encore aux travaux effectués en Reconnaissance Automatique de la Parole, et rien n’a été proposé jusqu’à maintenant, comme l’avaient fait Marr (1982) ou Biederman (1987) pour la vision, dans le cadre de la description d’un modèle du fonctionnement cognitif appliqué au traitement de la parole.

Variabilité extrinsèque

Les difficultés posées par l’appariement entre image(s) auditive(s) et représentations abstraites proviennent également des contraintes inhérentes à la coproduction de segments proches. En effet, si l’on admet que les représentations linguistiques auxquelles devra être apparié le signal acoustique sont des phonèmes -donc des unités segmentales discrètes-, ce signal n’est pas, du fait de ce que l’on appelle la coarticulation, constitué d’une séquence discrète de segments. Ainsi, chaque unité identifiée par un auditeur est extraite d’une portion de signal dont les caractéristiques dépendent aussi de la prononciation des segments qui l’environnent (cf. Figure 4). Ce phénomène de coarticulation est lié au mode de production de la parole qui consiste à préparer les mouvements articulatoires correspondant à un segment alors même que l’on est en train d’articuler le segment qui précède (effets d’anticipation). Les effets coarticulatoires se manifestent aussi par persévérance ; ainsi, nous générons des mouvements destinés à produire un son alors que l’on n’a pas encore terminé de produire le son précédent.
Ceci pose deux énigmes essentielles qui sont intimement liées l’une à l’autre : la première est celle de la segmentation du signal en unités dont la taille correspond à un segment phonémique.
Dans une séquence CV, ce phénomène de coarticulation induit la présence simultanée d’informations correspondant à la consonne et d’autres correspondant à la voyelle. Comment découper le signal en segments représentant chacun une unité puisque ce signal n’est pas discret ? La seconde est induite par le fait que ce caractère coarticulatoire des sons de parole génère une extrême variabilité dans la réalisation des sons en fonction de leur voisinage. Les formes acoustiques correspondant au phonème / / ne sont pas les mêmes selon qu’il est suivi d’un / / ou d’un / /. Comment, dès lors, proposer des procédures d’appariement entre image auditive et représentation linguistique puisque les manifestations acoustiques des phonèmes sont si variables ?
Outre les procédures d’appariement spectral et temporel d’un signal donné à une forme auditive référente, les études portant sur la compréhension de la parole doivent donc expliquer comment l’image auditive -une fois normalisée ou décrite à partir d’indices non-sensibles aux variations spectro-temporelles- peut être appariée à des représentations phonétiques. Pour cela, on a cherché à décrire un certain nombre de phénomènes stables dans le signal afin de pouvoir prédire, à partir d’un événement acoustique, le segment phonétique qui lui correspond. Dans cette optique, de nombreux travaux ont été effectués à partir des années cinquante dans lesquels on a tenté de mettre au jour des indices sur lesquels pourrait se fonder le système cognitif afin d’identifier avec certitude les différents phonèmes de la chaîne parlée. Ces indices constitueraient des invariants de relations acoustico-phonétiques qui permettraient de définir, avec une plus ou moins grande certitude, la relation entre forme acoustique et représentation linguistique. Les travaux réalisés dans ce domaine ont eu pour objectif de décrire des caractéristiques invariables permettant de faire le lien entre une forme acoustique et un trait distinctif (voisement, mode d’articulation par exemple). Ils ont conduit à proposer plusieurs indices pour chaque type d’opposition phonémique. Par exemple, le trait de voisement est lié au délai qui sépare l’occlusion consonantique du début de vibration des cordes vocales mais aussi aux caractéristiques de l’enveloppe spectrale de la consonne (Summerfield & Haggard, 1977).
Selon Stevens & Blumstein (1978), c’est la contribution conjuguée de la forme des transitions formantiques et du spectre à court terme de la consonne qui permet l’identification du mode d’articulation. Pour certaines valeurs de l’un des indices, il est nécessaire de disposer de l’autre indice pour identifier le mode d’articulation. Cette variabilité du signal de parole s’accompagne par ailleurs d’une redondance considérable des indices acoustiques (Stevens, Keyser, & Kawasaki, 1986). Il est donc possible, même si l’un des indices met le système en échec, d’aboutir à une identification correcte du phonème. La redondance des indices permet en effet d’appliquer des procédures probabilistes de prise de décision qui peuvent tolérer une certaine déviance par rapport à la forme phonétique idéale.

L’appariement entre représentations phonétiques et phonologiques

Indépendamment des difficultés générées par la variabilité du signal de parole en termes de distributions spectrale et temporelle des événements acoustiques pour la segmentation et l’identification phonétiques, les contraintes inhérentes aux langues posent des difficultés supplémentaires. Chaque langue est soumise à un ensemble de contraintes qui déterminent la réalisation effective des sons de parole (phénomènes d’allophonie, d’assimilation, contraintes phonotactiques portant sur les séquences de phonèmes admissibles). Supposons par exemple qu’un locuteur souhaite prononcer la phrase : « Je prends le métro à six heures pour aller chez le médecin »
Si l’on admet que les mots sont représentés dans le lexique sous une forme phonologique abstraite correspondant à ce que les phonologues appellent la représentation sous-jacente, ce message a peu de chances d’être prononcé de manière aussi canonique. Au contraire, la phonologie et la phonétique montrent que de nombreuses contraintes vont transformer la forme canonique de ce message en une ‘suite de segments phonétiques’ qui, dans le cadre d’un modèle de compréhension de la parole, ne sont pas directement appariables avec les représentations phonologiques sous-jacentes. La plupart des locuteurs, en fonction bien sûr des conditions de production (lecture vs. parole spontanée), mais aussi du style de langue (soutenue ou pas), vont,  aboutir à une forme phonétique qui différera considérablement de la représentation phonologique de départ. Cette séquence pourrait par exemple donner lieu à la suite phonétique suivante :, de positions alternatives qui fournissent des arguments convaincants5 (cf. par exemple Goldinger, 1998), que l’unité de contact avec les représentations lexicales devrait être, dans un souci d’économie de traitement, la plus abstraite possible. En effet, si l’on parvient à représenter les mots stockés dans le lexique avec un nombre minimal d’unités de codage, on réalise une économie considérable par rapport à un stockage qui se ferait sous forme acoustique, auquel cas l’ensemble des exemplaires acoustiques de chaque mot devrait être stocké dans le lexique afin de pouvoir le reconnaître. Ainsi, si l’on admet que les mots doivent être représentés dans le lexique sous la forme la plus abstraite qui soit (c’est à dire la représentation phonologique sous-jacente proposée par la phonologie), l’existence de contraintes déterminant les modifications à apporter à la forme phonologique pour aboutir à une réalisation phonétique considérablement différente constitue un obstacle supplémentaire aux processus de compréhension de la parole, non seulement pour l’appariement entre représentations phonétiques et phonémiques (phénomènes d’allophonie nécessitant l’intervention de procédures spécifiques afin d’apparier les différentes variantes phonétiques d’un même phonème, par exemple les différents / mais également pour la mise en correspondance des représentations phonémiques et phonologiques (assimilation du trait de voisement par exemple, modification de la qualité des voyelles en fonction de la structure syllabique, contraintes phonotactiques, …). Au-delà des problèmes posés au système perceptif pour l’appariement entre image auditive et représentation phonétique, les contraintes phonologiques introduisent donc des difficultés supplémentaires pour la compréhension de la parole. L’une des tâches du système de perception de la parole va donc consister, une fois le décodage acoustico-phonétique effectué, à apparier cette représentation phonétique avec une représentation phonologique adéquate afin d’être en mesure de contacter les représentations lexicales stockées en mémoire.

Des connaissances qui influencent la perception du signal ?

Comme nous venons de le voir, l’accès à une représentation linguistique du signal de parole s’avère particulièrement complexe et passe par la mise en oeuvre de nombreuses étapes fonctionnelles de traitement. Afin de rendre compte de la possibilité d’appariement entre forme auditive et représentations phonétiques ou phonologiques, de nombreux auteurs envisagent l’utilisation, à l’intérieur du système de reconnaissance de la parole, de connaissances de haut niveau qui rétroagiraient sur des niveaux de représentation moins élaborés (représentation segmentale du signal de parole notamment). Ces connaissances porteraient sur les caractéristiques qui constituent la langue et qui se développent au cours de l’acquisition : le lexique et les contraintes phonologiques.

Le recours à des connaissances lexicales

Afin de pouvoir identifier correctement les phonèmes dans le signal de parole, l’une des solutions qui ont été envisagées pour faciliter l’appariement d’une image auditive avec des représentations phonémiques ou phonologiques consiste à faire intervenir des procédures de rétroaction des niveaux lexicaux vers les niveaux de représentation prélexicaux. Ainsi, des connaissances de haut niveau faciliteraient la tâche du système d’identification phonémique en guidant les choix perceptifs dans les situations problématiques. Les partisans d’une approche interactive (notamment McClelland & Elman, 1986) se sont heurtés à un courant autonome dont les représentants (Cutler, Mehler, Norris, & Segui, 1987) affirmaient l’indépendance entre niveaux de traitement de bas niveau et représentations plus élaborées. Nous décrivons ici certaines des données expérimentales qui ont été présentées comme reflétant des preuves du recours à des rétroactions lexicales. Une rapide description des interprétations alternatives qui ont été proposées est présentée pour chacun des effets. Ceci nous conduira à mettre au jour l’un des problèmes essentiels dans l’étude du rôle de certaines caractéristiques des langues dans les processus perceptifs : la confusion entre diverses variables qu’il peut s’avérer difficile de contrôler du fait même des particularités de la langue. La conscience de cette confusion sera essentielle pour notre travail sur le rôle des contraintes phonologiques dans les processus de segmentation lexicale.

Les données expérimentales

Quatre types d’effets seront présentés ici qui ont donné lieu à une discussion sur l’existence de processus rétroagissant des représentations lexicales vers les représentations phonémiques : l’effet du statut lexical (1) sur la catégorisation de phonèmes ambigus, (2) sur les temps de détection de phonèmes, (3) sur la restauration phonémique (Warren, 1970) et (4) sur la compensation perceptive de la coarticulation (Elman & McClelland, 1988).

L’effet du statut lexical sur la catégorisation phonémique

L’un des effets interprété comme une preuve de l’interaction lexique-phonèmes est celui, mis en évidence par Ganong (1980), du statut lexical sur la catégorisation de phonèmes ambigus.
Cet auteur a présenté à des auditeurs des séquences de parole CVC constituées d’une consonne,occlusive initiale qui variait sur un continuum de voisement (temps d’attaque vocale -en anglais VOT (Voice Onset Time)- qui distingue / / par exemple). Ces phonèmes ambigus étaient présentés dans des séquences de type ‘ ;< VC’6 qui pouvaient donner lieu à un mot pour une extrémité du continuum (/ : / précédant / = > ? / donne task, ‘tâche’) et à un non-mot pour l’autre extrémité (/ / précédant / = > ? / donne le non-mot dask). Le contexte variait afin de contrebalancer la consonne qui donnait lieu à l’extrémité lexicale. Ainsi, dans la condition opposée, le phonème ambigu était présenté dans le contexte / = @ / qui donnait lieu à un mot après le phonème / / (dash, ‘tiret’) et à un non-mot après / : / (/ : = @ /). Ganong met en évidence un déplacement de la frontière catégorielle qui s’exprime par une préférence, de la part des participants, pour des réponses en accord avec une interprétation lexicale de la séquence de phonèmes dans les parties médianes du continuum. Dans le contexte / = > ? /, les auditeurs ont plutôt tendance à classer le phonème ambigu dans la catégorie / : / alors que l’attitude inverse se manifeste dans le contexte / = @ / qui donne lieu à une proportion plus élevée de réponses / 9 /. Cet effet met en évidence une tendance à percevoir un signal de parole en faveur d’une interprétation lexicale plutôt que non lexicale.
Une interprétation autonome peut cependant en être donnée. Dans le modèle Race (Cutler & Norris, 1979), les décisions phonémiques peuvent se faire à partir de deux classes d’informations elles-mêmes dérivées de deux voies de traitement : une voie prélexicale et une voie lexicale. On peut simuler des effets lexicaux par la combinaison et l’intégration de ces deux classes d’informations lors de l’étape de ‘prise de décision’. Ainsi, dans le cas de l’effet observé par Ganong (1980), la voie lexicale peut tout à fait influencer l’étape décisionnelle en 6 Classiquement, dans ce type d’expériences, le phonème ambigu est noté /?/. Nous avons choisi de ne pas suivre ce ‘standard’ afin, d’une part de ne pas causer de confusion avec le caractère / A / (occlusive glottale non-voisée) de l’International Phonetics Association (IPA) mais aussi pour permettre au lecteur de garder à l’esprit les 2 éléments extrèmes du continuum considéré. Ainsi, le phonème ambigu correspondant à un continuum acoustique qui va du phonème / B / au phonème / C / est noté / ;< /. introduisant un biais à donner une réponse phonémique conforme aux informations dérivées du traitement lexical. La tâche des sujets consistant à classifier un son dans une catégorie phonémique, la voie non-lexicale fournit une information purement acoustique sur laquelle peut se fonder le sujet pour apparier ce son avec une représentation phonétique et effectuer une catégorisation7. Parallèlement, les informations fournies par le signal permettent d’engendrer un traitement lexical. Au moment de la prise de décision, le sujet dispose de deux types d’informations pour donner sa réponse : une information acoustico-phonétique qui peut ne pas suffire à effectuer la catégorisation pour les items centraux du continuum et une information lexicale qui favorise nécessairement -d’autant plus que l’information acoustique n’est pas ‘fiable’- l’une des deux possibilités étant donné qu’une seule des deux extrémités correspond à
un mot de la langue. Dans ce modèle, c’est cette information qui va influencer la réponse du sujet et induire un effet lexical ; mais à aucun moment du traitement proprement dit, il n’y a action des niveaux de représentations lexicaux sur les niveaux de représentation phonémiques. L’interprétation des résultats obtenus avec la tâche d’identification phonémique a donné lieu à une quantité importante de travaux qui ne permettent pas de trancher entre ces deux interprétations (cf. Pitt & Samuel, 1993 pour une revue).

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction 
Appariement entre signal acoustique et représentations lexicales 
1. Du signal acoustique aux représentations linguistiques
1.1. Du signal acoustique à l’image auditive
1.2. L’appariement entre représentations auditives et phonétiques
1.2.1. Variabilité intrinsèque
1.2.2. Variabilité extrinsèque
1.3. L’appariement entre représentations phonétiques et phonologiques
2. Des connaissances qui influencent la perception du signal ?
2.1. Le recours à des connaissances lexicales
2.1.1. Les données expérimentales
2.1.1.1. L’effet du statut lexical sur la catégorisation phonémique
2.1.1.2. L’effet du statut lexical sur la détection de phonèmes
2.1.1.3. Effets lexicaux sur la restauration phonémique
2.1.1.4. Effet lexical dans la compensation de la coarticulation
2.1.2. Un modèle autonome des phénomènes d’interaction ?
2.1.2.1. Le problème des effets ‘lexicaux’ dans des non-mots
2.1.2.2. Le modèle MERGE
2.2. Le recours à des connaissances pré-lexicales
2.2.1. Les données expérimentales
2.2.1.1. La compensation perceptive de la coarticulation
2.2.1.2. Le rôle des contraintes phonotactiques dans l’identification de phonèmes ambigus
2.2.1.3. Le rôle des contraintes phonotactiques dans l’identification de phonèmes non-ambigus
Segmentation du signal de parole en mots 
1. La segmentation comme conséquence de l’accès au lexique
1.1. Cohort
1.1.1. Prédiction des frontières lexicales avant la fin acoustique du mot
1.1.2. Point d’Unicité tardif et génération d’une cohorte
1.2. Trace
1.2.1. Alignement exhaustif des activations lexicales
1.2.2. Compétitions entre candidats lexicaux
1.2.3. Réalisme des procédures implémentées dans TRACE
1.3. Shortlist
1.3.1. Représentation de l’ordre par récurrence
1.3.2. Réseaux récurrents simples et enchâssement lexical
1.3.3. Implémentation de procédures de segmentation prélexicales
2. Indices de segmentation prélexicaux
2.1. Indices segmentaux
2.1.1. En anglais
2.1.2. En français
2.2. Indices suprasegmentaux
2.2.1. Indices métriques
2.2.1.1. Accent lexical
2.2.1.2. Alternances prosodiques
2.2.2. Indices probabilistes
2.2.2.1. Les travaux sur les langues artificielles
2.2.2.2. Traitement ou mémorisation ?
2.2.3. Indices phonotactiques
2.2.3.1. Les expériences de détection de syllabe
2.2.3.2. Syllabation et détection de phonèmes
2.2.3.3. Régularités phonotactiques et word-spotting
2.2.3.4. Peut-on en déduire un rôle des régularités phonologiques dans les processus de segmentation lexicale ?
Syllabe et légalité phonotactique
1. Représentation sous-jacente et forme de surface
1.1. Représentations sous-jacentes linéaires vs. hiérarchiques
1.1.1. L’approche initiale de la phonologie générative
1.1.1.1. Représentation interne des phonèmes
1.1.1.2. Représentation de la séquence de phonèmes
1.1.2. La phonologie autosegmentale
1.1.2.1. Représentation interne des phonèmes
1.1.2.2. Représentation de la séquence de phonèmes
1.2. Processus de choix d’une forme de surface
1.2.1. Transformation d’une représentation sous-jacente
1.2.2. Sélection de la sortie en fonction des caractéristiques souhaitées
2. La syllabe
2.1. Description de la notion de syllabe
2.1.1. A quoi sert la syllabe ?
2.1.2. Qu’est-ce que la syllabe ?
2.1.2.1. Les constituants
2.1.2.2. Les courbes syllabiques
2.1.2.3. La syllabe moraïque
2.2. Déterminants de la structuration syllabique
2.2.1. Principes d’organisation indépendants des caractéristiques des phonèmes
2.2.1.1. Approche par règles
2.2.1.1.1. Principe de l’Attaque Obligatoire
2.2.1.1.2. Principe de l’Attaque Maximale
2.2.1.2. Optimalité des formes syllabiques
2.2.2. Principes reposant sur les caractéristiques des phonèmes
2.2.2.1. Echelle de sonorité
2.2.2.2. Similarité
2.2.3. Influences supplémentaires sur la syllabation
3. Procédures de syllabation et contraintes phonotactiques
3.1. La notion de légalité phonotactique
3.1.1. Suites de consonnes : groupes et agrégats
3.1.2. Groupe légal vs. groupe tautosyllabique
3.2. Qu’est-ce qu’une séquence phonotactiquement légale ?
3.2.1. Toute séquence de phonèmes attestée à l’attaque syllabique
3.2.1.1. Début de syllabe et début de mot
3.2.1.2. Présentation des données
3.2.1.3. La notion de déviance
3.2.2. Toute séquence de phonèmes fréquente
3.3. Syllabation, contraintes phonotactiques et segmentation lexicale
Analyse distributionnelle des séquences de consonnes
1. Présentation du corpus
1.1. Caractéristiques de la base de données et méthode d’analyse
1.2. Problèmes posés par le choix de ce corpus
1.2.1. Transcription des sons
1.2.2. Base de données de mots isolés
2. Probabilité d’occurrence indépendante de la position
2.1. Méthode d’analyse
2.1.1. Fréquence d’occurrence
2.1.2. Probabilités pondérées
2.1.3. Probabilités transitionnelles
2.2. Résultats
2.2.1. Moyennes
2.2.2. Distributions
2.3. Discussion
3. Probabilité d’occurrence en début de mot
3.1. Méthodes d’analyse
3.1.1. Fréquence d’occurrence
3.2. Résultats
3.2.1. Moyennes
3.2.2. Distributions
3.3. Discussion
4. Réanalyse des données comportementales
4.1. Rappel des données
4.1.1. Word-spotting
4.1.2. Détection de phonèmes
4.1.3. Interprétations
4.2. Interprétations concurrentes
4.2.1. Un phénomène de sélection lexicale sérielle ?
4.2.2. Segmentation probabiliste
4.2.3. Fréquence et compétitions lexicales
Contraintes phonologiques et sélection lexicale 
1. Expérience 1 : Contraintes phonologiques et sélection lexicale
1.1. Méthode
1.1.1. Sujets
1.1.2. Matériel
1.1.3. Procédure
1.2. Résultats
1.2.1. Analyse globale
1.2.1.1. Temps de réaction
1.2.1.2. Taux d’erreurs
1.2.1.3. Discussion
1.2.2. Analyses complémentaires
1.2.2.1. Contexte phonologique et fréquence d’usage
1.2.2.1.1. Résultats
1.2.2.1.2. Discussion
1.2.2.2. Contexte phonologique et nombre de compétiteurs
1.2.2.2.1. Méthode
1.2.2.2.2. Résultats
1.3. Discussion
2. Expérience 2 : Contrôle en décision lexicale
2.1. Méthode
2.1.1. Sujets
2.1.2. Matériel
2.1.3. Procédure
2.2. Résultats
2.2.1. Temps de réaction
2.2.2. Taux d’erreurs
2.3. Discussion
3. Discussion générale
Contraintes phonologiques, régularités probabilistes, compétitions lexicales 
1. Expérience 3 : Groupes de consonnes de même fréquence
1.1. Méthode
1.1.1. Sujets
1.1.2. Matériel
1.1.3. Procédure
1.2. Résultats
1.2.1. Temps de réaction
1.2.2. Taux d’erreurs
1.3. Discussion
2. Expérience 4 : Estimation du rôle de la fréquence
2.1. Méthode
2.1.1. Sujets
2.1.2. Matériel
2.1.3. Procédure
2.2. Résultats et discussion
2.2.1. Temps de réaction
2.2.2. Taux d’erreurs
2.2.3. Discussion
2.3. Analyses complémentaires
2.4. Discussion générale
3. Expérience 5 : Augmentation du nombre d’items de remplissage
3.1. Méthode
3.1.1. Sujets
3.1.2. Matériel
3.1.3. Procédure
3.2. Résultats
3.2.1. Temps de réaction
3.2.2. Taux d’erreur
3.3. Discussion
4. Expérience 6 : Structure de listes semi-bloquée par condition
4.1. Méthode
4.1.1. Sujets
4.1.2. Matériel
4.1.3. Procédure
4.2. Résultats et discussion
4.2.1. Temps de réaction
4.2.2. Taux d’erreur
4.2.3. Analyses complémentaires
4.2.3.1. Contexte phonologique et fréquence d’usage
4.2.3.2. Contexte phonologique et nombre de compétiteurs
4.3. Discussion générale
Niveau d’implémentation, Mode d’intégration 
1. Résumé des résultats obtenus
1.1. Effets observés
1.1.1. Contraintes phonologiques et sélection lexicale
1.1.2. Régularités phonologiques, fréquence et compétitions lexicales
1.2. Discussion générale
1.2.1. Processus de traitement précoces ou stratégies ?
1.2.2. Lien entre régularités phonologiques et propriétés lexicales
1.2.3. Mode d’intégration des processus de segmentation
2. Niveau d’implémentation
2.1. Traitement de l’information ou stratégies post-perceptives ?
2.1.1. Conditions d’émergence de l’effet phonologique
2.1.2. Caractère écologique des processus impliqués
2.1.3. Expérience 7 : Groupes de consonnes de même fréquence
2.1.3.1. Méthode
2.1.3.1.1. Sujets
2.1.3.1.2. Matériel
2.1.3.1.3. Procédure
2.1.3.2. Résultats
2.1.3.2.1. Temps de réaction
2.1.3.2.2. Taux d’erreur
2.1.3.3. Discussion
2.1.4. Expérience 8 : Estimation du rôle de la fréquence
2.1.4.1. Méthode
2.1.4.1.1. Sujets
2.1.4.1.2. Matériel
2.1.4.1.3. Procédure
2.1.4.2. Résultats
2.1.4.2.1. Temps de réaction
2.1.4.2.2. Taux d’erreur
2.1.5. Discussion générale
2.2. Interaction entre variables prélexicales et lexicales
2.2.1. Nombre de voisins lexicaux et fréquence des diphones
2.2.2. Intégration des informations
3. Mode d’intégration
3.1. Approches théoriques
3.1.1. Influence directe des processus prélexicaux sur les niveaux d’activation lexicale
3.1.2. Une proposition différente : focalisation attentionnelle sur des groupements perceptifs dérivés des ruptures dans le signal
3.1.2.1. Intégration des informations perceptives
3.1.2.1.1. Le rôle des alternances prosodiques en français
3.1.2.1.2. L’organisation hiérarchique des pièces musicales
3.1.2.1.3. Perspectives dérivées de la théorie de la Gestalt
3.1.2.2. Segmentation hiérarchique et niveaux d’activation lexicale
3.1.3. Une expérience qui permettrait de tester cette hypothèse
Conclusion
Références bibliographiques 
Index des illustrations
Index des tableaux
Annexes I
Annexe 1: Liste des groupes de consonnes (et consonnes individuelles) recherchés dans l’analyse distributionnelle présentée au Chapitre 4.
Transcription IPA (International Phonetics Association) accompagnée de la transcription propre à BRULEX (Content et al., 1990). I
Annexe 2 : Script en langage Awk pour l’analyse distributionnelle des groupes de consonnes dans la base de données lexicale informatisée BRULEX (Content et al., 1990). III
Annexe 4 : Le même script modifié afin de restreindre l’analyse distributionnelle aux mots pour lesquels une information sur la fréquence d’usage est disponible dans BRULEX (Content et al., 1990). IV
Annexe 4 : Exemple de script permettant de compter le nombre d’occurrences des séquences Consonne-Voyelle dans BRULEX (Content et al., 1990). IV
Annexe 7 : Résultats de l’analyse distributionnelle réalisée sans prendre en compte la position dans les mots. Les données sont triées par catégorie phonétique de groupe puis par probabilité descendante d’occurrence. V
Annexe 9 : Seuils de probabilité du test de Scheffé appliqué sur les données de fréquence d’occurrence et de probabilité transitionnelles obtenues sans prendre en compte la position dans les mots. XII
Annexe 11 : Script permettant de compter le nombre d’occurrences de chaque groupe de consonnes en début de mot. XIII
Annexe 13 : Le même script modifié afin de restreindre l’analyse distributionnelle aux mots pour lesquels une information sur la fréquence d’usage est disponible dans BRULEX (Content et al., 1990).

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *