Vers la détection automatique du langage figuratif 

Télécharger le fichier pdf d’un mémoire de fin d’études

Opinion et contexte discursif au delà de la phrase

Le discours est un élément essentiel à la bonne compréhension d’un texte d’opinion car il permet l’analyse des opinions au-delà de la phrase en exploitant les relations rhétoriques qui relient les phrases entres elles (comme le contraste, le conditionnel ou l’élaboration). Considérons par exemple le commentaire de série télévisée dans (1.7). Sur les quatre opi-nions de ce texte, les trois premières sont a priori très négatives. Néanmoins, la dernière phrase, en relation de contraste avec les trois précédentes, nous permet de déterminer la véritable polarité du document, qui est positive. Une simple moyenne des opinions aurait ici conduit à un contre-sens, et seule la prise en compte de la structure discursive permet de désambiguïser la polarité globale du document.
(1.7) Les personnages sont antipathiques au possible. Le scénario est complètement absurde. Le décor est visiblement en carton-pâte. Mais c’est tous ces éléments qui font le charme improbable de cette série.
De même, le conditionnel pour altérer la positivité ou la négativité d’un segment sub-jectif. Par exemple, dans l’extrait Si vous n’avez rien à faire de mieux, allez voir le film, l’opinion négative sera classée en positive par la plupart des systèmes actuels.
Chaque relation de discours à un effet spécifique sur l’opinion. Par exemple, les rela-tions de contraste relient le plus souvent des phrases toutes deux subjectives et de polarités opposées. De même, la relation d’élaboration qui relie deux phrases où la seconde vient pré-ciser ou ajouter de l’information introduite dans la première, préserve en général la polarité (annoncer Le film est excellent. Les acteurs sont mauvais n’est pas cohérent discursivement parlant). Le lecteur pourra se référer aux travaux de Benamara et al. (2016) pour une étude statistique sur l’effet de ces relations.

Présence d’expressions figuratives

Parmi toutes les subtilités de langage décrites dans cette section, notre travail porte sur la détection du langage figuratif, et plus particulièrement l’ironie et le sarcasme. La présence de l’un de ces deux phénomènes, dans les tweets par exemple, peut engendrer une mauvaise prédiction de l’opinion globale. Par exemple, le tweet (1.8) peut être classé par un système d’analyse d’opinion comme étant un tweet contenant une opinion positive vu la présence des segments « De mieux en mieux » et « on avance ». Cependant, on voit bien que ce tweet critique la politique du président français François Hollande vis-à-vis du chômage.
De même, le tweet (1.9) peut être classé comme étant positif en se référant aux termes « J’adore » et « c’est top » et à l’émoticône positive « 🙂 ». alors qu’il critique en fait les conditions de travail ce qui représente une situation négative. (1.9) J’adore le taff , manger en 5 minutes et travailler jusqu’à 20h c’est top 🙂 #ironie.
Dans les deux exemples de tweets ci-dessus (1.8 et 1.9), on remarque que le recours au hashtag #ironie ainsi qu’aux connaissances culturelles permet aux lecteurs de comprendre que le tweet est ironique.
Nous détaillons dans la section suivante les spécificités du langage figuratif ainsi que ses différentes formes, en nous focalisant sur l’ironie, le sarcasme, la satire et l’humour, en raison de leur emploi fréquent dans les messages postés dans les réseaux sociaux.

Qu’est-ce que le langage figuratif ?

Contrairement au langage littéral, le langage figuratif détourne le sens propre pour lui confé-rer un sens dit figuré ou imagé. Le langage figuratif se réfère à une façon d’utiliser la des-cription pour créer une image spéciale et faire ressortir les émotions. Il peut aussi servir d’outil humoristique. Il consiste souvent à faire des comparaisons, en répétant les sons, en exagérant ou en créant un appel aux sens 2.
L’analyse du langage figuratif est un des sujets difficiles auquel le TAL doit faire face. Contrairement au langage littéral, le langage figuratif profite des dispositifs linguistiques, tels que l’ironie, le sarcasme, la satire, l’humour, etc. afin de communiquer des significations plus complexes qui représentent un véritable défi, non seulement pour les ordinateurs, mais aussi pour l’être humain.
Dans ce travail, nous nous focalisons sur plusieurs types de langage figuratif à savoir l’ironie et le sarcasme auxquels nous associons la satire et l’humour qui sont considérés proches de l’ironie. Plusieurs définitions pour ces différents types de langage figuratif ont été avancées. Nous citons, dans ce qui suit, les définitions les plus significatives proposées par les philosophes et les linguistes.

Détection automatique de l’ironie, du sarcasme et de la satire

En parallèle des travaux qui ont proposé des schémas d’annotation pour le langage figuratif, dans les années 2000 un deuxième volet de recherche qui vise la détection automatique du langage figuratif a vu le jour. Ce sujet est devenu un sujet d’actualité en TAL en raison du progrès des travaux relatifs à l’analyse des sentiments ainsi que la forte présence du langage figuratif dans les textes publiés sur le Web et les réseaux sociaux.
Globalement, les travaux sur la détection automatique du langage figuratif s’appuient sur trois approches : (1) approches surfaciques et sémantiques, (2) approches pragmatiques qui exploitent le contexte interne d’un énoncé et (3) approches pragmatiques qui exploitent un contexte supplémentaire externe à l’énoncé. La première approche (surtout celle qui se base sur les indices surfaciques) a souvent été considérée comme « baseline » dans la plupart des travaux utilisant la deuxième ou la troisième approche. Ces approches ont été exploitées dans les travaux traitant l’ironie, le sarcasme et la métaphore, contrairement aux travaux qui ont étudié la comparaison et l’humour.
Nous détaillons dans cette section les différents travaux de l’état de l’art sur la détection automatique du langage figuratif. Nous commençons par présenter les travaux traitant l’iro-nie, le sarcasme et la satire (cf. section 4.5). Nous poursuivons par ceux traitant la détection de la métaphore (cf. section 2.4), la comparaison (cf. section 2.5) et enfin l’humour (cf. sec-tion 2.6). Pour chaque type de langage figuratif, nous présentons les approches proposées ainsi que les corpus exploités.

Approches pragmatiques exploitant le contexte interne de l’énoncé

Deux principales méthodes ont été proposées : celles qui utilisent des protocoles psycholin-guistiques et celles qui utilisent des techniques d’apprentissage. Les premières, présentées en début de cette section, permettent de tester certaines hypothèses linguistiques sur l’ironie en les confrontant aux jugements d’annotateurs humains (via par exemple des plateformes de type Mechanical Turk). L’objectif est de présenter aux annotateurs un ensemble de textes ou expressions, et ces derniers doivent juger de leurs caractères ironiques ou non ironiques selon un ensemble de traits ou indices linguistiques. Les secondes, présentées plus loin dans cette section, se basent quant à elles sur de l’apprentissage supervisé ou semi-supervisé.

Approches psycholinguistiques : travaux fondateurs d’Utsumi et de Kreuz et al

L’une des premières tentatives pour traiter automatiquement l’ironie a été décrite par Ut-sumi (1996). Cependant ce modèle était destiné à traiter un type particulier d’ironie qui se manifeste dans les interactions orateur-auditeur. Quelques années plus tard, Utsumi (2004) a défini l’ironie comme étant un phénomène pragmatique dont le traitement implique une interaction complexe entre le style linguistique et l’information contextuelle. En partant de cette définition, il a exploité une méthode psycholinguistique dans le but de détecter l’ironie, le sarcasme et l’humour. Dans ce cadre, une étude empirique a été élaborée afin d’examiner la capacité des êtres humains à détecter des énoncés ironiques, sarcastiques et humoristiques en se basant sur le style et le contexte d’un énoncé donné. De plus, les annotateurs ont été invités à préciser la polarité de chaque énoncé étudié.
Il est à noter que cette étude expérimentale vise en grande partie à valider la théorie de l’affichage implicite proposée par Utsumi (2000). Cette dernière comporte trois volets :
1. L’ironie doit avoir un environnement ironique, un cadre approprié de la situation dans le contexte du discours. Cet environnement nécessite : (a) une attente de l’orateur, (b) une incongruité entre les attentes et la réalité, et (c) une attitude négative de l’ora-teur vers l’incongruité. Par conséquent, un énoncé doit être interprété comme étant ironique dans le cas où la situation du discours a été identifiée comme étant un envi-ronnement ironique.
2. L’ironie est un énoncé qui affiche implicitement un environnement ironique. Ceci est assuré par la présence d’un énoncé qui : (d) fait allusion à l’attente de l’orateur, (e) comprend une insincérité pragmatique par la violation de l’un des principes pragma-tiques, et (f) exprime indirectement l’attitude négative de l’orateur en étant accompa-gné par des indices ironiques.
3. L’ironie est une catégorie basée sur un prototype caractérisé par la notion de l’affi-chage implicite. Le prototype de l’ironie est un modèle abstrait qui répond aux trois conditions de l’affichage implicite. Le degré d’ironie peut être évalué par la similitude entre le prototype et un énoncé donné par rapport aux trois conditions (opposition, question rhétorique, circonlocutions).
Par conséquent, la théorie de l’affichage implicite repose sur trois hypothèses à savoir (cf. figure 2.2) :
1. Le degré d’ironie est influencé par le choix linguistique, pas par le cadre contextuel. Le degré de l’ironie est élevé dans le cas où les propriétés de l’affichage implicite sont satisfaites.
2. Le degré de sarcasme d’un énoncé ironique est influencé seulement par le style lin-guistique. Le degré de sarcasme est élevé dans le cas où les propriétés de l’affichage implicite sont satisfaites.
3. Le degré de l’humour d’un énoncé ironique est influencé à la fois par le style lin-guistique et le contexte. Le degré de l’humour est élevé dans le cas où un contexte de discours est incongru avec l’environnement ironique ou l’énoncé est différent du prototype de l’ironie.

Détection automatique de la métaphore

Bien que la plupart des travaux sur la détection automatique du langage figuratif se soient focalisés sur l’ironie et le sarcasme, d’autres travaux ont étudié la métaphore, la comparaison et l’humour mais leur nombre reste limité. De même que l’ironie, les travaux étudiant la métaphore se sont focalisés sur les traits surfaciques et sémantiques (Kintsch, 2000; Bestgen & Cabiaux, 2002) et sur le contexte interne de l’énoncé (Gedigian et al., 2006; Oliveira & Ploux, 2009; Macwhinney & Fromm, 2014; Tsvetkov et al., 2014; Huang, 2014). En revanche, comme pour l’ironie, l’exploitation du contexte externe à l’énoncé a vu le jour en 2015 avec les travaux de (Jang et al., 2015b; Do Dinh & Gurevych, 2016; Su et al., 2016; Goode et al., 2017).

Approches surfaciques et sémantiques

Selon les définitions présentées dans le chapitre 1, la métaphore peut être considérée comme une comparaison. Les études menées sur la détection automatique de ce phénomène prouvent que la détection automatique n’est pas simple et qu’il y a beaucoup de facteurs qui doivent être pris en considération.
Dans les année 2000, l’une des premières tentatives de proposition d’un modèle pour le traitement automatique de la métaphore a été décrite par Kintsch (2000). Kintsch (2000) a précisé dans ces études que la compréhension de la métaphore implique une interaction entre le sens du sujet et les termes véhiculant la métaphore. En partant de cette hypothèse, il a proposé un modèle qui s’appuie sur la conception interactive de l’interprétation des métaphores. Par exemple dans « Mon avocat est un requin », le modèle proposé consiste à identifier « avocat » comme étant le topique et « requin » comme étant le véhicule et dans ce cas il faut sélectionner les traits relatifs à un requin (par exemple : sanguinaire ou vicieux) qui peuvent être attribuer à un avocat.
Afin d’implémenter ce modèle, Kintsch (2000) a commencé par l’identification des traits sémantiques qui participent au sens de la métaphore et a proposé un algorithme capable d’effectuer la sélection en suivant les étapes suivantes :
construire un espace sémantique de grandes dimensions à partir de l’analyse statis-tique des co-occurrences dans un corpus de textes en exploitant l’analyse sémantique latente représenter le sens de chaque mot par un vecteur.
mesurer la similarité entre les mots en calculant le cosinus entre les vecteurs repré-sentatifs de ces mots (la valeur du cosinus tend vers 1 en présence d’une similitude entre deux mots).
Cet algorithme employé pour déterminer le sens d’une prédication vise à sélectionner parmi les « traits » du prédicat ceux qui sont proches de l’argument en recherchant parmi les n plus proches voisins du prédicat et les k plus proches voisins de l’argument. Selon ce modèle, le seul facteur qui change lors de l’analyse d’un énoncé métaphorique au lieu d’un énoncé littéral est le paramètre n. Selon Kintsch (2000), pour un énoncé littéral, les 20 plus proches voisins sont suffisant, alors que pour un énoncé métaphorique, il faut aller jusqu’à 200 voire 500.
L’approche proposée par Kintsch (2000) a été critiquée par Bestgen et Cabiaux (2002) qui trouvent que les arguments avancés dans cette approche sont limités car l’approche ne couvre que quelques exemples de métaphores. Bestgen et Cabiaux (2002) proposent donc un autre modèle utilisant l’analyse sémantique latente qui peut être appliqué à des métaphores littéraires de différents types afin de vérifier son efficacité sur les expressions jugées par des lecteurs comme très métaphoriques ou peu métaphoriques et de définir un indice de l’intensité figurative. Pour cela, ils ont collecté un corpus de vingt phrases contenant des expressions métaphoriques qui ont été sélectionnées dans neuf contes de Maupassant. Dix phrases exprimaient une métaphore vive et dix phrases exprimaient une métaphore morte. Les métaphores mortes (la voix s’envole sans écho) sont les métaphores employant des mots dans un sens que le dictionnaire Petit Robert qualifie de figuratif alors que le sens des mots employés dans les métaphores considérées comme vives (des fusées de gaieté) n’était pas mentionné dans ce même dictionnaire. Ils concluent que le modèle de Kintsch (2000) permet d’approximer le sens de métaphores littéraires de différents types et qu’il est possible d’en dériver un indice qui distingue les énoncés métaphoriques des énoncés littéraux. Cette étude est encore loin de la proposition d’une procédure automatique pour l’identi-fication et l’interprétation de métaphores étant donnés le type du modèle proposé et la taille du corpus d’étude.

Approches pragmatiques exploitant le contexte interne de l’énoncé

En 2006, Gedigian et al. (2006) ont proposé une approche pour la détection automatique de la métaphore en exploitant le contexte interne de l’énoncé. A cet effet, ils ont collecté un corpus d’articles de presse publiés dans le Wall Street Journal (WSJ). Les cibles verbales associées à trois sujets – le mouvement spatial, la manipulation et la santé – ont été anno-tées manuellement. Ont également été annotés : les cibles métaphoriques, le sens littéral des cibles et les cibles pour lesquelles les annotateurs n’arrivent pas à décider. Cette phase d’annotation a montré que plus que 90% des cibles ont été utilisées métaphoriquement. Les résultats du système proposé ont donné une exactitude de 95,12%.
Oliveira et Ploux (2009) ont proposé une méthode pour la détection automatique de la métaphore dans un corpus parallèle ou comparable de textes français et portugais. Le corpus d’étude est divisé en trois sous-corpus. Le premier sous-corpus littéraire est constitué d’environ 200 romans du XIXème siècle français ou portugais et leur traduction dans l’autre langue. Le deuxième sous-corpus journalistique est composé d’articles publiés entre 1997 et 2001. Le troisième sous-corpus regroupe les traités européens Les auteurs ont exploité le modèle ACOM (Automatic Contexonym Organizing Model) proposé par Hyungsuk et al. (2003) pour le calcul de la distance entre les contextes d’emploi les plus génériques des termes relatifs à une expression (métaphorique ou non). Selon les auteurs, les résultats de ce modèle seront exploités ultérieurement comme étant un critère de détection automatique de la métaphore.
Macwhinney et Fromm (2014) ont exploité un corpus multilingue (anglais, farsi, russe et espagnol) nommé TenTen qui contient environ 10 billions de mots par langue, déjà lem-matisés et étiquetés (catégories grammaticales et relations de dépendance entre les mots du domaine source et cible). Macwhinney et Fromm (2014) se sont focalisés sur le domaine de l’inégalité économique dans le but d’avoir un système qui permet la détection automatique du domaine source et cible. Les auteurs ont utilisé l’outil SketchEngine afin de construire des collections d’exemples métaphoriques pour chaque langue. L’évaluation a été effectuée pour l’anglais uniquement et le système proposé « WordSketch » a obtenu des valeurs de pré-cision de 0,98 et de rappel de 0,86, surpassant les résultats obtenus avec les méthodes CSF (Tsvetkov et al., 2014), TRIPS (Wilks, 1978), VerbNet (Baker et al., 2003) et l’ontologie construite dans le cadre du projet Scone11.
Dans le même cadre du traitement de la métaphore dans un corpus multilingue, Tsvetkov et al. (2014) ont exploité un nouveau corpus pour les même langues que Macwhinney et Fromm (2014) afin de proposer une approche pour la détection automatique de la métaphore qui se manifeste par les deux structures syntaxiques suivantes : sujet-verbe-objet (SVO) et adjectif-nom (AN). L’approche proposée repose sur trois catégories de traits :
1. Abstraction et imagibilité : la plupart des choses abstraites sont difficiles à visualiser. Ces traits se sont révélés être utiles dans la détection des métaphores.
2. Supersenses : ce sont des catégories sémantiques grossières venant deWordNet (15 classes pour les verbes et 26 classes pour les noms).
3. Vecteurs représentant les mots : ils représentent les mots sous forme de vecteur en utilisant des algorithmes non supervisé.
L’exploitation de cette approche sur le corpus anglais a donné une exactitude pour la détection de la métaphore avec SVO de 82% et avec AN de 86%.
Huang (2014) a traité un type particulier de métaphore dans les réseaux sociaux à savoir la métaphore non-conventionnalisée (non stylisée). Il a collecté un corpus de messages de soutien de malades du cancer du sein (et leurss profils utilisateurs publics) publiés sur le site web Breastcancer.org. Ce corpus a été utilisé afin d’implémenter un modèle qui utilise l’outil JGibbLDA 12. Les performances de ce modèle ne sont pas connues.
Jang et al. (2015a) ont réutilisé le corpus collecté par (Huang, 2014) dans le but de détec-ter la métaphore en exploitant le contexte global du discours. Ils ont proposé une approche à base de traits contextuels globaux (catégorie sémantique, distribution des topiques, chaines lexicales, présence de mots de contexte) et locaux (catégorie sémantique, proximité séman-tique, abstraction lexicale, relations de dépendance). Pour la classification, ils ont utilisé la régression logistique. Les résultats ont montré que les traits contextuels locaux sont plus performants que les traits contextuels globaux avec une exactitude de 86,3%.

Approches pragmatiques exploitant le contexte externe de l’énoncé

Jang et al. (2015b) ont réutilisé le même corpus utilisé dans (Jang et al., 2015a) et (Huang, 2014) afin d’étudier l’influence des facteurs situationnels (les évènements sur le cancer : diagnostic, chimiothérapie, etc.) sur la détection de la métaphore. Ils ont appliqué l’approche proposée par (Wen et al., 2013) afin d’extraire les dates des évènements relatifs au cancer pour chacun des utilisateurs à partir de leurs historiques des messages publiés. Ils ont ainsi défini une liste de termes qui ont été utilisés soit métaphoriquement soit littéralement dans le corpus d’étude. Pour la tâche de classification, un classifieur SVM avec les traits suivants a été utilisé : (1) un trait binaire qui indique si un message a été publié pendant la période critique de chaque évènement, (2) un trait qui indique le nombre de mois qui séparent la date d’un message et la date relative à l’évènement sujet du message et (3) un trait binaire qui indique si un message appartient ou pas à la période critique de l’un des évènements associés à une métaphore donnée. La meilleure exactitude (83,36%) a été obtenue en combinant les traits (1) et (2) avec les unigrammes.
Do Dinh and Gurevych (2016) ont proposé une approche pour la détection de la méta-phore en exploitant des réseaux de neurones et des représentations vectorielles de mots. A cet effet, ils ont exploité le perceptron multicouche (MLP) de type feedforward. Ils ont traité la problématique de la détection de la métaphore comme étant un problème d’étiquetage. Par conséquent, ils ont repris et étendu le modèle de la reconnaissance des entités nommées qui a été construit en utilisant la bibliothèque Python deep learning library Theano élaboré par Bastien et al. (2012) dans le cadre du projet Theano. Pour l’apprentissage du réseau, ils ont exploité l’algorithme Stochastic gradient descent (SGD) avec la vraisemblance logarith-mique (log-likelihood). Les expériences ont été réalisées en utilisant des mots pré-entraînés
à 300 dimensions créés avec word2vec 13 sur l’ensemble de données de Google News. Les corpus d’apprentissage et de test ont été sélectionnés à partir du corpus VU Amsterdam Me-taphor Corpus (VUAMC) 14 dans lequel chaque mot est annoté avec le sens littéral et le sens métaphorique. Ils ont obtenu une f-mesure de 56,18%.
Su et al. (2016) ont proposé une approche pour la détection automatique des références métaphoriques nominales et pour l’interprétation des métaphores en exploitant la connexité sémantique. Ils s’appuient sur le fait que la métaphore nominale se compose d’un domaine source et un domaine cible et que ces deux domaines sont moins liés sémantiquement dans le cas métaphorique que dans le cas littéral. Une étape de localisation des concepts ainsi que de calcul de la connexité sémantique entre les concepts est nécessaire pour la détection et l’interprétation de la métaphore. Chaque mot/concept est représenté par un vecteur et la connexité sémantique est calculée en comparant les vecteurs relatifs aux concepts avec la va-leur de similarité cosinus. Après avoir comparé la connexité sémantique des deux concepts, le système interroge WordNet afin de vérifier l’existence ou pas d’une relation d’hyponymie ou hyperonymie entre les deux concepts. Si une telle relation existe alors le système consi-dère que l’utilisation de ces deux concepts dans la même phrase a un sens littéral et donc est non métaphorique. L’approche proposée a été testée sur deux corpus différents, le pre-mier est un corpus en chinois nommé Reader Corpus15 alors que le second est un corpus en anglais collecté à partir de BNC Corpus. Les meilleures résultats obtenus pour la détection automatique de la métaphore en termes d’exactitude sont de 0,850 pour le chinois et 0,852 pour l’anglais.
Le deuxième défi évoqué par (Su et al., 2016) est l’automatisation de l’interprétation de la métaphore. En partant de l’hypothèse suivante : l’interprétation de la métaphore repose sur la traduction abstraite d’une expression (paraphrase), (Su et al., 2016) supposent que les domaines source et cible d’une métaphore proviennent de deux domaines différents mais qui contiennent des similitudes. Autrement dit, une interprétation métaphorique est une coopé-ration entre les domaines source et cible de trois manières : (1) la source et la cible partagent des propriétés communes ; (2) les propriétés de la source et de la cible présentent certaines similitudes ; (3) la cible correspond à une des propriétés du domaine source. L’ensemble des propriétés du domaine source ont été extraites à partir de Property Database16 et Sardo-nicus17. Le corpus de test comportent 100 usages métaphoriques en chinois et 100 usages métaphoriques en anglais collectés à partir du web, de journaux, blogs, et livres. L’évalua-tion de l’interprétation a été effectuée par cinq annotateurs humains en attribuant une valeur de 1 (fortement non acceptable) à 5 (fortement acceptable). Etant donné que l’accord inter-annotateur est de kappa = 0, 39, toutes les évaluations ayant une valeur d’acceptabilité au dessous de 3 ont été considérées comme fausses et éliminées. Ceci a permis d’avoir une valeur d’exactitude égale à 87% pour le chinois et de 85% pour l’anglais.
Les travaux actuels ne se limitent pas à la détection de la métaphore uniquement mais à l’exploitation de la détection de la métaphore pour la réalisation de tâches plus complexes comme la détection des événements par exemple. Ceci a fait l’objet des travaux de (Goode et al., 2017) qui ont étudié le comportement des blogs ainsi que des métaphores afin de géné-rer des signaux pour la détection des événements. Ils ont ainsi exploité un corpus de 589 089 documents collectés à partir des blogs politiques d’Amérique Latine. Les métaphores pré-sentes dans le corpus ont été identifiées à l’aide du système de détection de métaphores développé dans le cadre du projet IARPA18. En revanche, la détection des événements a été effectuée en exploitant trois traits à savoir : (1) le nombre de mots ; (2) la fréquence de publi-cation et (3) la fréquence de l’utilisation d’une métaphore politique donnée. Par conséquent, les blogs ayant un comportement de regroupement élevé sont plus susceptibles de coïncider avec des événements d’intérêt que ceux ayant un taux de publication constant. Autrement dit, le taux de publication élevé dans un blog à une date précise peut être une indice de la présence d’un événement important.

Détection automatique de la comparaison

Proche de la métaphore, Mpouli et Ganascia (2015) ont étudié un autre type de langage figuratif qui se manifeste par les comparaisons. La différence entre une métaphore et une comparaison est le fait que la comparaison utilise explicitement des mots qui expriment une comparaison (voir chapitre 1). Mpouli and Ganascia (2015) ont ainsi proposé un al-gorithme qui utilise un analyseur syntaxique de surface (chunker) et des règles manuelles afin d’extraire et d’analyser les pseudo-comparaisons présentes dans un texte. La reconnais-sance des comparaisons figuratives dans un texte a été effectuée en suivant trois étapes à savoir : (1) l’extraction des structures comparatives et pseudo-comparatives contenues dans un texte, (2) l’identification des constituants de ces structures, et (3) la désambiguïsation de ces structures. Deux types de comparaisons figuratives ont été étudiés : (type I) les compa-raisons qui sont introduites par des comparatifs (comme, tel, ainsi que, de même que, …) et (type II) les comparaisons qui reposent sur des adjectifs (semblable à, pareil à, similaire, …), des verbes (ressembler à, sembler, faire l’effet de, faire penser à, …), des suffixes ou des locutions prépositionnelles (à la manière de, à l’image de, …). Seules les structures de la forme « marqueur + syntagme nominal » ou « marqueur, … , syntagme nominal » dans lesquelles le comparant n’est pas un sujet, sont extraites. Afin de tester l’algorithme pro-posé, un corpus de poèmes en prose a été exploité. Ce corpus a été annoté manuellement. L’algorithme proposé a permis d’obtenir des résultats meilleurs par rapport à ceux obtenus par Berkeley Parser au niveau de la détection des verbes et des comparants (respective-ment P récision = 52, 8% et P récision = 96, 7%) mais des résultats moins bons pour la détection des comparés et des adjectifs.

Détection automatique de l’humour

Selon la définition du dictionnaire Larousse, l’humour est : « une forme d’esprit railleuse qui s’attache à souligner le caractère comique, ridicule, absurde ou insolite de certains aspects de la réalité ». La détection de l’humour a fait l’objet de nombreux travaux que nous présentons ici (Purandare & Litman, 2006; Mihalcea & Strapparava, 2006; Sjöbergh & Araki, 2007; Taylor, 2009; Raz, 2012; Radev et al., 2015; Yang et al., 2015; Bertero et al., 2016; Bertero & Fung, 2016). Purandare et Litman (2006) ont analysé les conversations de la série « FRIENDS »19, en examinant les caractéristiques acoustiques, prosodiques et linguistiques, et leur utilité dans la reconnaissance automatique de l’humour. Ils ont exploité un schéma d’annotation simple qui permet d’annoter automatiquement les passages suivis pas des rires comme étant humoristiques (43,8% des passages sont humoristiques). Ils ont défini un ensemble de traits acoustiques et prosodiques (pitch, énergie, temporel) et d’autres traits (lexicaux, nombre de mots, intervenant). L’automatisation de la classification des données a été effectuée en utilisant un apprentissage supervisé un arbre de décision. En exploitant l’ensemble des traits, la valeur d’exactitude obtenue est de 64%.
Bertero et al. (2016) ont présenté une comparaison entre différents méthodes d’appren-tissage supervisé pour la détection de l’humour dans un corpus humoristique composé des enregistrements audio de la série « The Big Bang Theory »20. Deux ensembles de traits ont été définis : des traits acoustiques et des traits linguistiques (lexique, syntaxe, structure, sentiment, antonymes, intervenant). Ces traits ont été exploités à travers trois classifieurs : Conditional Random Field (CFR), Recurrent Neural Network (RNN) et Convolutional Neu-ral Network (CNN). Les meilleures résultats ont été obtenus par le classifieur CNN avec une f-mesure de 68,5% et une exactitude de 73,8%.
Mihalcea et Strapparava (2006) se sont inspirés des caractéristiques de l’humour étudié par les linguistes. Un corpus de 16 000 phrases courtes humoristiques a été collecté sur le Web ainsi qu’un corpus non humoristique. Ils ont obtenu une exactitude de 96,95% en utili-sant un classifieur Naïve Bayes avec des traits stylistiques propres à l’humour (allitération, antonymie, argot) et des traits basés sur le contenu.
Certains travaux ont prouvé que la reconnaissance de l’humour ne nécessite pas une compréhension du sens. L’exploitation d’un ensemble de traits de surface est suffisant pour la détection automatique de l’humour. Parmi ces travaux, Sjöbergh et Araki (2007) ont ex-ploité leur propre algorithme de classification qui consiste à : pour chaque trait, une va-leur seuil est calculée dans le but de séparer les exemples d’apprentissage en deux groupes (humoristique et non humoristique). Le seuil doit rendre l’entropie moyenne le plus faible possible. Pour classer un nouvel exemple, une vérification de la présence des traits dans l’exemple est faite ainsi que les deux groupes d’exemples. Si la correspondance des traits est plus grande entre l’exemple et le groupe humoristique alors l’exemple est considéré comme humoristique et vice versa. Les traits proposés ont été regroupés en cinq groupes à savoir : similitude de texte, mots de plaisanterie (mots communs dans les documents humo-ristiques), ambiguïté des mots (nombre moyen de sens des mots), style (négation, répétition, pronoms, antonymes…) et expressions idiomatiques. Une exactitude de 85,4% a été obtenue.
En parallèle de tous les travaux qui s’intéressent au langage figuratif et avec l’apparition des réseaux sociaux, Raz (2012) a proposé une approche pour la détection automatique de l’humour dans un corpus de tweets. Un corpus de tweets humoristiques a été collecté à par-tir d’un site web contenant des tweets humoristiques21. L’auteur a proposé un ensemble de traits syntaxiques, lexicaux, morphologiques (temps des verbes, …), phonologiques (homo-phones pour reconnaître les jeux de mots), pragmatiques (nombre de résultats renvoyés par un moteur de recherche pour une requête sur les verbes présents dans le tweet) et stylistiques (émoticônes, ponctuation). Cette approche n’a malheureusement pas été évaluée.
Radev et al. (2015) ont quant à eux choisi un type particulier de corpus : le corpus choisi est composé de 298 224 légendes de bandes dessinées publiées dans The New Yor-ker Cartoon. Les auteurs ont développé plus d’une douzaine de méthodes non supervisées afin de classer les légendes. Le premier groupe de méthodes représente les méthodes à base d’originalité : par exemple, l’algorithme LexRank 22 est utilisé afin d’identifier la légende la plus centrale ; la méthode de classification Louvain à base de graphe proposé par (CAMPI-GOTTO et al., 2014) qui permet le regroupement des légendes par thématique. Le deuxième groupe est formé des méthodes à bases de contenu : par exemple, Freebase 23 est utilisé afin d’annoter les phrases nominales dans les légendes ; la polarité est annotée avec Stanford CoreNLP 24 . Enfin, le troisième groupe représente les méthodes génériques : utilisation de la complexité syntaxique en utilisant la méthode proposé par (Charniak & Johnson, 2005). L’évaluation de ces trois méthodes a été réalisée en utilisant Amazon Mechanical Turk (AMT). Chaque micro-tâche AMT consistait en un dessin animé ainsi que deux lé-gendes (A et B). Les annotateurs ont été chargés de déterminer la légende la plus drôle. Les résultats ont montré que les méthodes qui reposent sur les sentiments négatifs et la centralité lexicale sont les plus performantes pour la détection des légendes les plus drôles.
Yang et al. (2015) ont utilisé le corpus de (Mihalcea & Strapparava, 2005) et ont proposé quatre ensembles de traits en respectant la structure sémantique latente suivante : incon-gruité (déconnexion, répétition), ambiguïté (sens possibles à travers WordNet), effet inter-personnel (polarité positive/négative, subjectivité faible/forte), style phonétique (allitération, rime). En exploitant les traits ci-dessus, les auteurs ont utilisé l’algorithme de classification Random Forest. Une exactiture de 85,4% a été obtenue. Les auteurs en déduisent que la détection de l’humour et des marqueurs nécessite une bonne compréhension du sens de la phrase ainsi que des connaissance externes.

Bilan et positionnement de nos travaux

Dans ce chapitre, nous avons présenté un état de l’art sur la détection automatique du lan-gage figuratif en se focalisant d’une part sur les travaux proposant des schémas d’annotation et d’autre part sur les travaux qui ont proposé des approches psycholinguistiques ou automatiques pour la détection de l’ironie, du sarcasme, de la satire (cf. section 4.5), la métaphore (cf. section 2.4), la comparaison (cf. section 2.5) et l’humour (cf. section 2.6).
L’ensemble de ces travaux ont prouvé que l’analyse automatique de l’ironie et du sar-casme est l’un des défis majeurs du Traitement Automatique des Langues. La plupart des travaux récents se focalisent sur la détection de ce phénomène dans des corpus issus de réseaux sociaux comme Twitter car dans un tweet, l’auteur peut utiliser des hashtags spé-cifiques (comme #ironie, #sarcasme) afin de guider le lecteur dans la compréhension de la forme imagée qu’il veut exprimer (Gonzalez-Ibanez et al., 2011; Reyes et al., 2013; Bar-bieri & Saggion, 2014a; Barbieri et al., 2014; Joshi et al., 2015; Bamman & Smith, 2015). Ces hashtags sont très précieux car ils permettent aux chercheurs d’avoir des corpus annotés qui seront utilisés par des systèmes d’apprentissage automatique pour classer un tweet dans la classe ironique ou non ironique.
Les méthodes utilisées dans l’état de l’art pour détecter l’ironie s’appuient essentielle-ment sur le contenu linguistique des textes, comme la présence de ponctuations, d’émoti-cônes, de mots d’opinions positifs ou négatifs, etc. (Burfoot & Baldwin, 2009; Tsur et al., 2010; Gonzalez-Ibanez et al., 2011; Reyes et al., 2013; Barbieri et al., 2014). Cependant, ces méthodes atteignent vite leurs limites lorsque la compréhension du message ironique nécessite des connaissances pragmatiques ou extra-linguistiques. Par conséquent, des ap-proches pragmatiques exploitant le contexte externe à l’énoncé ont vu le jour à partir de 2015 afin de résoudre cette problématique (Wallace, 2015; Bamman & Smith, 2015; Joshi et al., 2016).
Dans ce cadre, nous proposons une approche par apprentissage supervisé afin de prédire si un tweet est ironique ou pas. Pour ce faire, nous avons suivi une démarche en trois étapes :
1. Analyse des phénomènes pragmatiques utilisés pour exprimer l’ironie en nous inspi-rant des travaux en linguistique afin de définir un schéma d’annotation multi-niveaux pour l’ironie (cf. chapitre 3).
2. En exploitant l’ensemble des observations faites sur le corpus annoté, développement d’un modèle de détection automatique pour les tweets en français qui exploite à la fois le contexte interne du tweet à travers des traits lexicaux et sémantiques et le contexte externe en recherchant des informations disponibles sur le Web (cf. chapitre 4).
3. Enfin, étude de la portabilité du modèle pour la détection de l’ironie dans un cadre multilingue (italien, anglais et arabe). Nous avons ainsi testé la portabilité du schéma d’annotation proposé sur l’italien et l’anglais et testé la performance du modèle de détection automatique à base de traits sur la langue arabe (cf. chapitre 5).

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

1 De l’analyse d’opinion au traitement du langage figuratif 
1.1 Introduction
1.2 Définition de la notion d’opinion
1.2.1 Les multiples facettes de l’opinion
1.2.2 Opinion vue comme un modèle structuré
1.2.3 Extraction d’opinions : principales approches
1.3 Limites des systèmes d’analyse d’opinion
1.3.1 Opérateurs d’opinion
1.3.2 Dépendance au domaine
1.3.3 Opinions implicites
1.3.4 Opinion et contexte discursif au delà de la phrase
1.3.5 Présence d’expressions figuratives
1.4 Qu’est-ce que le langage figuratif ?
1.4.1 Ironie
1.4.2 Sarcasme
1.4.3 Satire
1.4.4 Métaphore
1.4.5 Humour
1.5 Traitement automatique du langage figuratif : un défi pour le TAL
1.6 Conclusion
2 Vers la détection automatique du langage figuratif 
2.1 Introduction
2.2 Principaux corpus existants pour le langage figuratif
2.2.1 Corpus annotés en ironie/sarcasme
2.2.2 Corpus annotés en métaphore
2.3 Détection automatique de l’ironie, du sarcasme et de la satire
2.3.1 Approches surfaciques et sémantiques
2.3.2 Approches pragmatiques exploitant le contexte interne de l’énoncé
2.3.3 Approches pragmatiques exploitant le contexte externe de l’énoncé
2.4 Détection automatique de la métaphore
2.4.1 Approches surfaciques et sémantiques
2.4.2 Approches pragmatiques exploitant le contexte interne de l’énoncé
2.4.3 Approches pragmatiques exploitant le contexte externe de l’énoncé
2.5 Détection automatique de la comparaison
2.6 Détection automatique de l’humour
2.7 Bilan et positionnement de nos travaux
3 Un schéma multi-niveaux pour l’annotation de l’ironie 
3.1 Introduction
3.2 Le corpus FrIC
3.3 Schéma d’annotation multi-niveaux
3.3.1 Méthodologie
3.3.2 Le schéma d’annotation
3.4 Campagne d’annotation
3.4.1 Présentation de l’outil Glozz
3.4.2 Préparation des données
3.4.3 Procédure d’annotation
3.5 Résultats de la campagne d’annotation
3.5.1 Résultats qualitatifs
3.5.2 Résultats quantitatifs
3.5.3 Corrélation entre les différents niveaux du schéma d’annotation
3.6 Conclusion
4 Détection automatique de l’ironie 
4.1 Introduction
4.2 Le corpus FrICAuto
4.3 Le modèle SurfSystem : Détection de l’ironie sur la base de traits surfaciques
4.3.1 Traits utilisés
4.3.2 Expériences et résultats
4.4 Le modèle PragSystem : Détection de l’ironie sur la base de traits contextuels internes
4.4.1 Traits utilisés
4.4.2 Expériences et résultats
4.4.3 Discussion
4.5 Le modèle QuerySystem : Vers un modèle pragmatique contextuel pour la détection automatique de l’ironie
4.5.1 Approche proposée
4.5.2 Expériences et résultats
4.5.3 Évaluation de la méthode à base de requêtes
4.6 Conclusion
5 Vers un système multi-lingue pour la détection automatique de l’ironie 
5.1 Introduction
5.2 L’ironie dans les langues indo-européennes
5.2.1 Corpus
5.2.2 Résultats de la procédure d’annotation
5.2.3 Synthèse
5.3 L’ironie dans les langues sémitiques
5.3.1 Les spécificités de la langue arabe
5.3.2 Corpus et ressources
5.3.3 Détection automatique de l’ironie dans les tweets arabes
5.4 Conclusion
Conclusion
Appendices
A Annexes 
A.1 Catégories de l’ironie
A.1.1 Catégories étudiées dans la littérature linguistiques
Bibliographie 

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *