2020
pdf
bib
abs
Inference Annotation of a Chinese Corpus for Opinion Mining
Liyun Yan
|
Danni E
|
Mei Gan
|
Cyril Grouin
|
Mathieu Valette
Proceedings of the 12th Language Resources and Evaluation Conference
Polarity classification (positive, negative or neutral opinion detection) is well developed in the field of opinion mining. However, existing tools, which perform with high accuracy on short sentences and explicit expressions, have limited success interpreting narrative phrases and inference contexts. In this article, we will discuss an important aspect of opinion mining: inference. We will give our definition of inference, classify different types, provide an annotation framework and analyze the annotation results. While inferences are often studied in the field of Natural-language understanding (NLU), we propose to examine inference as it relates to opinion mining. Firstly, based on linguistic analysis, we clarify what kind of sentence contains an inference. We define five types of inference: logical inference, pragmatic inference, lexical inference, enunciative inference and discursive inference. Second, we explain our annotation framework which includes both inference detection and opinion mining. In short, this manual annotation determines whether or not a target contains an inference. If so, we then define inference type, polarity and topic. Using the results of this annotation, we observed several correlation relations which will be used to determine distinctive features for automatic inference classification in further research. We also demonstrate the results of three preliminary classification experiments.
2016
pdf
bib
ReadME generation from an OWL ontology describing NLP tools
Driss Sadoun
|
Satenik Mkhitaryan
|
Damien Nouvel
|
Mathieu Valette
Proceedings of the 2nd International Workshop on Natural Language Generation and the Semantic Web (WebNLG 2016)
pdf
bib
abs
The MultiTal NLP tool infrastructure
Driss Sadoun
|
Satenik Mkhitaryan
|
Damien Nouvel
|
Mathieu Valette
Proceedings of the Workshop on Language Technology Resources and Tools for Digital Humanities (LT4DH)
This paper gives an overview of the MultiTal project, which aims to create a research infrastructure that ensures long-term distribution of NLP tools descriptions. The goal is to make NLP tools more accessible and usable to end-users of different disciplines. The infrastructure is built on a meta-data scheme modelling and standardising multilingual NLP tools documentation. The model is conceptualised using an OWL ontology. The formal representation of the ontology allows us to automatically generate organised and structured documentation in different languages for each represented tool.
2015
pdf
bib
abs
Une méthodologie de sémantique de corpus appliquée à des tâches de fouille d’opinion et d’analyse des sentiments : étude sur l’impact de marqueurs dialogiques et dialectiques dans l’expression de la subjectivité
Egle Eensoo
|
Mathieu Valette
Actes de la 22e conférence sur le Traitement Automatique des Langues Naturelles. Articles longs
Cet article entend dresser, dans un premier temps, un panorama critique des relations entre TAL et linguistique. Puis, il esquisse une discussion sur l’apport possible d’une sémantique de corpus dans un contexte applicatif en s’appuyant sur plusieurs expériences en fouille de textes subjectifs (analyse de sentiments et fouille d’opinions). Ces expériences se démarquent des approches traditionnelles fondées sur la recherche de marqueurs axiologiques explicites par l’utilisation de critères relevant des représentations des acteurs (composante dialogique) et des structures argumentatives et narratives des textes (composante dialectique). Nous souhaitons de cette façon mettre en lumière le bénéfice d’un dialogue méthodologique entre une théorie (la sémantique textuelle), des méthodes de linguistique de corpus orientées vers l’analyse du sens (la textométrie) et les usages actuels du TAL en termes d’algorithmiques (apprentissage automatique) mais aussi de méthodologie d’évaluation des résultats.
pdf
bib
abs
Proposition méthodologique pour la détection automatique de Community Manager. Étude multilingue sur un corpus relatif à la Junk Food
Johan Ferguth
|
Aurélie Jouannet
|
Asma Zamiti
|
Yunhe Wu
|
Jia Li
|
Antonina Bondarenko
|
Damien Nouvel
|
Mathieu Valette
Actes de la 22e conférence sur le Traitement Automatique des Langues Naturelles. Articles courts
Dans cet article, nous présentons une méthodologie pour l’identification de messages suspectés d’être produits par des Community Managers à des fins commerciales déguisées dans des documents du Web 2.0. Le champ d’application est la malbouffe (junkfood) et le corpus est multilingue (anglais, chinois, français). Nous exposons dans un premier temps la stratégie de constitution et d’annotation de nos corpus, en explicitant notamment notre guide d’annotation, puis nous développons la méthode adoptée, basée sur la combinaison d’une analyse textométrique et d’un apprentissage supervisé.
2012
pdf
bib
Sur l’application de méthodes textométriques à la construction de critères de classification en analyse des sentiments (About the application of textometric methods for developing classi!cation criteria in Sentiment analysis) [in French]
Egle Eensoo
|
Mathieu Valette
Proceedings of the Joint Conference JEP-TALN-RECITAL 2012, volume 2: TALN
2010
pdf
bib
abs
Thésaurus et corpus de spécialité sciences du langage : approches lexicométriques appliquées à l’analyse de termes en corpus
Évelyne Jacquey
|
Laurence Kister
|
Mick Grzesitchak
|
Bertrand Gaiffe
|
Coralie Reutenauer
|
Sandrine Ollinger
|
Mathieu Valette
Actes de la 17e conférence sur le Traitement Automatique des Langues Naturelles. Articles courts
Cet article s’inscrit dans les recherches sur l’exploitation de ressources terminologiques pour l’analyse de textes de spécialité, leur annotation et leur indexation. Les ressources en présence sont, d’une part, un thesaurus des Sciences du Langage, le Thesaulangue et, d’autre part, un corpus d’échantillons issus de cinq ouvrages relevant du même domaine. L’article a deux objectifs. Le premier est de déterminer dans quelle mesure les termes de Thesaulangue sont représentés dans les textes. Le second est d’évaluer si les occurrences des unités lexicales correspondant aux termes de Thesaulangue relèvent majoritairement d’emplois terminologiques ou de langue courante. A cette fin, les travaux présentés utilisent une mesure de richesse lexicale telle qu’elle a été définie par Brunet (rapporté dans Muller, 1992) dans le domaine de la lexicométrie, l’indice W. Cette mesure est adaptée afin de mesurer la richesse terminologie (co-occurrents lexicaux et sémantiques qui apparaissent dans Thesaulangue).
2006
pdf
bib
abs
Éléments pour la génération de classes sémantiques à partir de définitions lexicographiques Pour une approche sémique du sens
Mathieu Valette
|
Alexander Estacio-Moreno
|
Étienne Petitjean
|
Évelyne Jacquey
Actes de la 13ème conférence sur le Traitement Automatique des Langues Naturelles. Articles longs
Ce papier expose une expérience de classification menée sur un corpus de définitions dictionnairiques. Le cadre général de cette recherche est la constitution d’une ressource lexico-sémantique fondée sur une conception structuraliste du sens (le contenu sémantique d’une unité lexicale est structuré en sèmes ; le sens d’un texte émerge de faisceaux de regroupements sémiques stabilisés). L’objectif de l’expérience rapportée est de découvrir des classes sémantiques à partir de définitions dictionnairiques avec la méthode CAH. Les classes sémantiques regroupent des unités lexicales en fonction de sèmes génériques (i.e. communs à toutes les unités lexicales de la classe) et s’organisent différentiellement en fonction de sèmes spécifiques. À partir d’une sélection d’entrées dictionnairiques partageant le sème générique /arbre/, nous étudions la distribution et l’organisation d’une hypothétique classe sémantique liée au domaine de la sylviculture.
2003
pdf
bib
abs
Application d’algorithmes de classification automatique pour la détection des contenus racistes sur l’Internet
Romain Vinot
|
Natalia Grabar
|
Mathieu Valette
Actes de la 10ème conférence sur le Traitement Automatique des Langues Naturelles. Articles longs
Le filtrage de contenus illicites sur Internet est une problématique difficile qui est actuellement résolue par des approches à base de listes noires et de mots-clés. Les systèmes de classification textuelle par apprentissage automatique nécessitant peu d’interventions humaines, elles peuvent avantageusement remplacer ou compléter les méthodes précédentes pour faciliter les mises à jour. Ces techniques, traditionnellement utilisées avec des catégories définies par leur sujet (économie ou sport par exemple), sont fondées sur la présence ou l’absence de mots. Nous présentons une évaluation de ces techniques pour le filtrage de contenus racistes. Contrairement aux cas traditionnels, les documents ne doivent pas être catégorisés suivant leur sujet mais suivant le point de vue énoncé (raciste ou antiraciste). Nos résultats montrent que les classifieurs, essentiellement lexicaux, sont néanmoins bien adaptées : plus de 90% des documents sont correctement classés, voir même 99% si l’on accepte une classe de rejet (avec 20% d’exemples non classés).