1. Identification d’occurrences de candidats termes dans des articles scientifiques
- Author
-
Laurence Kister and Evelyne Jacquey
- Subjects
Manual Annotation ,Languages for specific purposes ,Annotation manuelle ,Langue de spécialité ,Terminologie textuelle ,Computational Terminology - Abstract
Cet article compare deux campagnes d’annotation successives visant l’identification manuelle des occurrences de candidats termes relevant de la discipline scientifique dans laquelle s’inscrit l’article. Les deux campagnes se distinguent par leurs objectifs. La première visait l’enrichissement de terminologies existantes. La seconde avait le double objectif de comparer plusieurs environnements d’annotation (BRAT, GATE, GLOZZ) et de mesurer la difficulté de la tâche d’annotation en sciences humaines et sociales (SHS) par rapport aux sciences dites exactes. Les corpus produits ne permettant pas de comparer les deux campagnes directement, nous les exploitons comme corpus d’apprentissage dans une tâche test qui consiste à automatiser l’annotation manuelle. L’objectif est de savoir si le corpus de la seconde campagne permet d’augmenter les performances de la tâche test par rapport à celui de la première campagne. This paper compares two successive annotation campaigns aimed at manually identifying the occurrences of candidate terms that actually fall within the scientific domain of the annotated document. The two campaigns are distinguished by their objectives. The first aimed at the enrichment of existing terminological resources. The second had the dual objective of comparing several annotation tools (BRAT, GATE, GLOZZ) and measuring the difficulty of the annotation task in the human and social sciences compared to the so-called hard sciences. A direct comparison between both campaigns is not possible on the basis of the produced corpora. To do this, we use these corpora as learning corpus in the context of a test task. The role of this task is automate the manual annotation. The goal is to determine if the second corpus is of better quality than the first one with regards to the test task performances.
- Published
- 2022