1. Du bon usage d'ingrédients linguistiques spéciaux pour classer des recettes exceptionnelles
- Author
-
Mohammadi, Elham, Marceau, Louis, Charton, Eric, Kosseim, Leila, Nerima, Luka, Meurs, Marie-Jean, Concordia University, Banque Nationale du Canada, Université de Genève (UNIGE), Université du Québec à Montréal UQAM, Benzitoun, Christophe, Braud, Chloé, Huber, Laurine, Langlois, David, Ouni, Slim, Pogodalla, Sylvain, Schneider, Stéphane, and Université de Genève
- Subjects
apprentissage profond ,[INFO.INFO-CL] Computer Science [cs]/Computation and Language [cs.CL] ,caractéristiques linguistiques ,Classification de textes ,[INFO.INFO-CL]Computer Science [cs]/Computation and Language [cs.CL] - Abstract
Nous présentons un modèle d’apprentissage automatique qui combine modèles neuronaux et linguistiques pour traiter les tâches de classification dans lesquelles la distribution des étiquettes des instances est déséquilibrée. Les performances de ce modèle sont mesurées à l’aide d’expériences menées sur les tâches de classification de recettes de cuisine de la campagne DEFT 2013 (Grouin et al., 2013). Nous montrons que les plongements lexicaux (word embeddings) associés à des méthodes d’apprentissage profond obtiennent de meilleures performances que tous les algorithmes déployés lors de la campagne DEFT. Nous montrons aussi que ces mêmes classifieurs avec plongements lexicaux peuvent gagner en performance lorsqu’un modèle linguistique est ajouté au modèle neuronal. Nous observons que l’ajout d’un modèle linguistique au modèle neuronal améliore les performances de classification sur les classes rares.
- Published
- 2020