Back to Search
Start Over
Learning multimodal behavioral models for interactive conversational agents
- Source :
- Traitement du signal et de l'image. Université Grenoble Alpes, 2015. Français. 〈NNT : 2015GREAT079〉, Traitement du signal et de l'image [eess.SP]. Université Grenoble Alpes, 2015. Français. ⟨NNT : 2015GREAT079⟩
- Publication Year :
- 2015
- Publisher :
- HAL CCSD, 2015.
-
Abstract
- Face to face interaction is one of the most fundamental forms of human communication. It is a complex multimodal and coupled dynamic system involving not only speech but of numerous segments of the body among which gaze, the orientation of the head, the chest and the body, the facial and brachiomanual movements, etc. The understanding and the modeling of this type of communication is a crucial stage for designing interactive agents capable of committing (hiring) credible conversations with human partners. Concretely, a model of multimodal behavior for interactive social agents faces with the complex task of generating gestural scores given an analysis of the scene and an incremental estimation of the joint objectives aimed during the conversation. The objective of this thesis is to develop models of multimodal behavior that allow artificial agents to engage into a relevant co-verbal communication with a human partner. While the immense majority of the works in the field of human-agent interaction (HAI) is scripted using ruled-based models, our approach relies on the training of statistical models from tracks collected during exemplary interactions, demonstrated by human trainers. In this context, we introduce "sensorimotor" models of behavior, which perform at the same time the recognition of joint cognitive states and the generation of the social signals in an incremental way. In particular, the proposed models of behavior have to estimate the current unit of interaction ( IU) in which the interlocutors are jointly committed and to predict the co-verbal behavior of its human trainer given the behavior of the interlocutor(s). The proposed models are all graphical models, i.e. Hidden Markov Models (HMM) and Dynamic Bayesian Networks (DBN). The models were trained and evaluated - in particular compared with classic classifiers - using datasets collected during two different interactions. Both interactions were carefully designed so as to collect, in a minimum amount of time, a sufficient number of exemplars of mutual attention and multimodal deixis of objects and places. Our contributions are completed by original methods for the interpretation and comparative evaluation of the properties of the proposed models. By comparing the output of the models with the original scores, we show that the HMM, thanks to its properties of sequential modeling, outperforms the simple classifiers in term of performances. The semi-Markovian models (HSMM) further improves the estimation of sensorimotor states thanks to duration modeling. Finally, thanks to a rich structure of dependency between variables learnt from the data, the DBN has the most convincing performances and demonstrates both the best performance and the most faithful multimodal coordination to the original multimodal events.<br />L'interaction face-à-face représente une des formes les plus fondamentales de la communication humaine. C'est un système dynamique multimodal et couplé – impliquant non seulement la parole mais de nombreux segments du corps dont le regard, l'orientation de la tête, du buste et du corps, les gestes faciaux et brachio-manuels, etc – d'une grande complexité. La compréhension et la modélisation de ce type de communication est une étape cruciale dans le processus de la conception des agents interactifs capables d'engager des conversations crédibles avec des partenaires humains. Concrètement, un modèle de comportement multimodal destiné aux agents sociaux interactifs fait face à la tâche complexe de générer un comportement multimodal étant donné une analyse de la scène et une estimation incrémentale des objectifs conjoints visés au cours de la conversation. L'objectif de cette thèse est de développer des modèles de comportement multimodal pour permettre aux agents artificiels de mener une communication co-verbale pertinente avec un partenaire humain. Alors que l'immense majorité des travaux dans le domaine de l'interaction humain-agent repose essentiellement sur des modèles à base de règles, notre approche se base sur la modélisation statistique des interactions sociales à partir de traces collectées lors d'interactions exemplaires, démontrées par des tuteurs humains. Dans ce cadre, nous introduisons des modèles de comportement dits "sensori-moteurs", qui permettent à la fois la reconnaissance des états cognitifs conjoints et la génération des signaux sociaux d'une manière incrémentale. En particulier, les modèles de comportement proposés ont pour objectif d'estimer l'unité d'interaction (IU) dans laquelle sont engagés de manière conjointe les interlocuteurs et de générer le comportement co-verbal du tuteur humain étant donné le comportement observé de son/ses interlocuteur(s). Les modèles proposés sont principalement des modèles probabilistes graphiques qui se basent sur les chaînes de markov cachés (HMM) et les réseaux bayésiens dynamiques (DBN). Les modèles ont été appris et évalués – notamment comparés à des classifieurs classiques – sur des jeux de données collectés lors de deux différentes interactions face-à-face. Les deux interactions ont été soigneusement conçues de manière à collecter, en un minimum de temps, un nombre suffisant d'exemplaires de gestion de l'attention mutuelle et de deixis multimodale d'objets et de lieux. Nos contributions sont complétées par des méthodes originales d'interprétation et d'évaluation des propriétés des modèles proposés. En comparant tous les modèles avec les vraies traces d'interactions, les résultats montrent que le modèle HMM, grâce à ses propriétés de modélisation séquentielle, dépasse les simples classifieurs en terme de performances. Les modèles semi-markoviens (HSMM) ont été également testé et ont abouti à un meilleur bouclage sensori-moteur grâce à leurs propriétés de modélisation des durées des états. Enfin, grâce à une structure de dépendances riche apprise à partir des données, le modèle DBN a les performances les plus probantes et démontre en outre la coordination multimodale la plus fidèle aux évènements multimodaux originaux.
- Subjects :
- [ INFO.INFO-TS ] Computer Science [cs]/Signal and Image Processing
DBN
Apprentissage statistique
[INFO.INFO-TS] Computer Science [cs]/Signal and Image Processing
Arbres de décision
Decision trees
SVM
HSMM
Traitement des signaux sociaux
[ SPI.SIGNAL ] Engineering Sciences [physics]/Signal and Image processing
Reconnaissance de l’unité interactionnelle
Interaction face à face
[INFO.INFO-TS]Computer Science [cs]/Signal and Image Processing
Machine learning
Génération de gestes
HMM
[SPI.SIGNAL] Engineering Sciences [physics]/Signal and Image processing
Probabilistic graphical models
Gaze generation
Classifiers
Modèles séquentiels incrémentaux
Histogramme de coordination
Incremental sequential models
Génération de regard
Face-to-face interaction
Modèles sensori-moteurs de comportement multimodal
Sensorimotor models of multimodal behavior
Modèles probabilistes graphiques
Classifieurs
Social signal processing
Recognition of the interaction unit
Gesture generation
[SPI.SIGNAL]Engineering Sciences [physics]/Signal and Image processing
Coordination histogram
Subjects
Details
- Language :
- French
- Database :
- OpenAIRE
- Journal :
- Traitement du signal et de l'image. Université Grenoble Alpes, 2015. Français. 〈NNT : 2015GREAT079〉, Traitement du signal et de l'image [eess.SP]. Université Grenoble Alpes, 2015. Français. ⟨NNT : 2015GREAT079⟩
- Accession number :
- edsair.dedup.wf.001..8da25e46cbf4c93fbbcbd1bef5c79a56