Les éléments qui sont présentés dans ce document s’inscrivent dans une stratégie générale de recherche sur ce qu’on pourrait désormais appeler les « humanités numériques de 2ème génération ». Ces dernières sont au croisement des sciences humaines et sociales et de l’intelligence artificielle, avec une attention portée vers l’exploitation de grandes masses de données (ou Big Data en anglais).Dans ce contexte, les données proviennent principalement des travaux de recherche, créés, gérés et relatés (via des plateformes, bibliothèques, réseaux sociaux, des forums, des blogs, des sites, etc.) par des chercheurs, sur toutes sortes de sujets et de thèmes. Les données ont généralement un caractère multiculturel, multilingue et multidisciplinaire. Les phénomènes d’analyse des données et en particulier des humanités dans le contexte du « Big Data », pour les besoins d’exploitation, de compréhension et de renseignement, questionnent les méthodes et démarches traditionnelles de modélisation, de conception, d’implémentation et d’évaluation des systèmes d’information et de décision. L’analyse de ces données est devenue un enjeu majeur. Les institutions de recherche devront investir massivement dans des systèmes d’analyse et de fouilles automatiques des données de la recherche, afin de parvenir à s’adapter aux exigences des chercheurs pour améliorer leurs recherches ; dans le nouveau monde ouvert des données (Open Data) et de l’intelligence artificielle (IA) qui est le Web. De plus, malgré des avancées dans ce domaine, plusieurs études récentes montrent que peu d’institutions, plus particulièrement dans l’espace Francophone, exploitent les données dans leur prise de décision. Ceci est dû à plusieurs problèmes, liés principalement à la nature des solutions existantes qui ne sont pas encore assez mûres, et aussi à leurs coûts de mise en place, encore trop élevés.A titre d’exemple, si on se restreint aux données textuelles, leur traitement pose encore un certain nombre de défis. En effet, la signification (sens) exacte des mots et donc des textes dans leurs contextes est très difficile à détecter et à exploiter automatiquement. Ces problèmes sont encore plus accentués dans le cas des textes scientifiques rédigés souvent avec des styles particuliers, des formules, des abréviations, des sigles, etc., pouvant aller dans certains cas jusqu’à l’intégration d’autres éléments de discours tels que l’ironie, humour, sarcasme, etc.Les solutions numériques et scientifiques, dans ce domaine, doivent donc s’inscrire dans une démarche globale, dont l’objectif est de mettre en place de nouvelles méthodes innovantes et intelligentes pour faire face aux problèmes spécifiques posés par l’analyse sémantique des données textuelles au service de la recherche en humanités et de la prise de décision. Le but est d’apporter des améliorations aux procédures existantes en matière de création, d’analyse et d’exploitation des données pour permettre des facilités et des aides aux chercheurs, d’une part, et d’autre part, permettre des décisions mieux motivées et tirer profit des données massives de la recherche. Cela permettra aux institutions de connaître, à partir des tendances, des indicateurs, etc., comment orienter leurs politiques scientifiques ainsi que les services aux chercheurs et de les adapter en fonction des exigences et des besoins des tutelles et des chercheurs.