140 results on '"entrepôt de données"'
Search Results
2. Das erweiterte Potenzial von Bildungsdaten.
- Author
-
Husfeldt, Vera, Schiller M. A., David, and Alt MSc. BA., Sharon
- Abstract
The more educational data we can combine and use meaningfully, the more we can say about learning and about the quality of our education system. Within the framework of its "Virtual Educational Observertory" (VEO) project, an interdisciplinary research group at the University of Applied Sciences of the Grisons (FHGR) has set itself the goal of expanding the potential of educational data by linking and processing existing and future sources. [ABSTRACT FROM AUTHOR]
- Published
- 2020
- Full Text
- View/download PDF
3. Où trouver des données en SHS ?
- Author
-
Massein, Alioscha, Lefèvre, Brice, TGIR PROGEDO (PROGEDO), École des hautes études en sciences sociales (EHESS)-Centre National de la Recherche Scientifique (CNRS), Maison des Sciences de l’Homme Lyon Saint-Etienne (MSH LSE), École normale supérieure de Lyon (ENS de Lyon)-Université Lumière - Lyon 2 (UL2)-Sciences Po Lyon - Institut d'études politiques de Lyon (IEP Lyon), Université de Lyon-Université de Lyon-Université Jean Moulin - Lyon 3 (UJML), Université de Lyon-Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Université Jean Monnet - Saint-Étienne (UJM)-Centre National de la Recherche Scientifique (CNRS), Laboratoire sur les Vulnérabilités et l'Innovation dans le Sport (EA 7428) (L-VIS), Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Université de Lyon, and Alioscha Massein
- Subjects
[STAT]Statistics [stat] ,PROGEDO ,humanité numérique ,Entrepôt de données ,[INFO]Computer Science [cs] ,statistique ,science ouverte ,accompagnement recherche ,MSH LSE ,numérisation ,[SHS]Humanities and Social Sciences - Abstract
National audience; Où trouver des données ? Pourquoi et comment les réutiliser ? Que faire de mes propres données ? Ces questions sont au fondement des démarches de recherches actuelles : pour une question de transparence, de reproductibilité de la recherche, ou encore d’accès à des archives et des données sur des terrains disparus. La conservation et la mise à disposition de jeu de données sont devenus des enjeux majeurs de la recherche en SHS. Cette séance s’attachera à présenter un catalogue de plateforme sur lesquels vous pouvez retrouver des données quantitatives et qualitatives.
- Published
- 2023
4. Towards a new automatic data warehouse design method.
- Author
-
El Moukhi, Nawfal, El Azami, Ikram, Mouloudi, Abdelaaziz, and Elmounadi, Abdelali
- Subjects
WAREHOUSE design & construction ,DECISION support systems ,RELATIONAL databases ,TECHNOLOGICAL complexity ,MULTIDIMENSIONAL databases - Abstract
Copyright of E-Ti: Electronic Journal of Information Technology is the property of Revue Internationale Eti and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2019
5. Déposer ses données sur Recherche Data Gouv
- Author
-
Arènes, Cécile
- Subjects
données de recherche ,entrepôt de données ,open science ,science ouverte ,research data ,data repository - Abstract
Slides : présentation de Recherche Data Gouv (30minutes) La partie Démonstration de la formation a été réalisée directement sur le site (1h)
- Published
- 2023
- Full Text
- View/download PDF
6. Vous avez dit « CURATION » ? SOS DOCUMENTALISTES vous répond !
- Author
-
Tisserand, Hélène and Prost, Rachel
- Subjects
repository ,entrepôt de données ,métadonnées ,documentaliste ,metadata ,open science ,curation ,science ouverte ,taxons ,data librarian - Abstract
Cette intervention a pour objectif de faire un retour d'expérience sur notre travail de documentalistes au sein de l'atelier de la donnée UBFC, et plus particulièrement notre rôle dans la curation des métadonnées mises à disposition sur le portail dat@UBFC. Nous aborderons les sujets suivants : - point sur le métier de documentaliste dans le contexte de la science ouverte et de l'Open Data - cadre dans lequel nous sommes amenées à gérer des MD (présentation du portail et de la curation) - exemples concrets de l'importance du travail de curation - valeur ajoutée du travail de curation et limites de la curation manuelle Cette présentation a été réalisée lors du webinaire du jeudi 1 décembre 2022, organisé par le GTSO Données de Couperin. L’enregistrement est disponible ici : https://youtu.be/LvqYI7gLs4w
- Published
- 2022
- Full Text
- View/download PDF
7. Accéder à des données confidentielles : le Centre d’accès sécurisé aux données (CASD)
- Author
-
Goffette-Nagot, Florence, Groupe d'Analyse et de Théorie Economique Lyon - Saint-Etienne (GATE Lyon Saint-Étienne), École normale supérieure de Lyon (ENS de Lyon)-Université Lumière - Lyon 2 (UL2)-Université Jean Monnet - Saint-Étienne (UJM)-Centre National de la Recherche Scientifique (CNRS), PUD-PANELS, and MSH-LSE
- Subjects
base de données ,[INFO.INFO-DB]Computer Science [cs]/Databases [cs.DB] ,Entrepôt de Données ,données ,Données personnelles ,[SHS]Humanities and Social Sciences - Abstract
International audience; Le CASD est une « bulle sécurisée », c’est-à-dire une infrastructure de stockage et de traitement des données oùdes données confidentielles sont sanctuarisées. 477 sources de données y sont disponibles, avec entre autresdes données de l’INSEE, des ministères de la Justice, de l’Éducation nationale, de l’Agriculture et de l’alimentation. Une équipe dédiée gère l’accès des utilisateurs.Cette intervention aura pour but de présenter les modalités d’utilisation du CASD, depuis la demande d’accès jusqu’à l’exportation des résultats d’analyse, sur la base d’une expérience d’utilisation pour des recherches en économie.
- Published
- 2022
8. Vers un modèle unifié de données entreposées et de données ouvertes liées: Concepts et expérimentations.
- Author
-
Ravat, Franck, Song, Jiefu, and Teste, Olivier
- Abstract
Copyright of Ingénierie des Systèmes d'Information is the property of International Information & Engineering Technology Association (IIETA) and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2017
- Full Text
- View/download PDF
9. Intégration automatique de données tabulaires dans des entrepôts de données
- Author
-
Yang, Yuzhao and YANG, Yuzhao
- Subjects
[INFO.INFO-AI] Computer Science [cs]/Artificial Intelligence [cs.AI] ,Intégration de données automatique ,OLAP ,Fusion de données ,Tabular data ,Imputation de données ,Apprentissage automatique ,[INFO] Computer Science [cs] ,Data imputation ,Data warehouse ,Data merging ,Machine learning ,Données tabulaires ,[INFO.INFO-DB] Computer Science [cs]/Databases [cs.DB] ,Entrepôt de données ,Automatic data integration ,[INFO.INFO-AU] Computer Science [cs]/Automatic Control Engineering - Abstract
Business Intelligence (BI) plays an important role in companies to support decision making processes. Nowadays, small companies, organizations or even individuals can exploit numerous data. However, the lack of experts prevents them from carrying BI projects out. It is thus necessary to automate the BI design process to make BI accessible for everyone. In BI architectures, data are integrated into Data Warehouses (DWs) usually modeled in a multidimensional way. Yet, tabular data widely exist in small enterprises, organizations and in the open data world. As a result, we intend to automate the DW design from tabular data. Automatic DW design from tabular data requires the detection of different multidimensional components (facts, dimensions, hierarchies...). In case of multiple sources, several DWs may be generated. If they share common information, it is necessary to merge them as one integrated DW. During DW merging, missing data imputation should be carried out to achieve a better data analysis. Therefore, we propose a solution composed of three parts: (i) automatic DW design, (ii) automatic DW merging and (iii) dimensional data imputation.Automatic DW design from tabular data is composed of measure detection and dimension detection for constructing facts and dimensions, respectively. For measure detection, we propose a machine learning-based approach that extracts three categories of features from numerical columns. Dimension detection includes functional dependency-based hierarchy detection and the distinction of parameters and weak attributes based on syntactic and semantic rules. We carry out experiments to validate that our approach is able to detect measures and different dimension elements with high effectiveness and efficiency.For automatically merging DWs, we propose a process at both the schema and instance levels, consisting of level merging, hierarchy merging, dimension merging and star schema merging. Our approach takes the different DW structure elements into account. Moreover, our approach considers different cases and may generate star or constellation schemas. We conduct experiments to validate that our DW merging solution can correctly merge DWs at both schema and instance levels.Finally, to address dimensional missing data, we propose a hybrid imputation approach named Hie-OLAPKNN that combines a hierarchical imputation (Hie) and a K-nearest neighbors-based imputation (OLAPKNN). Hierarchical imputation is based on functional dependencies between hierarchy levels and is launched first. The remaining missing data can then be completed by OLAPKNN, which applies a specific dimension instance distance and considers hierarchy dependency constraints. Our experiments show that Hie-OLAPKNN outperforms other approaches in terms of effectiveness, efficiency and respect of hierarchy strictness., La Business Intelligence (BI) joue un rôle important dans les entreprises pour soutenir les processus de prise de décision. Aujourd'hui, les petites entreprises, les organisations ou même les particuliers peuvent exploiter de nombreuses données. Cependant, le manque d'experts les empêche de mener à bien des projets de BI. Il est donc nécessaire d'automatiser le processus de conception et d’implémentation de systèmes de BI afin de le rendre accessible à tous. Dans les architectures BI, les données sont intégrées dans des entrepôts de données (EDs) généralement modélisés de manière multidimensionnelle. De plus, les données tabulaires sont largement répandues dans les petites entreprises, les organisations et dans le monde des données ouvertes. Par conséquent, nous avons l'intention d'automatiser la conception d’EDs multidimensionnels à partir de données tabulaires sans connaissance à priori des schémas.La conception automatique d’EDs à partir de données tabulaires nécessite la détection de différents composants multidimensionnels (faits, dimensions, hiérarchies...). En cas de sources multiples, plusieurs EDs peuvent être générés. S'ils partagent des informations communes, il est nécessaire de les fusionner en un seul ED intégré. Pendant la fusion d’EDs, l'imputation de données manquantes doit être effectuée pour permettre une analyse de données de meilleure qualité. Par conséquent, nous proposons une solution composée de trois parties : (i) la conception automatique d’EDs, (ii) la fusion automatique d’EDs et (iii) l'imputation de données multidimensionnelles.La conception automatique d’EDs à partir de données tabulaires comprend la détection de mesure et la détection de dimension pour définir respectivement le fait et les dimensions. Pour la détection de mesures, nous proposons une approche basée sur l'apprentissage automatique qui extrait trois catégories de caractéristiques. La détection de dimensions comprend la détection de hiérarchies (basée sur des dépendances fonctionnelles) et la distinction des paramètres et des attributs faibles (basée sur des règles syntaxiques et sémantiques). Nous avons réalisé des expérimentations pour valider que notre approche est capable de détecter les mesures et les différents éléments de dimension avec une efficacité et une efficience élevées.Concernant la fusion automatique d’EDs, nous proposons un processus basé sur les schémas et les instances, composé de la fusion de niveaux, la fusion de hiérarchies, la fusion de dimensions et la fusion de schémas en étoile. Les expérimentations ont permis de valider notre solution de fusion d’EDs.Enfin, pour traiter les données manquantes multidimensionnelles, nous proposons une approche d'imputation hybride appelée Hie-OLAPKNN qui combine une imputation hiérarchique (Hie) et une imputation basée sur les K-voisins les plus proches (OLAPKNN). L'imputation hiérarchique est basée sur les dépendances fonctionnelles entre les niveaux hiérarchiques. OLAPKNN applique une distance d'instances de dimension et tient compte des contraintes de dépendance hiérarchique. Nos expérimentations montrent que Hie-OLAPKNN surpasse les autres approches en termes d'efficacité, d'efficience et de respect des contraintes hiérarchiques.
- Published
- 2022
10. Automatisation de la surveillance des infections associées aux soins : la valorisation des données
- Author
-
Daudé, Alexis, Jean-Philippe Rasigade, and Élodie Couvé-Deacon
- Subjects
Surveillance informatisée ,Restitution des indicateurs ,Infection associée aux soins ,Entrepôt de données ,Gouvernance ,Data-mining ,Recherche médicale - Abstract
Devant la survenue croissante d’infections associées aux soins, les systèmes de surveillance se développent et leur automatisation croissante encourage la valorisation des données générées. Le recueil en temps réel favorise un retour d’information rapide et innovant à l’échelon local ou à plus grande échelle entre établissements, régions ou pays. L’automatisation du recueil représente une avancée à plusieurs niveaux. Elle favorise la standardisation et l’interopérabilité des données, qui facilitent la mise en œuvre de programmes de surveillance nationaux et améliorent la fiabilité des indicateurs de surveillance que ces programmes génèrent. Une fois standardisées, les données de systèmes différents deviennent comparables et peuvent être centralisées dans un entrepôt de données. À condition de répondre à certaines exigences de qualité, d’exhaustivité et de protection, l’analyse de données de surveillance couplée à un entrepôt de données de santé peut contribuer à la recherche clinique. D’autres utilisations sont envisagées, telles que l’optimisation du codage des séjours, entraînant de multiples bénéfices potentiels en termes de finance, de temps et de fiabilité. La lutte contre l’antibiorésistance peut également bénéficier d’une approche globale combinant toutes les données d’intérêt et identifiant les mesures correctives. Enfin, de tels entrepôts de données peuvent aboutir à une simplification et à une optimisation de la gestion des cas contact lorsqu’un risque de transmission nosocomiale est identifié. Ainsi, des systèmes de surveillance efficaces ont de multiples utilités locales et sont essentiels au niveau national voire international pour l’exploitation d’indicateurs et la détection de tendances.
- Published
- 2022
- Full Text
- View/download PDF
11. RdvNum 2022 – Nakala
- Author
-
Gautier, Hélène and Mathelier, Daphné
- Subjects
Données SHS ,Accès ouvert aux données ,Description des données ,Entrepôt de données - Abstract
Intervention lors du RDV Num 2022 de la MSH Mondes (21/11/2022) pour présenter l’entrepôt de données Nakala
- Published
- 2022
- Full Text
- View/download PDF
12. RdvNum 2022 – Recherche Data Gouv
- Author
-
Delay-Artous, Cécile and Mathelier, Daphné
- Subjects
Accès ouvert aux données ,Description des données ,Entrepôt de données - Abstract
Intervention lors du RDV Num 2022 de la MSH Mondes (21/11/2022) pour présenter la plateforme fédérée des données de la recherche Recherche Data Gouv
- Published
- 2022
- Full Text
- View/download PDF
13. Réduction du nombre des prédicats pour les approches de répartition des entrepôts de données.
- Author
-
Ghorbel, Mourad, Tekaya, Karima, and Abdellatif, Abdelaziz
- Abstract
Copyright of Ingénierie des Systèmes d'Information is the property of International Information & Engineering Technology Association (IIETA) and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2016
- Full Text
- View/download PDF
14. Documents et données : l’université à l’ère de la transition numérique
- Author
-
LUCE, Marie-Caroline, Massol, Marion, Université Paris 1 Panthéon-Sorbonne (UP1), Agence de mutualisation des universités et établissements (Amue), Université Paris 1 Panthéon-Sorbonne, and Agence de Mutualisation des Universités
- Subjects
données de recherche ,compétences ,archives du web ,université ,messagerie ,entrepôt de données ,[SHS.INFO]Humanities and Social Sciences/Library and information sciences ,VITAM ,dépôt légal ,RGPD ,métiers ,courrier ,infrastructure ,[SHS]Humanities and Social Sciences ,[SCCO]Cognitive science ,valorisation ,science ouverte ,recherche ,archive augmentée ,mutualisation ,ESR ,SEDA ,données structurées ,CNIL ,SAE ,enquêtes ,méthodologie ,données ,fouille de données ,données statistiques ,risque ,patrimoine numérique ,cycle de vie ,schéma directeur SI ,réseaux sociaux ,collecte du web ,mail engageant ,système d’information ,archivage pérenne ,management ,DPO - Abstract
Journée d'étude; International audience; La transition numérique bouleverse en profondeur nos pratiques professionnelles et pose plusieurs défis aux institutions qui peinent à s’y adapter, faute de connaissances et de stratégies appropriées. L’enseignement supérieur et la recherche ne sont pas exempts des bouleversements qu’elle induit.Dans un monde numérique en perpétuelle mutation, la maîtrise de la production massive de documents nativement numériques ou numérisés et de données, la gestion de leur cycle de vie, leur conservation constituent un enjeu majeur de compétitivité. L’accès à l’information est certes facilité, mais il soulève néanmoins des questions quant au cadre juridique adapté, notamment la protection des données à caractère personnel ou encore la fiabilité et la sécurité des sources. La conception et la mise en œuvre de dispositifs de gestion des documents et données nécessite une approche interdisciplinaire, ce qui signifie une fédération d’acteurs d’horizons divers : DSI, bibliothécaires, archivistes, délégués à la protection des données, enseignants-chercheurs pour une culture commune et une vision intégrée. Sans oublier l’usager qui doit être placé au cœur des dispositifs.Dans ce contexte, il semble impératif d'accompagner la transition numérique de nos institutions en garantissant la préservation de son patrimoine informationnel, mais également les services rendus aux usagers.Cette journée d’étude organisée par le Service des archives, en partenariat avec la Direction de la Recherche et de la Valorisation, de l’université Paris 1 Panthéon-Sorbonne, l’Amue , la DINUM et le SIAF sera l’occasion de faire le point de manière transversale sur les méthodes de traitement, de conservation à long terme, de valorisation des données (données pédagogiques, administratives, de recherche, ressources des bibliothèques et centres de documentation...) et l’apport de ces nouvelles sources aux chercheurs.
- Published
- 2021
15. Entrepôts de données de recherche : mesurer l'impact de l'Open Science à l'aune de la consultation des jeux de données déposés
- Author
-
Violaine Rebouillat, Dispositifs d'Information et de Communication à l'Ère du Numérique - Paris Île-de-France (DICEN-IDF), Université Paris Nanterre (UPN)-Conservatoire National des Arts et Métiers [CNAM] (CNAM), HESAM Université (HESAM)-HESAM Université (HESAM)-Université Gustave Eiffel, HESAM Université - Communauté d'universités et d'établissements Hautes écoles Sorbonne Arts et métiers université (HESAM)-HESAM Université - Communauté d'universités et d'établissements Hautes écoles Sorbonne Arts et métiers université (HESAM)-Université Gustave Eiffel, Université Paris Nanterre (UPN)-Conservatoire National des Arts et Métiers [CNAM] (CNAM)-Université Paris-Est Marne-la-Vallée (UPEM), Université Paris Nanterre (UPN)-Conservatoire National des Arts et Métiers [CNAM] (CNAM)-Université Gustave Eiffel, and REBOUILLAT, Violaine
- Subjects
information scientifique ,entrepôt de données ,[SHS.INFO]Humanities and Social Sciences/Library and information sciences ,données de la recherche ,science ouverte ,[SHS.INFO] Humanities and Social Sciences/Library and information sciences ,communication scientifique - Abstract
National audience; Les décennies 2000 et 2010 ont vu se développer un nombre croissant de e-infrastructures de recherche, rendant plus aisés le partage et l'accès aux données scientifiques. Cette tendance s'est vue renforcée par l'essor de politiques d'ouverture des données, lesquelles ont donné lieu à une multiplication de réservoirs de données – aussi appelés « entrepôts de données ». Quantifier et qualifier l'utilisation des données rendues publiques constitue un élément essentiel pour évaluer l'impact des politiques d'ouverture des données. Dans cet article, nous questionnons l'utilisation des données déposées dans les entrepôts. Dans quelle mesure ces données sont-elles consultées et téléchargées ? L'article présente les premiers résultats d'une enquête quantitative auprès de 20 entrepôts. Il esquisse deux tendances, qui restent à ce stade propres à l'échantillon étudié, à savoir : (1) l'augmentation globale du nombre de consultations, de téléchargements et de données disponibles dans les entrepôts sur la période étudiée (2015-2020), et (2) la concentration des téléchargements sur une proportion relativement faible des données de l'entrepôt (de l'ordre de 10% à 30%).
- Published
- 2020
16. L'intelligence artificielle au secours de la biodiversité
- Author
-
Mangeas, Morgan, Iovan, Corina, Vigliola, Laurent, Ecologie marine tropicale des océans Pacifique et Indien (ENTROPIE [Nouvelle-Calédonie]), Institut de Recherche pour le Développement (IRD [Nouvelle-Calédonie])-Ifremer - Nouvelle-Calédonie, Institut Français de Recherche pour l'Exploitation de la Mer (IFREMER)-Institut Français de Recherche pour l'Exploitation de la Mer (IFREMER)-Université de la Nouvelle-Calédonie (UNC), Agnèse, Jean-François (dir.), Dangles, Olivier (dir.), Rodary, Estienne (dir.), Verdier, Valérie (préf.), Sabrié, Marie-Lise (ed.), Mourier, Thomas (ed.), Lavagne, Corinne (ed.), Thivent, V. (rédac.), and HORIZON, IRD
- Subjects
CONSERVATION DE LA NATURE ,ZONE TROPICALE ,BIODIVERSITE ,[SCCO.COMP]Cognitive science/Computer science ,INTELLIGENCE ARTIFICIELLE ,DIVERSITE SPECIFIQUE ,[SDE.BE] Environmental Sciences/Biodiversity and Ecology ,[SCCO.COMP] Cognitive science/Computer science ,FOUILLE DE DONNEES ,RECHERCHE PLURIDISCIPLINAIRE ,GESTION DE L'ENVIRONNEMENT ,COLLECTE DE DONNEES ,[SDE.BE]Environmental Sciences/Biodiversity and Ecology ,ENTREPOT DE DONNEES - Published
- 2020
17. Développer un entrepôt de données : Une approche collaborative de groupe
- Author
-
Sakka, Amir, Zarate, Pascale, and Méthodes d'analyse des indicateurs de biodiversité dans le contexte agricole centrés données et utilisateurs VGI - - VGI4Bio2017 - ANR-17-CE04-0012 - AAPG2017 - VALID
- Subjects
[INFO.INFO-AI] Computer Science [cs]/Artificial Intelligence [cs.AI] ,[INFO.INFO-RO] Computer Science [cs]/Operations Research [cs.RO] ,Collaborative design ,Requirement engineering ,Ingénierie des exigences ,crowdsourced data ,entrepôt de données ,science citoyenne ,data warehouse ,conceptual modelling ,systèmes de recommandation ,VGI ,données participatives ,[INFO] Computer Science [cs] ,modélisation multidimensionnelle ,modélisation conceptuelle ,Thinklets ,OLAP systems ,Conception collaborative ,GDSS ,citizen science ,multidimensional modelling ,recommender systems ,systèmes OLAP - Abstract
Data warehouses (DWs) are widely known for their powerful analysis capabilities that serve either for historic data investigation or for predictions of potentially continuous phenomena. However, they are still in most cases limitedly used except by enterprises or governments while, with the huge amounts of data produced and collected by the Web2.0 technologies, many other unusual users might benefit from analysing their data if DWs are properly dedicated to their specific needs. They might be association adherents, online community members, observatory volunteers, etc. Unlike in classical contexts, requirements engineering RE with volunteers lacks group cohesion and straightforward strategic objectives. This is hence because they come with different backgrounds and they do not have an acknowledged representative leadership, which would very likely lead to multiple contradictory interpretations of the data and consequently of conflictual requirements. When stakeholders have divergent goals, it becomes problematic to maintain an agreement between them, especially when it comes to eliciting DW requirements whose future use is meant to serve as larger interested public as it possibly could. In this work, we propose a new generic and participative DW design methodology that relies on a Group Decision Support System (GDSS) to support the collaboration of the engaged volunteers. We suggest in this methodology two RE scenarios, (i) using GDSS for a collaborative elicitation when groups of users with common objectives are identifiable or (ii) with pivot tables and rapid prototyping formalisms when only individual volunteers are participating. Then, we reduce the number of the resulting models by fusing them based on their multidimensional (MD) similarities. The fused models require a further refinement that focuses on solving the remaining subject matter inconsistencies that are due to either erroneous definitions of unspecialized volunteers or to conceptually admissible, but irrelevant to the application domain, newly generated elements after the fusion. This is handled by the “collaborative resolution of requirement conflicts” step that we defined two methods for its execution. The first is a simplified collaborative method that we evaluate in which each model’s MD elements against a reduced number of criteria that apply for each component’stype using an existing GDSS that allows the collaborative process execution. The second is a profile-aware method that we suggest for which a more detailed set of evaluation criteria and adaptability of the collaborative process to allow its use by both crowdsourcing and enterprise DW design projects. As GDSS are designed to support a group engaged in a collective decision process, which is the main tool that we rely on which in two stages of our methodology i.e. RE and collaborative refinement of the fused models, we also propose a new GDSS that we adopted in its architecture the concept of Thinklets i.e. a well-known design pattern for collaborative processes. In addition to the group activities reproducibility that offers the concept of Thinklets, we have as well implemented a recommender system prototype that is mainly based on a hierarchical division of decision categories and an automatization of certain assistive functionalities to allow a guided and appropriate use of the system devoted to the facilitator. This has been done after a set of experiments conducted with real volunteer users engaged in solving risk management and uncertainty group problems. The new GDSS that we suggest introduces a customized implementation of certain Thinklets in order to improve their suitability to our methodology as well as for novice and inexperienced users from a more general perspective. In addition to that, we propose a new Thinklet, namely CollaborativeDW, that allows a fluid configuration and dynamic execution of our second refinement method i.e. the profile-aware approach, and that we have tested with real users., Les entrepôts de données (EDs) sont connus pour leurs puissantes capacités d'analyse qui servent soit à la fouille de données historiques soit à la prévision de phénomènes potentiellement continus. Cependant, dans la plupart des cas, ils sont encore utilisés de manière limitée, sauf par les entreprises ou les gouvernements alors que, avec les énormes quantités de données produites et collectées par les technologies Web 2.0, de nombreux autres utilisateurs inhabituels pourraient bénéficier de l'analyse de leurs données si les EDs sont correctement dédiés à leurs besoins spécifiques. Il peut s'agir d'adhérents à une association, de membres d’une communauté en ligne, de volontaire d’un observatoire, etc. Contrairement aux contextes classiques, l’ingénierie des exigences (IE) avec les volontaires manque de cohésion de groupe et d'objectifs stratégiques précis. En effet, ils viennent d'horizons différents et n'ont pas un leadership représentatif reconnu, ce qui conduirait très probablement à de multiples interprétations contradictoires des données et par conséquent à des exigences conflictuelles. Lorsque les parties prenantes ont des objectifs divergents, il devient problématique de maintenir un accord entre elles, en particulier lorsqu'il s'agit d’éliciter des exigences d'ED dont l'utilisation future est destinée à servir le plus grand public intéressé possible. Dans ce travail, nous proposons une nouvelle méthodologie de conception participative d’ED, qui s'appuie sur un système d'aide à la décision de groupe (GDSS). Nous proposons deux scénarios d'IE (i) utiliser le GDSS pour une élicitation collaborative lorsque des groupes d'utilisateurs ayant des objectifs communs sont identifiables ou (ii) avec des tableaux croisés dynamiques et des formalismes de prototypage rapide lorsque seuls des volontaires individuels y participent. Ensuite, nous réduisons le nombre de modèles résultants en les fusionnant en fonction de leurs similitudes multidimensionnelles (MD). Les modèles fusionnés nécessitent une amélioration supplémentaire qui se concentre sur la résolution des incohérences causées soit par des définitions erronées de volontaires non spécialisés, soit par des éléments, conceptuellement admissibles mais sans rapport avec le domaine d'application, qui sont nouvellement générés après la fusion. Ceci est géré par la résolution collaborative des conflits d'exigences que nous avons défini au travers des deux méthodes précédemment évoquées. (i) Une méthode collaborative simplifiée que nous évaluons dans laquelle les éléments MD par rapport à un nombre réduit de critères en utilisant un GDSS existant qui permet l'exécution du processus collaboratif (PC). (ii) Une méthode sensible au profil que nous suggérons pour laquelle un ensemble plus détaillé de critères d'évaluation et une adaptabilité du PC pour permettre son utilisation à la fois dans des projets de crowdsourcing et d'entreprise. Nous proposons également un nouveau GDSS dans lequel nous nous sommes inspirés dans son architecture du concept de Thinklet, qui est un modèle de conception bien connu dans la littérature pour les PCs. En plus de la reproductibilité des activités de groupe qu’offrent les Thinklets, nous avons implémenté un prototype d’un système de recommandation qui est basé sur une hiérarchisation des catégories de décision pour permettre une utilisation guidée et appropriée du système pour le facilitateur. Cela a été testé par des expériences menées avec de vrais utilisateurs volontaires engagés dans la résolution de problèmes de gestion de risques et d'incertitude. Nous introduisons dans ce GDSS une implémentation personnalisée de certains Thinklets afin d'améliorer leur adéquation à notre méthodologie ainsi qu'aux utilisateurs novices et inexpérimentés dans une perspective plus générale. En plus de cela, nous proposons un nouveau Thinklet, à savoir CollaborativeDW, qui permet une configuration dynamique de notre deuxième méthode de résolution de conflits, et que nous avons testée avec de vrais utilisateurs.
- Published
- 2020
18. Préservez, partagez et réutilisez des enquêtes qualitatives : présentation de la plateforme beQuali
- Author
-
Garcia, Guillaume, Fromont, Emilie, Centre de données socio-politiques de Sciences Po (Sciences Po, CNRS) (CDSP), Centre National de la Recherche Scientifique (CNRS)-Sciences Po (Sciences Po), Centre de recherches politiques de Sciences Po (Sciences Po, CNRS) (CEVIPOF), Sciences Po (Sciences Po)-Centre National de la Recherche Scientifique (CNRS), and Sciences Po Institutional Repository, Spire
- Subjects
analyse de données ,méthodes ,[SHS.STAT]Humanities and Social Sciences/Methods and statistics ,[SHS.SOCIO]Humanities and Social Sciences/Sociology ,[SHS.SOCIO] Humanities and Social Sciences/Sociology ,entrepôt de données ,documentation ,[SHS.SCIPO]Humanities and Social Sciences/Political science ,enquête qualitative ,bequali ,archivage ,diffusion de données ,[SHS.STAT] Humanities and Social Sciences/Methods and statistics ,données de la recherche ,[SHS.SCIPO] Humanities and Social Sciences/Political science ,analyse secondaire - Published
- 2019
19. Traitement automatique de la langue pour une réponse rapide dans le cadre d’une maladie émergente : exemple de la COVID-19
- Author
-
Antoine Neuraz, Ivan Lerner, Nicolas Garcelon, Anita Burgun, Rosy Tsopra, D. Baudoin, Kevin Bretonnel Cohen, A. Rosier, William Digan, and Bastien Rance
- Subjects
Epidemiology ,Public Health, Environmental and Occupational Health ,COVID-19 ,10.19 ,Entrepôt de données ,Traitement automatique du langage - Abstract
Introduction Une maladie emergente pose des problemes specifiques pour les outils informatiques. L’informatique biomedicale repose en grande partie sur les donnees structurees qui requierent l’existence de donnees ou de modeles de connaissances. Cependant, une nouvelle maladie ne peut avoir de modele de connaissances preexistant. Au cours d’une epidemie de maladie emergente, le traitement automatique de la langue (TAL) peut permettre la conversion rapide de donnees textuelles non structurees en un nouveau modele de connaissances. Bien que cette idee ait deja ete suggeree, il n’y avait pas eu jusqu’a present d’opportunite pour la tester en temps reel. La pandemie actuelle de COVID-19 en est une. L’objectif de cette etude etait de montrer la valeur ajoutee de l’extraction par TAL de l’information clinique presente dans les textes pour repondre aux questions posees dans le cadre d’une maladie emergente. Methodes Nous avons explore les effets a long-terme des traitements par inhibiteurs calciques sur le devenir des patients hypertendus, hospitalises pour une infection COVID-19. Dans l’entrepot de donnees de sante de l’AP-HP, nous avons compare deux sources differentes d’information : les donnees structurees (codes diagnostics CIM10, resultats biologiques, prescriptions medicamenteuses) et les donnees extraites des textes cliniques par TAL. Resultats Dans cette etude multicentrique sur les 39 hopitaux de l’AP-HP, le TAL a permis d’augmenter suffisamment la puissance statistique pour rendre significatif un resultat de risque relatif ajuste alors qu’il ne l’etait pas avec les donnees structurees uniquement ( Fig. 1 ). En comparant aux donnees structurees, le nombre de patients incluables dans l’etude a ete multiplie par 2,95, la quantite d’information sur les medicaments par 7,2 et les informations phenotypiques par 11,9. Conclusion Dans notre etude, l’utilisation d’inhibiteurs calciques etait associee a une diminution de la mortalite intra-hospitaliere chez les patients avec une infection COVID-19. Ces resultats ont ete obtenus en adaptant rapidement des pipelines TAL au domaine d’une nouvelle maladie. Ce pipeline d’extraction etait suffisamment performant pour extraire des informations utiles. Quand ces informations ont ete utilisees pour enrichir les donnees structurees deja disponibles, l’echantillon de l’etude a pu etre suffisamment augmente pour voir apparaitre un effet de traitement qui n’etait jusqu’alors pas detectable.
- Published
- 2021
20. Approche dirigée par les fourmis pour la fragmentation horizontale dans les entrepôts de données relationnels.
- Author
-
BARR, Mohamed and BELLATRECHE, Ladjel
- Abstract
Le sujet abordé rentre dans le contexte de l’optimisation des entrepôts de données relationnels. Il consiste à utiliser l’algorithme basé sur les colonies de fourmis pour la sélection de la fragmentation horizontale, qui représente l’une des techniques d’optimisation non redondantes. Le caractère NP-Complet caractérisant le problème de sélection de cette technique justifie le recours aux méthodes approchées ou « méta heuristiques ». A travers cet article , nous avons modélisé notre problème de sélection d’un schéma de fragmentation horizontale en utilisant l’approche basée sur les colonies de fourmis. Les variables d’entrées sont: l’entrepôt de données non fragmenté, la charge de requêtes fréquemment utilisées et le nombre maximal de fragments exigé par l’administrateur de l’entrepôt de données (AED). Le résultat en sortie est le schéma de fragmentation horizontale qui minimise le coût global de la charge des requêtes. Le paramétrage approprié de dépôt de la phéromone et l’expression significative de l’heuristique qui représente la visibilité, nous ont permis d’obtenir des résultats très satisfaisants. L’expérimentation de notre approche en utilisant un Benchmark (APB1 dans notre cas) est un moyen important pour vérifier l’efficacité de la méthode proposée d’une part, et de pouvoir la situer par rapport à d’autres méthodes qui existent dans ce domaine, d’autre part. [ABSTRACT FROM AUTHOR]
- Published
- 2012
21. Data warehousing for construction equipment management.
- Author
-
Hongqin Fan, Hyoungkwan Kim, and Zaïane, Osmar R.
- Subjects
- *
COMPUTER networks , *MANAGEMENT information systems , *DATA warehousing , *PROJECT management , *DECISION support systems , *CONSTRUCTION equipment - Abstract
Equipment logistics, maintenance, and repair are important aspects of construction equipment management. A well-managed equipment fleet helps reduce downtime, as well as total maintenance and repair costs. With quickly growing fleets of equipment, large contractors tend to divert the maintenance and repair of equipment from equipment managers to project managers. As a result, the equipment managers shift their attention from operational-level decision-making to corporate-level strategic decision-making regarding equipment management, which is often a challenging job with the current equipment management system. This paper presents an equipment data warehouse and a prototype decision support system (DSS). The proposed equipment data warehouse enables equipment managers to visually analyze the equipment fleet data from different perspectives and at various level of details. The data-warehouse-based DSS facilitates high-level, fact-based decision-making regarding equipment logistics, supplies, maintenance, repair, and replacement and has higher levels of performance and flexibility than the current equipment management system. [ABSTRACT FROM AUTHOR]
- Published
- 2006
- Full Text
- View/download PDF
22. SIMS@REIN: a multi-source information system for end-stage renal disease.
- Author
-
Landais, Paul, Simonet, Ana, Guillon, Didier, Jacquelinet, Christian, Saïd, Mohamed Ben, Mugnier, Claude, and Simonet, Michel
- Subjects
- *
CHRONIC kidney failure , *MEDICAL informatics , *PUBLIC health - Abstract
In France, the prevalence of End-Stage Renal Disease (ESRD) is not precisely known. The sources of information are scattered and not coordinated. Consequently, care is ill adapted to meet the demand. The Multi-Source Information System is the basis of the Renal Epidemiology and Information Network (REIN). It is dedicated to improve and organise our medical and epidemiological knowledge of ESRD and to aid public health decision-making in this area. The proposed approach is based on the datawarehouses. This model allows a unified vision of scattered data into distinct databases, for a better management, be it particular (patient follow-up) or global (regional follow-up), with a finality of aid in decision-making. Several categories of problems were considered: the global conception of the information system, the organisation of the datawarehouse, which offers different viewpoints of the data, the integration of heterogeneous data coming from different sources, data exchange and definition of a specific ontology. [Copyright &y& Elsevier]
- Published
- 2002
- Full Text
- View/download PDF
23. Enquête sur l'enquête 'Les réseaux économiques souterrains en cité de transit (1981-2010)' de Jean-François Laé et Numa Murard
- Author
-
Jeremie Vandenbunder, Emilie Groshens, Guillaume Garcia, Centre de données socio-politiques de Sciences Po (CDSP), Sciences Po (Sciences Po)-Centre National de la Recherche Scientifique (CNRS), beQuali, Centre de données socio-politiques de Sciences Po (Sciences Po, CNRS) (CDSP), and Centre National de la Recherche Scientifique (CNRS)-Sciences Po (Sciences Po)
- Subjects
logement ,[SHS.SOCIO]Humanities and Social Sciences/Sociology ,groupes sociaux ,économie ,entrepôt de données ,réanalyse ,[SHS.ANTHRO-SE]Humanities and Social Sciences/Social Anthropology and ethnology ,pauvreté ,enquête qualitative ,bequali ,aide sociale ,données de la recherche ,vie quotitidienne ,analyse secondaire ,bas quartiers - Abstract
L’enquête « Les réseaux économiques souterrains en cité de transit » a été réalisée par Jean-François Laé, professeur émérite de l’Université Paris 8 Vincennes – Saint Denis et Numa Murard, professeur émérite de l’Université Paris Diderot. Elle a la particularité d’avoir été menée en deux fois, puisqu’elle a donné lieu à une première enquête réalisée au début des années 1980 puis à un retour sur enquête en 2010. L’origine de cette recherche remonte à l’expérience de Jean-François Laé comme travailleur social dans une cité dite de transit de la ville d’Elbeuf, en Seine-Maritime. Après sa rencontre avec Numa Murard au CERFI (Centre d’études, de recherche et de formation institutionnelle), ils décident tous deux de réaliser cette enquête, ayant obtenu des financements de la CNAF (Caisse nationale des affaires familiales) et du ministère de l’Urbanisme et du Logement. Elle donnera lieu à la rédaction d’un rapport et à la publication d’un ouvrage en 1985, L’Argent des pauvres. Trente ans plus tard, les deux chercheurs décident de revenir sur les terrains de leur première enquête, dans le cadre d’un documentaire radiophonique. Un ouvrage sera publié suite à ce retour, intitulé Deux générations dans la débine et paru en 2012. Pour l’enquête initiale comme pour le retour sur enquête, les deux chercheurs se sont immergés en ethnographes dans la vie quotidienne des habitants de la cité de transit. S’ils se sont principalement focalisés sur la vie économique des enquêtés, ils ont ouvert un ensemble de thématique allant bien au-delà de ce que laisse à penser le titre de l’enquête. Si la méthodologie est particulière, la méthode d’exposition l’est tout autant puisqu’elle ressort de ce que Jean-François Laé et Numa Murard appellent la « sociologie narrative ». Le corpus de documents fourni par les chercheurs a trait aux deux étapes de cette recherche. Il réunit notamment un carnet de terrain et le rapport publié suite à la première enquête, de même que différentes notes préparatoires, des photos et des transcriptions d’enregistrements collectés lors du retour sur enquête. S’il est parcellaire du fait de la perte de certains documents, ce corpus donne une idée précise des méthodes d’enquête des deux chercheurs et ouvre des pistes de réutilisation, notamment dans un cadre pédagogique.Deux entretiens ont été réalisés par l'équipe beQuali avec les auteurs de l'enquête : le premier avec Jean-François Laé,Numa Murard et Fabien Deshayes au CRESPPA, le deuxième avec Jean-François Laé et Numa Murard au CDSP.
- Published
- 2019
24. Enquête sur l'enquête 'Les réseaux économiques souterrains en cité de transit (1981-2010)' de Jean-François Laé et Numa Murard
- Author
-
Vandenbunder, Jeremie and Groshens, Emilie
- Subjects
logement ,économie ,groupes sociaux ,entrepôt de données ,jel:sciences sociales ,réanalyse ,jel:méthodologie ,pauvreté ,jel:ethnologie ,enquête qualitative ,bequali ,jel:sociologie des classes populaires ,aide sociale ,données de la recherche ,vie quotitidienne ,analyse secondaire ,jel:sociologie urbaine ,bas quartiers - Abstract
L’enquête « Les réseaux économiques souterrains en cité de transit » a été réalisée par Jean-François Laé, professeur émérite de l’Université Paris 8 Vincennes – Saint Denis et Numa Murard, professeur émérite de l’Université Paris Diderot. Elle a la particularité d’avoir été menée en deux fois, puisqu’elle a donné lieu à une première enquête réalisée au début des années 1980 puis à un retour sur enquête en 2010. L’origine de cette recherche remonte à l’expérience de Jean-François Laé comme travailleur social dans une cité dite de transit de la ville d’Elbeuf, en Seine-Maritime. Après sa rencontre avec Numa Murard au CERFI (Centre d’études, de recherche et de formation institutionnelle), ils décident tous deux de réaliser cette enquête, ayant obtenu des financements de la CNAF (Caisse nationale des affaires familiales) et du ministère de l’Urbanisme et du Logement. Elle donnera lieu à la rédaction d’un rapport et à la publication d’un ouvrage en 1985, L’Argent des pauvres. Trente ans plus tard, les deux chercheurs décident de revenir sur les terrains de leur première enquête, dans le cadre d’un documentaire radiophonique. Un ouvrage sera publié suite à ce retour, intitulé Deux générations dans la débine et paru en 2012. Pour l’enquête initiale comme pour le retour sur enquête, les deux chercheurs se sont immergés en ethnographes dans la vie quotidienne des habitants de la cité de transit. S’ils se sont principalement focalisés sur la vie économique des enquêtés, ils ont ouvert un ensemble de thématique allant bien au-delà de ce que laisse à penser le titre de l’enquête. Si la méthodologie est particulière, la méthode d’exposition l’est tout autant puisqu’elle ressort de ce que Jean-François Laé et Numa Murard appellent la « sociologie narrative ». Le corpus de documents fourni par les chercheurs a trait aux deux étapes de cette recherche. Il réunit notamment un carnet de terrain et le rapport publié suite à la première enquête, de même que différentes notes préparatoires, des photos et des transcriptions d’enregistrements collectés lors du retour sur enquête. S’il est parcellaire du fait de la perte de certains documents, ce corpus donne une idée précise des méthodes d’enquête des deux chercheurs et ouvre des pistes de réutilisation, notamment dans un cadre pédagogique. Deux entretiens ont été réalisés par l'équipe beQuali avec les auteurs de l'enquête : le premier avec Jean-François Laé,Numa Murard et Fabien Deshayes au CRESPPA, le deuxième avec Jean-François Laé et Numa Murard au CDSP.
- Published
- 2019
25. Cas pratiques d'anonymisation d'enquêtes qualitatives
- Author
-
Fromont, Emilie, Groshens, Emilie, Centre de données socio-politiques de Sciences Po (Sciences Po, CNRS) (CDSP), Centre National de la Recherche Scientifique (CNRS)-Sciences Po (Sciences Po), Centre de recherches politiques de Sciences Po (Sciences Po, CNRS) (CEVIPOF), Sciences Po (Sciences Po)-Centre National de la Recherche Scientifique (CNRS), and Sciences Po Institutional Repository, Spire
- Subjects
[SHS.SOCIO] Humanities and Social Sciences/Sociology ,[SHS.GEO] Humanities and Social Sciences/Geography ,[SHS.EDU]Humanities and Social Sciences/Education ,[SHS.INFO]Humanities and Social Sciences/Library and information sciences ,entrepôt de données ,[SHS.EDU] Humanities and Social Sciences/Education ,protection des données ,[SHS.PSY]Humanities and Social Sciences/Psychology ,[SHS.DEMO]Humanities and Social Sciences/Demography ,[SHS.INFO] Humanities and Social Sciences/Library and information sciences ,[SHS.PSY] Humanities and Social Sciences/Psychology ,[SHS.HISPHILSO]Humanities and Social Sciences/History, Philosophy and Sociology of Sciences ,droit des personnes ,bequali ,[SHS.HISPHILSO] Humanities and Social Sciences/History, Philosophy and Sociology of Sciences ,données personnelles ,[SHS.STAT] Humanities and Social Sciences/Methods and statistics ,données de la recherche ,[SHS.LANGUE]Humanities and Social Sciences/Linguistics ,méthodes ,[SHS.ANTHRO-SE] Humanities and Social Sciences/Social Anthropology and ethnology ,[SHS.SOCIO]Humanities and Social Sciences/Sociology ,[SHS.STAT]Humanities and Social Sciences/Methods and statistics ,[SHS.DEMO] Humanities and Social Sciences/Demography ,jel:sciences sociales ,[SHS.GEO]Humanities and Social Sciences/Geography ,[SHS.ANTHRO-SE]Humanities and Social Sciences/Social Anthropology and ethnology ,jel:méthodologie ,[SHS.GENRE] Humanities and Social Sciences/Gender studies ,[SHS.LANGUE] Humanities and Social Sciences/Linguistics ,[SHS.SCIPO]Humanities and Social Sciences/Political science ,enquête qualitative ,[SHS.HIST] Humanities and Social Sciences/History ,[SHS.GENRE]Humanities and Social Sciences/Gender studies ,[SHS.HIST]Humanities and Social Sciences/History ,confidentialité ,[SHS.SCIPO] Humanities and Social Sciences/Political science ,anonymat - Published
- 2019
26. Les enjeux de la réanalyse:L'analyse de données qualitatives (Action nationale de formation CNRS)
- Author
-
Garcia, Guillaume, Groshens, Emilie, and Centre National de la Recherche Scientifique (CNRS)
- Subjects
analyse de données ,méthodes ,enquête qualitative ,bequali ,archivage ,entrepôt de données ,diffusion de données ,données de la recherche ,jel:sciences sociales ,réanalyse ,jel:méthodologie ,documentation ,analyse secondaire - Abstract
Objectif : Ce module vise à sensibiliser aux problématiques et enjeux de la réanalyse de deux manières : par une meilleure connaissance de l’état et de la littérature disponible sur la réanalyse en France et à l’étranger d’une part ; par une sensibilisation aux grandes questions qui organisent les réflexions sur les conditions de possibilité de la réanalyse d’autre part. Démarche pédagogique : On veillera à retracer les grandes lignes du développement de cette pratique dans les sciences sociales et l’état le plus actuel des recherches menées en France. Il s’agira notamment de souligner les conditions de la réanalyse à partir d’exemples de controverses. Nous aborderons ainsi plusieurs enjeux, notamment : - les intérêts de la réanalyse, tant du point de vue de l’utilisateur de données que de celui qui partage ses données ; - les formes de réanalyse selon le rapport aux chercheurs premiers et aux objectifs poursuivis ; - les étapes préalables nécessaires avant de se lancer dans une réanalyse (compréhension du lien entre orientations théoriques et méthodologiques de l’enquête ; appréhension de la structuration du corpus, etc.) ; - la contextualisation des données (documentation). Un atelier sur la mise en pratique de la réanalyse complète ce module.
- Published
- 2019
27. Les banques d'enquêtes qualitatives:L'analyse de données qualitatives (Action nationale de formation CNRS)
- Author
-
Garcia, Guillaume, Groshens, Emilie, and Centre National de la Recherche Scientifique (CNRS)
- Subjects
données de recherche ,enquête qualitative ,analyse de données ,bequali ,entrepôt de données ,jel:sciences sociales ,réanalyse ,jel:méthodologie ,analyse secondaire - Abstract
Objectif : Il s’agira de proposer un panorama des banques de données qualitatives existant en France et à l’international Démarche pédagogique : La présentation dressera un éventail des ressources existantes, tant du point de vue des types d’enquêtes consultables (disciplines, objets de recherche, types de matériaux disponibles, etc.) que des conditions d’accès aux données (outils d’exploration, contrats et conditions d’utilisation, etc.).
- Published
- 2019
28. La chaîne de transformation des données : différentes approches à partir du catalogue BeQuali:L'analyse de données qualitatives (Action nationale de formation CNRS)
- Author
-
Garcia, Guillaume, Groshens, Emilie, and Centre National de la Recherche Scientifique (CNRS)
- Subjects
enquête qualitative ,méthodes ,données de recherche ,analyse de données ,bequali ,entrepôt de données ,jel:sciences sociales ,jel:méthodologie - Abstract
Objectif : Il s’agira de faire le point sur l’étape préalable à l’analyse de corpus textuels, qu’elle soit assistée par logiciels ou complètement libre (méthode “papier-crayon”), en l’illustrant de plusieurs méthodes tirées de la banque d’enquêtes beQuali. L’idée est de montrer comment l’étape de préparation peut être menée en pratique, à partir d’enquêtes exemplaires de ces différentes démarches. Démarche pédagogique : Nous aborderons la fabrique de “métadonnées”, visualisations ou documents supports qui permettent de garder trace des principales informations que l’on souhaite pouvoir facilement mobiliser sur un terrain donné, à propos de tel ou tel individu ou groupes d’individus. Cela va de la remise en mots ou en forme des données brutes à une conceptualisation plus ou moins poussée des données, permettant de construire des hypothèses, une théorisation. En particulier, nous montrerons les principales formes que ces documents supports peuvent prendre : mémos, résumés, synthèses d’entretiens, graphes ou cartes mentales, etc. à partir d’enquêtes du catalogue beQuali 3 exemples contrastés de documents seront ainsi commentés - schéma, texte, tableau - dans le but de montrer comment ils se situent dans une chaîne d’analyse et comment l’information y est organisée selon le processus intellectuel et la démarche d’analyse - représentation graphique, textuelle, quantifié.
- Published
- 2019
29. Anonymiser des enquêtes qualitatives pour leur diffusion et leur réutilisation
- Author
-
Cadorel, Sarah, Groshens, Emilie, Sciences Po Institutional Repository, Spire, Centre de données socio-politiques de Sciences Po (Sciences Po, CNRS) (CDSP), and Centre National de la Recherche Scientifique (CNRS)-Sciences Po (Sciences Po)
- Subjects
[SHS.SOCIO] Humanities and Social Sciences/Sociology ,[SHS.EDU]Humanities and Social Sciences/Education ,[SHS.INFO]Humanities and Social Sciences/Library and information sciences ,[SHS.GEO] Humanities and Social Sciences/Geography ,entrepôt de données ,[SHS.EDU] Humanities and Social Sciences/Education ,protection des données ,[SHS.PSY]Humanities and Social Sciences/Psychology ,[SHS.DEMO]Humanities and Social Sciences/Demography ,[SHS.INFO] Humanities and Social Sciences/Library and information sciences ,[SHS.HISPHILSO]Humanities and Social Sciences/History, Philosophy and Sociology of Sciences ,[SHS.PSY] Humanities and Social Sciences/Psychology ,bequali ,droit des personnes ,[SHS.HISPHILSO] Humanities and Social Sciences/History, Philosophy and Sociology of Sciences ,données personnelles ,[SHS.STAT] Humanities and Social Sciences/Methods and statistics ,données de la recherche ,[SHS.LANGUE]Humanities and Social Sciences/Linguistics ,méthodes ,[SHS.ANTHRO-SE] Humanities and Social Sciences/Social Anthropology and ethnology ,[SHS.SOCIO]Humanities and Social Sciences/Sociology ,[SHS.STAT]Humanities and Social Sciences/Methods and statistics ,[SHS.DEMO] Humanities and Social Sciences/Demography ,jel:sciences sociales ,[SHS.GEO]Humanities and Social Sciences/Geography ,[SHS.ANTHRO-SE]Humanities and Social Sciences/Social Anthropology and ethnology ,jel:méthodologie ,[SHS.GENRE] Humanities and Social Sciences/Gender studies ,[SHS.LANGUE] Humanities and Social Sciences/Linguistics ,[SHS.SCIPO]Humanities and Social Sciences/Political science ,enquête qualitative ,[SHS.HIST] Humanities and Social Sciences/History ,[SHS.GENRE]Humanities and Social Sciences/Gender studies ,[SHS.HIST]Humanities and Social Sciences/History ,confidentialité ,[SHS.SCIPO] Humanities and Social Sciences/Political science ,anonymat - Published
- 2019
30. beQuali : banque d’enquêtes qualitatives en SHS
- Author
-
Vandenbunder, Jeremie, Centre de données socio-politiques de Sciences Po (Sciences Po, CNRS) (CDSP), Centre National de la Recherche Scientifique (CNRS)-Sciences Po (Sciences Po), and Sciences Po Institutional Repository, Spire
- Subjects
[SHS.SOCIO]Humanities and Social Sciences/Sociology ,[SHS.SOCIO] Humanities and Social Sciences/Sociology ,beQuali ,entrepôt de données ,données de la recherche ,[SHS.SCIPO] Humanities and Social Sciences/Political science ,[SHS.SCIPO]Humanities and Social Sciences/Political science - Published
- 2019
31. Acquisition du rythme cardiaque fœtal et analyse de données pour la recherche de facteurs prédictifs de l’acidose fœtale
- Author
-
Houzé de l'Aulnoit, Agathe, Evaluation des technologies de santé et des pratiques médicales - ULR 2694 (METRICS), Université de Lille-Centre Hospitalier Régional Universitaire [Lille] (CHRU Lille), Université de Lille, and Régis Beuscart
- Subjects
Analyse automatique du RCF ,Data warehouse ,Fetal hypoxia ,Intrapartum predictive factors ,Facteurs prédictifs intrapartum ,Fetal heart rate monitoring ,Acidose néonatale ,Entrepôt de données ,FHR automated analysis ,Hypoxie foetale ,Surveillance du rythme cardiaque foetal ,Neonatal acidosis ,[SDV.MHEP]Life Sciences [q-bio]/Human health and pathology - Abstract
Visual analysis of the fetal heart rate FHR is a good method for screening for fetal hypoxia but is not sufficiently specific. The visual morphological analysis of the FHR during labor is subject to inter- and intra-observer variability – particularly when the FHR is abnormal. Underestimating the severity of an FHR leads to undue risk-taking for the fetus with an increase in morbidity and mortality and overvaluation leads to unnecessary obstetric intervention with an increased rate of caesarean section. This last point also induces a French public health problem.FHR automated analysis reduces inter and intra-individual variability and accesses other calculated parameters aimed at increasing the diagnostic value. The FHR morphological analysis parameters (baseline, number of accelerations, number and typing of decelerations, long-term variability (LTV)) were described as well as others such as the decelerations surfaces, short-term variability (STV) and frequency analyzes. Nevertheless, when attempting to analyze the FHR automatically, the main problem is computation of the baseline against which all the other parameters are determined.Automatic analysis provides information on parameters that cannot be derived in a visual analysis and that are likely to improve screening for fetal acidosis during labor.The main objective of the thesis is to establish a predictive model of fetal acidosis from a FHR automated analysis. The secondary objective is to determine the relevance of the classical basic parameters (CNGOF 2007) (baseline, variability, accelerations, decelerations) and that of other parameters inaccessible to the eye (indices of short-term variability, surfaces of decelerations, frequency analysis ...). Later, we want to identify decision criteria that will help in the obstetric care management.We propose to validate FHR automated analysis during labor through a case-control study; cases were FHR recordings of neonatal acidosis (arterial cord pH less than or equal to 7.15) and controls, FHR recordings of neonatal without acidosis (arterial cord pH upper than or equal to 7.25). This is a monocentric study at the maternity hospital of Saint Vincent de Paul Hospital, GHICL - Lille, on our « Well Born » database (digital archiving of RCF plots since 2011), with a sufficient number of cases on this only center. Since 2011, the Saint Vincent de Paul hospital (GHICL) has had about 70 cases per year of neonatal acidosis (pHa less than or equal to 7.10) (3.41%). The R software will be used for statistical analysis.; L’analyse visuelle du rythme cardiaque fœtal (RCF) est une excellente méthode de dépistage de l’hypoxie fœtale. Cette analyse visuelle est d’autre part sujette à une variabilité inter- et intra-individuelle importante. L’hypoxie fœtale au cours du travail s’exprime par des anomalies du RCF. La sous-évaluation de la gravité d’un RCF entraine une prise de risque indue pour le fœtus avec une augmentation de sa morbi-mortalité et sa surévaluation entraine un interventionnisme obstétrical inutile avec une augmentation du taux de césariennes. Ce dernier point pose par ailleurs en France un problème de santé publique.L’analyse automatisée du signal RCF permet de diminuer la variabilité inter- et intra-individuelle et d’accéder à d’autres paramètres calculés visant à augmenter la valeur diagnostique. Les critères d’analyse morphologiques du RCF (ligne de base, nombre d’accélérations, nombre et typage des ralentissements, variabilité à long terme (VLT)) ont été décrits ainsi que d’autres tels que les surfaces des ralentissements, les indices de variabilité à court terme (VCT) et les analyses fréquentielles. Il n’en demeure pas moins que la définition de la ligne de base, à partir de laquelle sont repérés les accélérations et les ralentissements reste, dans certains cas, difficile à établir.L’objectif principal de la thèse est d’établir un modèle prédictif de l’acidose fœtale à partir d’une analyse automatisée du RCF. L’objectif secondaire est de déterminer la pertinence des différents paramètres élémentaires classiques (CNGOF 2007) (fréquence de base, variabilité, accélérations, ralentissements) et celle d’autres paramètres inaccessible à l’œil (indices de variabilité à court terme, surfaces des ralentissements, analyse fréquentielle…). Par la suite, nous voulons identifier des critères de décision qui aideront à la prise en charge obstétricale.Nous proposons d’aborder l’analyse automatisée du RCF pendant le travail par l’intermédiaire d’une étude cas-témoins ; les cas étant des tracés RCF de nouveau-nés en acidose néonatale (pH artériel au cordon inférieur ou égal à 7,15) et les témoins, des tracés RCF de nouveau-nés sans acidose (pH artériel au cordon supérieur ou égal à 7,25). Il s’agit d’une étude monocentrique à la maternité de l’hôpital Saint Vincent de Paul, GHICL – Lille, sur notre base de données « Bien Naitre » (archivage numérique des tracés RCF depuis 2011), comptant un un nombre suffisant de cas sur ce seul centre. La maternité Saint Vincent de Paul (GHICL) présente depuis 2011 environ 70 cas par an d’acidose néonatale (pHa ≤ 7,10) (3,41%). Le logiciel R sera utilisé pour l’analyse statistique
- Published
- 2019
32. Volunteered multidimensional design to the test: the farmland biodiversity VGI4Bio Project's experiment
- Author
-
Bimonte, S., Rizzi, S., Lucile Sautot, Fontaine, B., Technologies et systèmes d'information pour les agrosystèmes (UR TSCF), Institut national de recherche en sciences et technologies pour l'environnement et l'agriculture (IRSTEA), Dipartimento di Scienze dell'Informazione [Bologna] (DISI), Università di Bologna [Bologna] (UNIBO), Territoires, Environnement, Télédétection et Information Spatiale (UMR TETIS), Centre de Coopération Internationale en Recherche Agronomique pour le Développement (Cirad)-AgroParisTech-Institut national de recherche en sciences et technologies pour l'environnement et l'agriculture (IRSTEA)-Centre National de la Recherche Scientifique (CNRS), Centre d'Ecologie et des Sciences de la COnservation (CESCO), Muséum national d'Histoire naturelle (MNHN)-Sorbonne Université (SU)-Centre National de la Recherche Scientifique (CNRS), Sandro Bimonte, Stefano Rizzi, Lucile Sautot, Benoit Fontaine, Alma Mater Studiorum Università di Bologna [Bologna] (UNIBO), and Institut national de recherche en sciences et technologies pour l'environnement et l'agriculture (IRSTEA)-AgroParisTech-Centre National de la Recherche Scientifique (CNRS)-Centre de Coopération Internationale en Recherche Agronomique pour le Développement (Cirad)
- Subjects
geographic information ,INFORMATION GEOGRAPHIQUE ,[SDE]Environmental Sciences ,data warehouse ,GeneralLiterature_REFERENCE(e.g.,dictionaries,encyclopedias,glossaries) ,Volunteer Geographic Information, OLAP, data warehouse design ,ENTREPOT DE DONNEES - Abstract
EDBT/ICDT 2019 Joint Conference, Lisbon, PRT, 26-/03/2019 - 29/03/2019; International audience; Moving volunteers of VGI (Volunteer Geographic Information) from passive data producers to active data analysts in the context of Data Warehouses (DWs) and OLAP systems is an open issue. Indeed, volunteers have particular features that make existing DW design methodologies inadequate. In this paper, using a real case study concerning the farmland biodiversity, we test the methodology proposed in [5], which enables volunteers to design DW schemes. The experiments aim at answering two research questions: (i)How can volunteered design be streamlined with respect to the methodology described in [5]?; (ii)To what extent does the involvement of a large number of volunteers actually improve the cubes implemented? Our experiments confirm the adequacy of the methodology proposed in [5], but they also reveal some important limitations. Among them, we identify possible conflicts among volunteers in the first steps of the design process. To address this issue we propose a solution based on social software engineering tools, and in particular Wiki systems.
- Published
- 2019
33. Meta-modeling, implementation and performance optimization of decision-support systems
- Author
-
Letrache, Khadija, Université Hassan II [Casablanca] (UH2MC), Université Hassan II de Casablanca (Maroc), Mohammed Ramdani, Omar El Beggar (co-encadrant), and LETRACHE, KHADIJA
- Subjects
association rules ,méta-modélisation ,OLAP ,[INFO.INFO-RO] Computer Science [cs]/Operations Research [cs.RO] ,Data warehouse ,optimisation ,partitioning ,MDA ,entrepôt de données ,métadonnées ,partitionnement horizontal ,règles d’association ,[INFO.INFO-RO]Computer Science [cs]/Operations Research [cs.RO] - Abstract
The works presented in this thesis relate to decision-support systems modeling, implementation and optimization. In fact, because of their scalability and complexity, decision-support systems require a very high cost and time to be implemented and maintained. On the other hand, although they are dedicated to analyze and store huge amount of data and despite the use of sophisticated OLAP tools, decision-support systems can experience significant performance degradation over time. Furthermore, storage and refresh strategies management becomes a tedious task.Thus, the first contribution of this thesis is to elaborate a model-driven approach and provide tools for designing and modeling decision-support systems and also automating their development lifecycle. The proposed approach aims to reduce time and cost needed for the project development and maintenance, as well as ensuring its independency from the used platforms and facilitating the migration from a platform to another.Our second contribution deals with OLAP cubes optimization. In this respect, we propose a horizontal partitioning approach based on the association rules. The proposed approach allows improving OLAP cubes performance and facilitating their maintenance., Les travaux présentés dans cette thèse se situent dans le cadre de la modélisation, l’implémentation et l’optimisation des systèmes décisionnels. En fait, vu leur caractère évolutif et complexe, les systèmes décisionnels requièrent un coût et un délai de mise en place et de maintenance très élevés. D’autre part, bien que les systèmes décisionnels soient dédiés à l’analyse et le stockage de grands volumes de données et malgré l’utilisation d’outils décisionnels sophistiqués, les performances des systèmes décisionnels peuvent connaître des dégradations importantes au fil du temps. S’ajoute également, la gestion de l’espace de stockage et des stratégies de rafraîchissement qui devienne une tâche fastidieuse.Ainsi, la première contribution des travaux de cette thèse est l’élaboration d’une approche dirigée par les modèles qui fournit une démarche et des outils permettant de concevoir et modéliser les systèmes décisionnels et d’automatiser leur cycle de développement. L’approche proposée vise ainsi à réduire le coût et le délai de développement et de maintenance. Elle vise également à garantir une indépendance vis-à-vis des plateformes utilisées et à faciliter la migration d’une plateforme vers une autre.Notre deuxième contribution porte sur l’optimisation des cubes OLAP. A cet égard, nous proposons une approche de partitionnement horizontal basée sur les règles d’association. L’approche proposée permet, à la fois d’améliorer les performances des cubes OLAP et de faciliter leur maintenance.
- Published
- 2019
34. Les banques d'enquêtes qualitatives
- Author
-
Garcia, Guillaume, Groshens, Emilie, and Sciences Po Institutional Repository, Spire
- Subjects
données de recherche ,analyse de données ,[SHS.ANTHRO-SE] Humanities and Social Sciences/Social Anthropology and ethnology ,[SHS.DEMO] Humanities and Social Sciences/Demography ,[SHS.SOCIO] Humanities and Social Sciences/Sociology ,entrepôt de données ,[SHS.GEO] Humanities and Social Sciences/Geography ,[SHS.EDU] Humanities and Social Sciences/Education ,réanalyse ,[SHS.GENRE] Humanities and Social Sciences/Gender studies ,[SHS.LANGUE] Humanities and Social Sciences/Linguistics ,[SHS.INFO] Humanities and Social Sciences/Library and information sciences ,enquête qualitative ,[SHS.PSY] Humanities and Social Sciences/Psychology ,bequali ,[SHS.HISPHILSO] Humanities and Social Sciences/History, Philosophy and Sociology of Sciences ,[SHS.HIST] Humanities and Social Sciences/History ,[SHS.STAT] Humanities and Social Sciences/Methods and statistics ,[SHS.SCIPO] Humanities and Social Sciences/Political science ,analyse secondaire - Abstract
Objectif : Il s’agira de proposer un panorama des banques de données qualitatives existant en France et à l’internationalDémarche pédagogique : La présentation dressera un éventail des ressources existantes, tant du point de vue des types d’enquêtes consultables (disciplines, objets de recherche, types de matériaux disponibles, etc.) que des conditions d’accès aux données (outils d’exploration, contrats et conditions d’utilisation, etc.).
- Published
- 2019
35. La chaîne de transformation des données : différentes approches à partir du catalogue BeQuali
- Author
-
Garcia, Guillaume, Groshens, Emilie, Aliprandi, Pascale, and Sciences Po Institutional Repository, Spire
- Subjects
méthodes ,données de recherche ,analyse de données ,[SHS.ANTHRO-SE] Humanities and Social Sciences/Social Anthropology and ethnology ,[SHS.DEMO] Humanities and Social Sciences/Demography ,[SHS.SOCIO] Humanities and Social Sciences/Sociology ,entrepôt de données ,[SHS.GEO] Humanities and Social Sciences/Geography ,[SHS.EDU] Humanities and Social Sciences/Education ,[SHS.GENRE] Humanities and Social Sciences/Gender studies ,[SHS.LANGUE] Humanities and Social Sciences/Linguistics ,[SHS.INFO] Humanities and Social Sciences/Library and information sciences ,enquête qualitative ,[SHS.PSY] Humanities and Social Sciences/Psychology ,bequali ,[SHS.HISPHILSO] Humanities and Social Sciences/History, Philosophy and Sociology of Sciences ,[SHS.HIST] Humanities and Social Sciences/History ,[SHS.STAT] Humanities and Social Sciences/Methods and statistics ,[SHS.SCIPO] Humanities and Social Sciences/Political science - Abstract
Objectif : Il s’agira de faire le point sur l’étape préalable à l’analyse de corpus textuels, qu’elle soit assistée par logiciels ou complètement libre (méthode “papier-crayon”), en l’illustrant de plusieurs méthodes tirées de la banque d’enquêtes beQuali. L’idée est de montrer comment l’étape de préparation peut être menée en pratique, à partir d’enquêtes exemplaires de ces différentes démarches. Démarche pédagogique : Nous aborderons la fabrique de “métadonnées”, visualisations ou documents supports qui permettent de garder trace des principales informations que l’on souhaite pouvoir facilement mobiliser sur un terrain donné, à propos de tel ou tel individu ou groupes d’individus. Cela va de la remise en mots ou en forme des données brutes à une conceptualisation plus ou moins poussée des données, permettant de construire des hypothèses, une théorisation. En particulier, nous montrerons les principales formes que ces documents supports peuvent prendre : mémos, résumés, synthèses d’entretiens, graphes ou cartes mentales, etc. à partir d’enquêtes du catalogue beQuali 3 exemples contrastés de documents seront ainsi commentés - schéma, texte, tableau - dans le but de montrer comment ils se situent dans une chaîne d’analyse et comment l’information y est organisée selon le processus intellectuel et la démarche d’analyse - représentation graphique, textuelle, quantifié.
- Published
- 2019
36. Les enjeux de la réanalyse
- Author
-
Garcia, Guillaume, Groshens, Emilie, and Sciences Po Institutional Repository, Spire
- Subjects
analyse de données ,méthodes ,[SHS.ANTHRO-SE] Humanities and Social Sciences/Social Anthropology and ethnology ,[SHS.DEMO] Humanities and Social Sciences/Demography ,[SHS.SOCIO] Humanities and Social Sciences/Sociology ,entrepôt de données ,[SHS.GEO] Humanities and Social Sciences/Geography ,[SHS.EDU] Humanities and Social Sciences/Education ,réanalyse ,[SHS.GENRE] Humanities and Social Sciences/Gender studies ,documentation ,[SHS.LANGUE] Humanities and Social Sciences/Linguistics ,[SHS.INFO] Humanities and Social Sciences/Library and information sciences ,enquête qualitative ,[SHS.PSY] Humanities and Social Sciences/Psychology ,bequali ,archivage ,[SHS.HISPHILSO] Humanities and Social Sciences/History, Philosophy and Sociology of Sciences ,diffusion de données ,[SHS.HIST] Humanities and Social Sciences/History ,données de la recherche ,[SHS.STAT] Humanities and Social Sciences/Methods and statistics ,[SHS.SCIPO] Humanities and Social Sciences/Political science ,analyse secondaire - Abstract
Objectif : Ce module vise à sensibiliser aux problématiques et enjeux de la réanalyse de deux manières : par une meilleure connaissance de l’état et de la littérature disponible sur la réanalyse en France et à l’étranger d’une part ; par une sensibilisation aux grandes questions qui organisent les réflexions sur les conditions de possibilité de la réanalyse d’autre part. Démarche pédagogique : On veillera à retracer les grandes lignes du développement de cette pratique dans les sciences sociales et l’état le plus actuel des recherches menées en France. Il s’agira notamment de souligner les conditions de la réanalyse à partir d’exemples de controverses. Nous aborderons ainsi plusieurs enjeux, notamment : - les intérêts de la réanalyse, tant du point de vue de l’utilisateur de données que de celui qui partage ses données ;- les formes de réanalyse selon le rapport aux chercheurs premiers et aux objectifs poursuivis ;- les étapes préalables nécessaires avant de se lancer dans une réanalyse (compréhension du lien entre orientations théoriques et méthodologiques de l’enquête ; appréhension de la structuration du corpus, etc.) ;- la contextualisation des données (documentation).Un atelier sur la mise en pratique de la réanalyse complète ce module.
- Published
- 2019
37. CO2 and O2 solubility and diffusivity data in food products stored in data warehouse structured by ontology
- Author
-
Estelle Chaix, Filippo Acerbi, Patrice Buche, Juliette Dibie, Nathalie Gontard, Valérie Guillard, Stéphane Dervaux, Carole Guillaume, Ingénierie des Agro-polymères et Technologies Émergentes (UMR IATE), Institut national d’études supérieures agronomiques de Montpellier (Montpellier SupAgro)-Centre de Coopération Internationale en Recherche Agronomique pour le Développement (Cirad)-Centre international d'études supérieures en sciences agronomiques (Montpellier SupAgro)-Université Montpellier 2 - Sciences et Techniques (UM2)-Université de Montpellier (UM)-Institut National de la Recherche Agronomique (INRA), Mathématiques et Informatique Appliquées (MIA-Paris), AgroParisTech-Institut National de la Recherche Agronomique (INRA), Centre de Coopération Internationale en Recherche Agronomique pour le Développement (Cirad)-Institut National de la Recherche Agronomique (INRA)-Université Montpellier 2 - Sciences et Techniques (UM2)-Centre international d'études supérieures en sciences agronomiques (Montpellier SupAgro)-Université de Montpellier (UM)-Institut national d’études supérieures agronomiques de Montpellier (Montpellier SupAgro), Institut national d'enseignement supérieur pour l'agriculture, l'alimentation et l'environnement (Institut Agro)-Institut national d'enseignement supérieur pour l'agriculture, l'alimentation et l'environnement (Institut Agro), Map׳Opt project ANR-10-ALIA-002, ANR-10-ALIA-0002,MAP'OPT,Composition, dynamique des gaz et optimisation de la protection des denrées dans les emballages sous atmosphère modifiée(2010), Ingénierie des Agro-polymères et Technologies Émergentes ( IATE ), Centre de Coopération Internationale en Recherche Agronomique pour le Développement ( CIRAD ) -Université de Montpellier ( UM ) -Université Montpellier 2 - Sciences et Techniques ( UM2 ) -Institut national d’études supérieures agronomiques de Montpellier ( Montpellier SupAgro ) -Institut National de la Recherche Agronomique ( INRA ) -Centre international d'études supérieures en sciences agronomiques ( Montpellier SupAgro ), Mathématiques et Informatique Appliquées ( MIA-Paris ), Institut National de la Recherche Agronomique ( INRA ) -AgroParisTech, Mathématiques et Informatique Appliquées du Génome à l'Environnement [Jouy-En-Josas] ( MaIAGE ), and Institut National de la Recherche Agronomique ( INRA )
- Subjects
[ INFO ] Computer Science [cs] ,Computer science ,entrepôt de données ,Interface (computing) ,O2 ,Ontology (information science) ,lcsh:Computer applications to medicine. Medical informatics ,diffusion de co2 ,computer.software_genre ,Thermal diffusivity ,01 natural sciences ,dioxide de carbone ,0404 agricultural biotechnology ,Diffusivity ,Data warehouse ,Artificial Intelligence ,oxygène ,[INFO]Computer Science [cs] ,Solubility ,lcsh:Science (General) ,Génie des procédés ,ComputingMilieux_MISCELLANEOUS ,ontologie ,Data Article ,2. Zero hunger ,Data ,Multidisciplinary ,Database ,Carbon dioxide solubility ,Ontology ,010401 analytical chemistry ,diffusion de l'oxygène ,04 agricultural and veterinary sciences ,Intelligence artificielle ,Food ,CO2 ,040401 food science ,Public repository ,0104 chemical sciences ,Process Engineering ,produit agroalimentaire ,solubilité ,Food products ,lcsh:R858-859.7 ,computer ,lcsh:Q1-390 - Abstract
This data article contains values of oxygen and carbon dioxide solubility and diffusivity measured in various model and real food products. These data are stored in a public repository structured by ontology. These data can be retrieved through the @Web tool, a user-friendly interface to capitalise and query data. The @Web tool is accessible online at http://pfl.grignon.inra.fr/atWeb/. Keywords: Diffusivity, Solubility, Data, Data warehouse, Ontology, Food, O2, CO2
- Published
- 2016
38. Préservez, partagez et réutilisez des enquêtes qualitatives : Présentation de la plateforme beQuali
- Author
-
Emilie Groshens, Jeremie Vandenbunder, Centre de données socio-politiques de Sciences Po (Sciences Po, CNRS) (CDSP), Centre National de la Recherche Scientifique (CNRS)-Sciences Po (Sciences Po), Sciences Po Institutional Repository, Spire, Centre de données socio-politiques de Sciences Po (CDSP), and Sciences Po (Sciences Po)-Centre National de la Recherche Scientifique (CNRS)
- Subjects
[SHS.SOCIO]Humanities and Social Sciences/Sociology ,[SHS.SOCIO] Humanities and Social Sciences/Sociology ,beQuali ,entrepôt de données ,données de la recherche ,enseignement des méthodes ,jel:sciences sociales ,[SHS.SCIPO] Humanities and Social Sciences/Political science ,[SHS.SCIPO]Humanities and Social Sciences/Political science - Abstract
beQuali est une banque d’enquêtes qualitatives en sciences sociales à disposition de la communauté scientifique. L’objectif de ce séminaire est de présenter les usages possibles pour la recherche et l’enseignement, et de proposer un retour d’expérience en matière de préparation de données qualitatives dans un objectif de préservation pérenne et de diffusion à des fins de réutilisation académique. Une démonstration du site, des discussions collectives et une prise en main rapide du site seront proposées aux participants.
- Published
- 2018
39. What public decision-making support for the governance of water territories?
- Author
-
Vernier, F., Miralles, A., Tonneau, J.P., Environnement, territoires et infrastructures (UR ETBX), Institut national de recherche en sciences et technologies pour l'environnement et l'agriculture (IRSTEA), Territoires, Environnement, Télédétection et Information Spatiale (UMR TETIS), Institut national de recherche en sciences et technologies pour l'environnement et l'agriculture (IRSTEA)-AgroParisTech-Centre National de la Recherche Scientifique (CNRS)-Centre de Coopération Internationale en Recherche Agronomique pour le Développement (Cirad), and Centre de Coopération Internationale en Recherche Agronomique pour le Développement (Cirad)-AgroParisTech-Institut national de recherche en sciences et technologies pour l'environnement et l'agriculture (IRSTEA)-Centre National de la Recherche Scientifique (CNRS)
- Subjects
ENJEU SOCIAL ,decision support ,governance ,POLLUTION ,PESTICIDE ,[SDE]Environmental Sciences ,data warehouse ,pesticides ,AIDE A LA DECISION ,information systems ,SYSTEME D'INFORMATION ,GOUVERNANCE ,ENTREPOT DE DONNEES - Abstract
SAGEO 2018 Spatial analysis and Geomatics, Montpellier, FRA, 06-/11/2018 - 09/11/2018; International audience; Local decision makers are constantly on the lookout for decision tools to help them assess the potential impact of agro-environmental measures, as well as applying them in the best, most effective way. In this paper, we present the "SIGPA" (Information System for Action Plan Governance) model, which displays the overall approach to helping public decision making within pesticide action programs. The SIGPA model can be applied in various contexts. The proposed information system provides the support to enable stakeholders and decision makers to identify the most effective and least expensive actions for limiting pesticide pollution. A prototype of the information system was used, based on data collected as part of a "Grenelle" action plan within the Charente river basin. By allowing for data and knowledge from stakeholder networks in multiple action plans to be pooled, the SIGPA approach is in keeping OSAGE (Loireau et al, 2017) and aims to an agro-environmental and multifunctional observatory.; Les réseaux territoriaux d'acteurs institutionnels, en charge de la mise en oeuvre des actions agro-environnementales sur le terrain, sont en quête d'outils d'aide à la décision afin de pouvoir évaluer l'impact potentiel des mesures agro-environnementales et les localiser à moindre coût le plus efficacement possible. Nous présentons le modèle générique SIGPA qui décrit l'ensemble de la démarche d'appui à la gouvernance des programmes d'action pesticides. SIGPA peut intégrer d'autres outils de simulation. Les modèles conceptuels et le système d'information proposés sont des outils de communication et d'échange au sein du réseau d'acteurs. Ces outils permettent de faire émerger, de manière interactive, les actions les plus efficaces et les moins coûteuses pour limiter la pollution par pesticides. Un prototype du système proposé a été implémenté sur une zone de captage Grenelle en Charente. En permettant la capitalisation des données et des connaissances acquises par les réseaux d'acteurs, la démarche est conforme à celle du modèle OSAGE de Loireau et al (2017) et préfigure un observatoire agro-environnemental.
- Published
- 2018
40. Résolution des conflits lors de la conception collaborative de cubes OLAP pour des observatoires citoyens
- Author
-
Amir Sakka, Sandro Bimonte, Lucile Sautot, Guy Camilleri, Pascale Zaraté, Aurelien Besnard, Argumentation, Décision, Raisonnement, Incertitude et Apprentissage (IRIT-ADRIA), Institut de recherche en informatique de Toulouse (IRIT), Université Toulouse 1 Capitole (UT1), Université Fédérale Toulouse Midi-Pyrénées-Université Fédérale Toulouse Midi-Pyrénées-Université Toulouse - Jean Jaurès (UT2J)-Université Toulouse III - Paul Sabatier (UT3), Université Fédérale Toulouse Midi-Pyrénées-Centre National de la Recherche Scientifique (CNRS)-Institut National Polytechnique (Toulouse) (Toulouse INP), Université Fédérale Toulouse Midi-Pyrénées-Université Toulouse 1 Capitole (UT1), Université Fédérale Toulouse Midi-Pyrénées, Technologies et systèmes d'information pour les agrosystèmes (UR TSCF), Institut national de recherche en sciences et technologies pour l'environnement et l'agriculture (IRSTEA), Territoires, Environnement, Télédétection et Information Spatiale (UMR TETIS), Centre de Coopération Internationale en Recherche Agronomique pour le Développement (Cirad)-AgroParisTech-Institut national de recherche en sciences et technologies pour l'environnement et l'agriculture (IRSTEA)-Centre National de la Recherche Scientifique (CNRS), Systèmes Multi-Agents Coopératifs (IRIT-SMAC), Université Toulouse III - Paul Sabatier (UT3), Ligue pour la Protection des Oiseaux (LPO), AgroParisTech (FRANCE), Centre de Coopération Internationale en Recherche Agronomique - CIRAD (FRANCE), Centre National de la Recherche Scientifique - CNRS (FRANCE), Institut National Polytechnique de Toulouse - Toulouse INP (FRANCE), Institut national de Recherche en Sciences et Technologies pour l'Environnement et l'Agriculture - IRSTEA (FRANCE), Université Toulouse III - Paul Sabatier - UT3 (FRANCE), Université Toulouse - Jean Jaurès - UT2J (FRANCE), Université Toulouse 1 Capitole - UT1 (FRANCE), Ligue pour la Protection des Oiseaux - LPO (FRANCE), Institut National Polytechnique de Toulouse - INPT (FRANCE), Université Toulouse 1 Capitole (UT1)-Université Toulouse - Jean Jaurès (UT2J)-Université Toulouse III - Paul Sabatier (UT3), Université Fédérale Toulouse Midi-Pyrénées-Université Fédérale Toulouse Midi-Pyrénées-Centre National de la Recherche Scientifique (CNRS)-Institut National Polytechnique (Toulouse) (Toulouse INP), and Ligue Pour la Protection des Oiseaux
- Subjects
OLAP ,[INFO.INFO-DB]Computer Science [cs]/Databases [cs.DB] ,Base de données ,Information géographique volontaire (VGI) ,Système de prise de décision en groupe ,Entrepôt de données - Abstract
International audience; Dans le contexte de l'information géographique volontaire (VGI), les volontaires ne sont pas impliqués dans les processus décisionnels. De plus, les systèmes VGI n'offrent pas d'outils puissants pour mener des analyses temporelles. C'est pourquoi, dans cet article, nous proposons d'utiliser les systèmes d'information décisionnels pour analyser les données VGI, et nous proposons la définition une nouvelle méthodologie de conception des entrepôts de données, qui permet l'implication des volontaires dans la définition des besoins analytiques sur les données VGI. Nos propositions ont été testées sur un cas d'étude réel concernant la biodiversité.
- Published
- 2018
41. Élaboration d'un Data Warehouse à partir d'un Data Lake
- Author
-
Tighilt Ferhat, Rabah, Institut National Polytechnique de Toulouse - Toulouse INP (FRANCE), Centre National de la Recherche Scientifique - CNRS (FRANCE), Université Toulouse III - Paul Sabatier - UT3 (FRANCE), Université Toulouse - Jean Jaurès - UT2J (FRANCE), Université Toulouse 1 Capitole - UT1 (FRANCE), Institut National Polytechnique de Toulouse - INPT (FRANCE), Systèmes d’Informations Généralisées (IRIT-SIG), Institut de recherche en informatique de Toulouse (IRIT), Université Toulouse 1 Capitole (UT1), Université Fédérale Toulouse Midi-Pyrénées-Université Fédérale Toulouse Midi-Pyrénées-Université Toulouse - Jean Jaurès (UT2J)-Université Toulouse III - Paul Sabatier (UT3), Université Fédérale Toulouse Midi-Pyrénées-Centre National de la Recherche Scientifique (CNRS)-Institut National Polytechnique (Toulouse) (Toulouse INP), Université Fédérale Toulouse Midi-Pyrénées-Université Toulouse 1 Capitole (UT1), and Université Fédérale Toulouse Midi-Pyrénées
- Subjects
[INFO.INFO-DB]Computer Science [cs]/Databases [cs.DB] ,Métadonnées ,Base de données ,Entrepôt de données ,Données massives ,Processus décisionnel ,Réservoir de données ,Extraction-transformation-chargement - Abstract
National audience; Contexte : Le développement des bases de données massives (Big Data) pose plusieurs pro-blèmes. Nous citons par exemple : la gestion des données très variées pour fournir dela connaissance. De nouveaux systèmes sont récemment apparus comme une solution àce problème (Hai et al., 2016). Il s'agit des systèmes appelés((Data Lake))ou((réser-voir de données)). Un Data Lake (DL) est un référentiel de stockage et d'explorationde grandes quantités de données brutes peu ou pas structurées permettant d'acquérirde la connaissance (Chessell et al., 2014). Les DL intègrent des données dans leurformat d'origine à partir de sources de type Big Data (Hai et al., 2016), ( Walker et al.,2015). Généralement, les données d'un Data Lake sont décrites par des métadonnées etorganisées d'une certaine manière pour qu'elles soient facilement accessibles à toutmoment et à tout utilisateur autorisé à effectuer des activités analytiques (Terrizzanoet al., 2015). Notre travail s'intègre dans ce contexte et concerne particulièrement l'élaboration d'un ED à partir d'une source de type Data Lake
- Published
- 2018
42. Textual data Warehouse challenge : Dr. Warehouse and translational research on rare diseases
- Author
-
Garcelon, Nicolas, Centre de Recherche des Cordeliers (CRC (UMR_S 872)), Université Pierre et Marie Curie - Paris 6 (UPMC)-Université Paris Descartes - Paris 5 (UPD5)-Institut National de la Santé et de la Recherche Médicale (INSERM)-Centre National de la Recherche Scientifique (CNRS), Université Sorbonne Paris Cité, Anita Burgun, Arnold Munnich, STAR, ABES, and Université Paris Descartes - Paris 5 (UPD5)-Université Pierre et Marie Curie - Paris 6 (UPMC)-Institut National de la Santé et de la Recherche Médicale (INSERM)-Centre National de la Recherche Scientifique (CNRS)
- Subjects
[INFO.INFO-DB]Computer Science [cs]/Databases [cs.DB] ,Data warehouse ,Phenotyping ,Information retrieval ,[INFO.INFO-DB] Computer Science [cs]/Databases [cs.DB] ,Entrepôt de données ,Fouille de données ,Phénotypage ,Data mining ,Maladies rares ,Recherche d’information ,Rare diseases - Abstract
The repurposing of clinical data for research has become widespread with the development of clinical data warehouses. These data warehouses are modeled to integrate and explore structured data related to thesauri. These data come mainly from machine (biology, genetics, cardiology, etc.) but also from manual data input forms. The production of care is also largely providing textual data from hospital reports (hospitalization, surgery, imaging, anatomopathologic etc.), free text areas in electronic forms. This mass of data, little used by conventional warehouses, is an indispensable source of information in the context of rare diseases. Indeed, the free text makes it possible to describe the clinical picture of a patient with more precision and expressing the absence of signs and uncertainty. Particularly for patients still undiagnosed, the doctor describes the patient's medical history outside any nosological framework. This wealth of information makes clinical text a valuable source for translational research. However, this requires appropriate algorithms and tools to enable optimized re-use by doctors and researchers. We present in this thesis the data warehouse centered on the clinical document, which we have modeled, implemented and evaluated. In three cases of use for translational research in the context of rare diseases, we attempted to address the problems inherent in textual data: (i) recruitment of patients through a search engine adapted to textual (data negation and family history detection), (ii) automated phenotyping from textual data, and (iii) diagnosis by similarity between patients based on phenotyping. We were able to evaluate these methods on the data warehouse of Necker-Enfants Malades created and fed during this thesis, integrating about 490,000 patients and 4 million reports. These methods and algorithms were integrated into the software Dr Warehouse developed during the thesis and distributed in Open source since September 2017., La réutilisation des données de soins pour la recherche s’est largement répandue avec le développement d’entrepôts de données cliniques. Ces entrepôts de données sont modélisés pour intégrer et explorer des données structurées liées à des thesaurus. Ces données proviennent principalement d’automates (biologie, génétique, cardiologie, etc) mais aussi de formulaires de données structurées saisies manuellement. La production de soins est aussi largement pourvoyeuse de données textuelles provenant des comptes rendus hospitaliers (hospitalisation, opératoire, imagerie, anatomopathologie etc.), des zones de texte libre dans les formulaires électroniques. Cette masse de données, peu ou pas utilisée par les entrepôts classiques, est une source d’information indispensable dans le contexte des maladies rares. En effet, le texte libre permet de décrire le tableau clinique d’un patient avec davantage de précisions et en exprimant l’absence de signes et l’incertitude. Particulièrement pour les patients encore non diagnostiqués, le médecin décrit l’histoire médicale du patient en dehors de tout cadre nosologique. Cette richesse d’information fait du texte clinique une source précieuse pour la recherche translationnelle. Cela nécessite toutefois des algorithmes et des outils adaptés pour en permettre une réutilisation optimisée par les médecins et les chercheurs. Nous présentons dans cette thèse l'entrepôt de données centré sur le document clinique, que nous avons modélisé, implémenté et évalué. À travers trois cas d’usage pour la recherche translationnelle dans le contexte des maladies rares, nous avons tenté d’adresser les problématiques inhérentes aux données textuelles: (i) le recrutement de patients à travers un moteur de recherche adapté aux données textuelles (traitement de la négation et des antécédents familiaux), (ii) le phénotypage automatisé à partir des données textuelles et (iii) l’aide au diagnostic par similarité entre patients basés sur le phénotypage. Nous avons pu évaluer ces méthodes sur l’entrepôt de données de Necker-Enfants Malades créé et alimenté pendant cette thèse, intégrant environ 490 000 patients et 4 millions de comptes rendus. Ces méthodes et algorithmes ont été intégrés dans le logiciel Dr Warehouse développé pendant la thèse et diffusé en Open source depuis septembre 2017.
- Published
- 2017
43. LA DETECTION DES INFERENCES PAR LA COMBINAISON DE PLUSIEURS PROFILS
- Author
-
Ouazzani, Amine, Harbi, Nouria, Badir, Hassan, Equipe de Recherche en Ingénierie des Connaissances (ERIC), Université Lumière - Lyon 2 (UL2), Laboratoire d'InfoRmatique en Image et Systèmes d'information (LIRIS), Institut National des Sciences Appliquées de Lyon (INSA Lyon), Université de Lyon-Institut National des Sciences Appliquées (INSA)-Université de Lyon-Institut National des Sciences Appliquées (INSA)-Centre National de la Recherche Scientifique (CNRS)-Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-École Centrale de Lyon (ECL), and Université de Lyon-Université Lumière - Lyon 2 (UL2)
- Subjects
Profils utilisateur ,[INFO.INFO-CR]Computer Science [cs]/Cryptography and Security [cs.CR] ,Données sensibles ,Entrepôt de données ,Inférence - Abstract
International audience; Un Entrepôt de données (ED) regroupe les données sensibles de l'en-treprise et les données secrètes sur la vie privée des individus. Ce qui rend la gestion des accès à cette source une tâche difficile qui doit prendre en compte la détection des inférences possibles. Dans ce sens plusieurs auteurs ont pro-posé des méthodes pour faciliter la gestion des inférences, en analysant les permissions accordées à un utilisateur. Cependant aucun travail n'a traité la gestion des inférences dans le cas d'un utilisateur qui combine entre deux ou plusieurs profils au sein de l'entreprise. Dans cet article, nous allons présenter notre approche qui permet de détecter les déductions possibles entre deux ou plusieurs rôles affectés à un seul utilisateur.
- Published
- 2017
44. Entrepôt De Données
- Author
-
AMOURI, Habib
- Subjects
entrepôt de données ,SGBD relationnel ,data warehouse - Abstract
Cette partie traite l'implémentation du data warehouse avec un SGBD relationnel
- Published
- 2017
- Full Text
- View/download PDF
45. L'enquête ESFIA 'De l'Afrique à la France, d'une génération à l'autre' dans le dispositif beQuali
- Author
-
Selma Bendjaballah, Emilie Groshens, Centre de données socio-politiques de Sciences Po (Sciences Po, CNRS) (CDSP), Centre National de la Recherche Scientifique (CNRS)-Sciences Po (Sciences Po), Centre d'études européennes et de politique comparée (Sciences Po, CNRS) (CEE), Sciences Po (Sciences Po)-Centre National de la Recherche Scientifique (CNRS), Sciences Po Institutional Repository, Spire, Centre de données socio-politiques de Sciences Po (CDSP), and Centre d'études européennes et de politique comparée (CEE)
- Subjects
Centre de données socio-politiques ,sociologie de la famille ,[SHS.SOCIO]Humanities and Social Sciences/Sociology ,réutilisation scientifique ,[SHS.SOCIO] Humanities and Social Sciences/Sociology ,beQuali ,entrepôt de données ,CDSP ,méthodes qualitatives ,sociologie de l'immigration ,enquête ,enseignement des méthodes - Abstract
L'enquête qualitative ESFIA*, intitulée "De l'Afrique à la France, d'une génération à l'autre" a été coordonnée par Jacques Barou (PACTE) et financée par la Caisse nationale d'assurance vieillesse (CNAV). Cette communication a été présentée à l'équipe de recherche du pôle "Unité de Recherche sur le vieillissement (URV)" de la Direction statistiques, prospective et recherche de la Caisse nationale d'assurance vieillesse (CNAV) ayant participé à la réalisation de l'enquête. La communication consistait à présenter l'enquête à travers le site beQuali et à montrer les possibilités offertes en termes de postérité et de prolongement de la vie des matériaux ainsi partagés à la communauté scientifique. Nous avons pu revenir en détail sur le travail documentaire réalisé sur les archives, sur les outils de beQuali et en particulier sur les fonctionnalités d'exploration des documents, ainsi que sur les activités développées autour des usages de la banque d'enquêtes en évoquant les travaux menés sur la réutilisation pédagogique des enquêtes. *Enquête ethnographique portant sur les immigrés d’origine subsaharienne, réalisée entre 2006 et 2011 (en France), par entretiens et focus groups auprès de deux générations d'une même famille. Cette enquête est consultable sur le site de la banque d'enquête bequali : http://bequali.fr/fr/les-enquetes/lenquete-en-bref/cdsp_bq_s5/
- Published
- 2017
46. Conceptual design and implementation of spatial data warehouses integrating regular grids of points
- Author
-
Sandro Bimonte, Mehdi Zaamoune, Philippe Beaune, Technologies et systèmes d'information pour les agrosystèmes (UR TSCF), and Institut national de recherche en sciences et technologies pour l'environnement et l'agriculture (IRSTEA)
- Subjects
Computer science ,data warehouse ,computer science ,02 engineering and technology ,ROLAP ,GEOGRAPHIE ,computer.software_genre ,geography ,Regular grid ,Geoinformatics ,Conceptual design ,020204 information systems ,0202 electrical engineering, electronic engineering, information engineering ,Architecture ,Representation (mathematics) ,Spatial analysis ,ALGEBRE ,Online analytical processing ,InformationSystems_DATABASEMANAGEMENT ,Computer Science Applications ,INFORMATIQUE ,[SDE]Environmental Sciences ,General Earth and Planetary Sciences ,020201 artificial intelligence & image processing ,Data mining ,computer ,Software ,ENTREPOT DE DONNEES - Abstract
International audience; Spatial online analytical processing (OLAP) and spatial data warehouse (SDW) systems are geo-business intelligence technologies that enable the analysis of huge volumes of geographic data. In the last decade, the conceptual design and implementation of SDWs that integrate spatial data, which are represented using the vector model, have been extensively investigated. However, the integration of field data (a continuous representation of spatial data) in SDWs is a recent unresolved research issue. Enhancing SDWs with field data improves the spatio-multidimensional analysis capabilities with continuity and multiresolutions. Motivated by the need for a conceptual design tool and relational online analytical processing (ROLAP) implementation, we propose a UML profile for SDWs that integrates a regular grid of points and supports continuity and multiresolutions. We also propose an efficient implementation of a ROLAP architecture.
- Published
- 2017
47. Vers un Modèle Unifié de Données Entreposées et de Données Ouvertes Liées : Concepts et Expérimentations
- Author
-
Jiefu Song, Olivier Teste, Franck Ravat, Systèmes d’Informations Généralisées (IRIT-SIG), Institut de recherche en informatique de Toulouse (IRIT), Université Toulouse 1 Capitole (UT1), Université Fédérale Toulouse Midi-Pyrénées-Université Fédérale Toulouse Midi-Pyrénées-Université Toulouse - Jean Jaurès (UT2J)-Université Toulouse III - Paul Sabatier (UT3), Université Fédérale Toulouse Midi-Pyrénées-Centre National de la Recherche Scientifique (CNRS)-Institut National Polytechnique (Toulouse) (Toulouse INP), Université Fédérale Toulouse Midi-Pyrénées-Université Toulouse 1 Capitole (UT1), Université Fédérale Toulouse Midi-Pyrénées, Université Toulouse - Jean Jaurès (UT2J), Institut de recherche en informatique de Toulouse ( IRIT ), Institut National Polytechnique [Toulouse] ( INP ) -Université Toulouse 1 Capitole ( UT1 ) -Université Toulouse - Jean Jaurès ( UT2J ) -Université Paul Sabatier - Toulouse 3 ( UPS ) -Centre National de la Recherche Scientifique ( CNRS ), Institut National Polytechnique de Toulouse - INPT (FRANCE), Centre National de la Recherche Scientifique - CNRS (FRANCE), Université Toulouse III - Paul Sabatier - UT3 (FRANCE), Université Toulouse - Jean Jaurès - UT2J (FRANCE), Université Toulouse 1 Capitole - UT1 (FRANCE), and Institut National Polytechnique de Toulouse - Toulouse INP (FRANCE)
- Subjects
Théorie de l'information ,[ INFO.INFO-IR ] Computer Science [cs]/Information Retrieval [cs.IR] ,Analyse multidimensionnelle ,[ INFO.INFO-IT ] Computer Science [cs]/Information Theory [cs.IT] ,[INFO.INFO-IT]Computer Science [cs]/Information Theory [cs.IT] ,[INFO.INFO-IR]Computer Science [cs]/Information Retrieval [cs.IR] ,Recherche d'information ,Entrepôt de données ,H- INFORMATIQUE ,Données ouvertes liées ,Information Systems - Abstract
International audience; De nos jours, la plupart des systèmes d’aide à la décision (SAD) reposent sur un entrepôt de données (ED) construit à partir de données de production internes à l’organisation. Cependant, les analyses décisionnelles peuvent être sensiblement améliorées par l’ajout d’informations supplémentaires provenant de l’extérieur d’une organisation, notamment des données ouvertes liées (DOL). L’intégration de ces données dans un SAD peut offrir de nouveaux points de vue aux décideurs. Dans cet article, nous décrivons un nouveau modèle multidimensionnel, appelé Cube Unifié, qui offre une représentation conceptuelle générique des données entreposées et des DOL. Un processus en deux étapes est proposé pour construire un Cube Unifié. Dans un premier temps, les schémas publiés avec des langages de modélisation spécifiques sont transformés en une représentation conceptuelle reposant sur un même langage. La seconde étape consiste à associer les schémas précédemment définis pour former un schéma unifié. Un langage algébrique est proposé afin de permettre aux concepteurs de construire un Cube Unifié selon leurs besoins. Pour valider nos propositions, nous montrons comment un Cube Unifié 1) est construit sur des jeux de données réelles et 2) permet aux décideurs d’effectuer des analyses décisionnelles avec de multiples sources.
- Published
- 2017
48. Les entrepôts de données de recherche
- Author
-
Cocaud, Sylvie, Aventurier, Pascal, Documentation de centre, Institut National de la Recherche Agronomique (INRA), Services déconcentrés d'appui à la recherche - PACA (SDAR PACA), Services déconcentrés d'appui à la recherche Provence-Alpes-Côte d'Azur (SDAR Paca), and Centre National de la Recherche Scientifique (CNRS). FRA.
- Subjects
[SDV]Life Sciences [q-bio] ,entrepôt de données ,gestion des données de la recherche - Abstract
A la fois source et lieu de stockage d’information, les entrepôts de données jouent un rôle clé dans le mouvement de l’open science. Le choix de l’entrepôt est essentiel pour mettre à disposition des données FAIR (Facilement trouvables, Accessibles, Interopérables et Réutilisables) et pour répondre à l’obligation faite aux établissements publics d’ouvrir à tous leurs données. Il est donc important de connaître les fonctionnalités et les conditions d’utilisation de ces services, et d’intégrer le dépôt dans le cycle de vie de ses données. Cette présentation a été suivie d'un atelier permettant de découvrir, grâce à des travaux pratiques, comment ces fonctionnalités sont mises en œuvre dans les deux entrepôts Zenodo et Dataverse.
- Published
- 2017
49. RDF analytics. Lenses over semantic graphs
- Author
-
François Goasdoué, Dario Colazzo, Ioana Manolescu, Alexandra Roatis, Database optimizations and architectures for complex large data (OAK), Laboratoire de Recherche en Informatique (LRI), Université Paris-Sud - Paris 11 (UP11)-CentraleSupélec-Centre National de la Recherche Scientifique (CNRS)-Université Paris-Sud - Paris 11 (UP11)-CentraleSupélec-Centre National de la Recherche Scientifique (CNRS)-Inria Saclay - Ile de France, Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria), Laboratoire d'analyse et modélisation de systèmes pour l'aide à la décision (LAMSADE), Université Paris Dauphine-PSL, Université Paris sciences et lettres (PSL)-Université Paris sciences et lettres (PSL)-Centre National de la Recherche Scientifique (CNRS), Gradedness, Imprecision, and Mediation in Database Management Systems (PILGRIM), GESTION DES DONNÉES ET DE LA CONNAISSANCE (IRISA-D7), Institut de Recherche en Informatique et Systèmes Aléatoires (IRISA), Université de Rennes (UR)-Institut National des Sciences Appliquées - Rennes (INSA Rennes), Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA)-Université de Bretagne Sud (UBS)-École normale supérieure - Rennes (ENS Rennes)-Institut National de Recherche en Informatique et en Automatique (Inria)-Télécom Bretagne-CentraleSupélec-Centre National de la Recherche Scientifique (CNRS)-Université de Rennes (UR)-Institut National des Sciences Appliquées - Rennes (INSA Rennes), Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA)-Université de Bretagne Sud (UBS)-École normale supérieure - Rennes (ENS Rennes)-Institut National de Recherche en Informatique et en Automatique (Inria)-Télécom Bretagne-CentraleSupélec-Centre National de la Recherche Scientifique (CNRS)-Institut de Recherche en Informatique et Systèmes Aléatoires (IRISA), Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA)-Université de Bretagne Sud (UBS)-École normale supérieure - Rennes (ENS Rennes)-Institut National de Recherche en Informatique et en Automatique (Inria)-Télécom Bretagne-CentraleSupélec-Centre National de la Recherche Scientifique (CNRS), Université Paris-Sud - Paris 11 (UP11)-CentraleSupélec-Centre National de la Recherche Scientifique (CNRS), Inria Saclay - Ile de France, Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria)-Laboratoire de Recherche en Informatique (LRI), Université Paris-Sud - Paris 11 (UP11)-CentraleSupélec-Centre National de la Recherche Scientifique (CNRS)-Université Paris-Sud - Paris 11 (UP11)-CentraleSupélec-Centre National de la Recherche Scientifique (CNRS), CentraleSupélec-Télécom Bretagne-Université de Rennes 1 (UR1), Université de Rennes (UNIV-RENNES)-Université de Rennes (UNIV-RENNES)-Institut National de Recherche en Informatique et en Automatique (Inria)-École normale supérieure - Rennes (ENS Rennes)-Université de Bretagne Sud (UBS)-Centre National de la Recherche Scientifique (CNRS)-Institut National des Sciences Appliquées - Rennes (INSA Rennes), Institut National des Sciences Appliquées (INSA)-Université de Rennes (UNIV-RENNES)-Institut National des Sciences Appliquées (INSA)-CentraleSupélec-Télécom Bretagne-Université de Rennes 1 (UR1), Institut National des Sciences Appliquées (INSA)-Université de Rennes (UNIV-RENNES)-Institut National des Sciences Appliquées (INSA)-Institut de Recherche en Informatique et Systèmes Aléatoires (IRISA), and Institut National des Sciences Appliquées (INSA)-Université de Rennes (UNIV-RENNES)-Institut National des Sciences Appliquées (INSA)
- Subjects
OLAP ,[INFO.INFO-DB]Computer Science [cs]/Databases [cs.DB] ,entrepôt de données ,InformationSystems_DATABASEMANAGEMENT ,data warehouse ,[INFO]Computer Science [cs] ,Sociology ,Humanities ,RDF ,Information Systems - Abstract
National audience; The development of the Semantic Web (RDF) brings new requirements for data analytics tools and methods, going beyond querying to semantics-rich analytics through warehouse-style tools. In this work, we fully redesign, from the bottom up, core data analytics concepts and tools in the context of RDF data, leading to the first complete formal framework for warehouse-style RDF analytics. Notably, we define i) analytical schemas tailored to heterogeneous, semantics-rich RDF graph, ii) analytical queries which, beyond relational cubes, allow flexible querying of the data and the schema as well as powerful aggregation and iii) OLAP-style operations. Experiments on a fully-implemented platform demonstrate the practical interest of our approach.; Le développement du web sémantique (avec l’adoption croissante du standard RDF du W3C) apporte de nouveaux besoins en méthodes et outils d’analyse de données riches, à la façon des entrepôts de données, allant au-delà de la simple interrogation. Dans cet article, nous revisitons les concepts et outils fondamentaux de l’analyse de données dans le contexte de RDF, afin d’obtenir le premier cadre formel pour l’analyse multidimensionnelle de données RDF. Notamment, nous définissons i) des schémas analytiques adaptés à des graphes RDF hétérogènes et riches en sémantique, ii) des requêtes analytiques qui, au-delà des cubes relationnels, permettent l’interrogation flexible de données et de schémas ainsi que de puissantes agrégations et iii) des opérations de type OLAP. Nos expériences sur une plateforme pleinement opérationnelle mettant en œuvre nos résultats démontrent l’intérêt pratique de notre approche.
- Published
- 2014
50. Cartographie nationale des services dédiés à la gestion et au partage des données de recherche
- Author
-
Rebouillat, Violaine, Dispositifs d'Information et de Communication à l'Ère du Numérique - Paris Île-de-France (DICEN-IDF), Université Paris Nanterre (UPN)-Conservatoire National des Arts et Métiers [CNAM] (CNAM), HESAM Université - Communauté d'universités et d'établissements Hautes écoles Sorbonne Arts et métiers université (HESAM)-HESAM Université - Communauté d'universités et d'établissements Hautes écoles Sorbonne Arts et métiers université (HESAM)-Université Paris-Est Marne-la-Vallée (UPEM), Ministère de l’Éducation nationale, de l'Enseignement supérieur et de la Recherche, Association du Réseau des URFIST, REBOUILLAT, Violaine, Conservatoire National des Arts et Métiers [CNAM] (CNAM)-Université Paris Nanterre (UPN)-Université Paris-Est Marne-la-Vallée (UPEM), Conservatoire National des Arts et Métiers [CNAM] (CNAM), and HESAM Université (HESAM)-HESAM Université (HESAM)-Université Paris Nanterre (UPN)-Université Paris-Est Marne-la-Vallée (UPEM)
- Subjects
Libre accès ,Données de la recherche ,Plan de gestion de données ,[SHS.INFO]Humanities and Social Sciences/Library and information sciences ,Centre d'archivage ,Centre de calcul ,Entrepôt de données ,[SHS.INFO] Humanities and Social Sciences/Library and information sciences - Abstract
National audience; Le mouvement vers les données ouvertes s’accélère et les communautés scientifiques seront amenées à court terme à rendre leurs données accessibles. Tandis que le programme de financement Horizon 2020 impose l’ouverture des données de recherche au niveau européen, la France se dote d’une loi sur le numérique, encadrant la diffusion des données produites par la communauté scientifique. Les technologies du Web conduisent, elles aussi, les chercheurs à repenser la place des données dans les processus d’élaboration de la connaissance. De nouveaux outils de gestion sont conçus pour l’analyse, le stockage et la diffusion des données, contribuant à l’émergence de disciplines telles que les humanités numériques ou la bio-informatique. En réponse à ces enjeux politiques et technologiques, le segment BSN10 – Données de recherche de la Bibliothèque Scientifique Numérique a initié en 2015 un recensement des services de gestion et de diffusion des données de la recherche publique en France. Cette étude vise à donner une meilleure connaissance des types de services existants et des disciplines couvertes par ces services. Le poster fait état de l’avancement de l’étude, six mois après son commencement. Les résultats y sont présentés de manière synthétique, rendant compte des 30 initiatives d’ores et déjà analysées, ainsi que de leur répartition selon une typologie quadripartite (accompagnement ; analyse ; conservation ; diffusion).
- Published
- 2016
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.