9 results on '"ENTITIES"'
Search Results
2. QUELQUES MOYENS LINGUISTIQUES ET RHÉTORIQUES POUR LA DESCRIPTION DE L'ESPACE DANS LA NOUVELLE FRANCOPHONE DE J.M.G. LE CLEZIO.
- Author
-
Paştin, Iuliana
- Abstract
This paper proposes a study of some rhetorical and linguistic means to which we have used to describe and characterize the spatial properties of the concrete entities of the physical world in some short JMG Le Clézio's story and the relationships between those entities that organize them on a purely spatial or spatio-temporal perspective. [ABSTRACT FROM AUTHOR]
- Published
- 2012
3. De la recherche de granules documentaires à l'agrégation d'information
- Author
-
Pinel-Sauvagnat, Karen, Pinel-Sauvagnat, Karen, Université Toulouse III - Paul Sabatier (UT3), Université Fédérale Toulouse Midi-Pyrénées, Recherche d’Information et Synthèse d’Information (IRIT-IRIS), Institut de recherche en informatique de Toulouse (IRIT), Université Toulouse 1 Capitole (UT1)-Université Toulouse - Jean Jaurès (UT2J)-Université Toulouse III - Paul Sabatier (UT3), Université Fédérale Toulouse Midi-Pyrénées-Université Fédérale Toulouse Midi-Pyrénées-Centre National de la Recherche Scientifique (CNRS)-Institut National Polytechnique (Toulouse) (Toulouse INP), Université Fédérale Toulouse Midi-Pyrénées-Université Toulouse 1 Capitole (UT1)-Université Toulouse - Jean Jaurès (UT2J)-Université Toulouse III - Paul Sabatier (UT3), Université Paul Sabatier (Toulouse 3), Nathalie Aussenac-Gilles, Directrice de Recherche CNRS, Université Toulouse 3, Université Toulouse 1 Capitole (UT1), Université Fédérale Toulouse Midi-Pyrénées-Université Fédérale Toulouse Midi-Pyrénées-Université Toulouse - Jean Jaurès (UT2J)-Université Toulouse III - Paul Sabatier (UT3), Université Fédérale Toulouse Midi-Pyrénées-Centre National de la Recherche Scientifique (CNRS)-Institut National Polytechnique (Toulouse) (Toulouse INP), and Université Fédérale Toulouse Midi-Pyrénées-Université Toulouse 1 Capitole (UT1)
- Subjects
agrégation d'information ,aggregated search ,évaluation ,social media ,entités ,[INFO] Computer Science [cs] ,XML documents ,entities ,[INFO.INFO-IR]Computer Science [cs]/Information Retrieval [cs.IR] ,documents XML ,[INFO]Computer Science [cs] ,information retrieval ,[INFO.INFO-IR] Computer Science [cs]/Information Retrieval [cs.IR] ,médias sociaux ,recherche d'information - Abstract
L'expansion du Web depuis la fin des années 90 a modifié en profondeur le fonctionnement des Systèmes de Recherche d'Information (SRI). Côté documents, des données sons, images et vidéos sont venues s'ajouter au texte traditionnellement traité par les SRI. Le texte lui-même s'est transformé, cette mutation étant soutenue par l'expansion des réseaux sociaux et les contenus générés par les utilisateurs. Côté modèles et présentation des résultats, les moteurs de recherche Web, après avoir longtemps proposé aux utilisateurs les fameux 10 liens bleus en réponse à leur requête, incluent maintenant dans leurs pages de résultats des images, des vidéos ou encore des actualités. Lorsque la requête est une entité, un cadre séparé peut également présenter des informations liées. L'idée n'est plus de restituer des documents relatifs à une requête, mais de donner directement à l'utilisateur un aperçu global de l'information liée à son besoin.C'est autour de cette dernière idée que la recherche d'information agrégée a été définie dès 2008, avec pour but de chercher et d'assembler dans une seule interface de l'information utile sous forme de granules d'information provenant d'une ou plusieurs sources. Dans ce cadre, mes recherches se sont plus particulièrement orientées vers:- la recherche de granules d'information. Cet axe porte sur des questions de Recherche d'Information adhoc classique relatives à la sélection de granules pertinents répondant à une requête. Nous avons considéré trois sources d'information spécifiques: (i) les collections de documents semi-structurés de type XML, afin de retrouver des granules textuels ou image; (ii) les plateformes de microblogging de type Twitter, nécessitant un traitement temps-réel des informations; (iii) le Web, pour des problématiques liées aux requêtes de type entité (recherche de relations autour de l'entités et d'informations nouvelles la concernant). - l'agrégation des résultats. Plus particulièrement, nous avons travaillé sur l'agrégation des relations liées à des entités, ainsi que sur le résumé temporel d'informations provenant de documents pertinents autour des entités.Enfin, une dernière partie de mes travaux concerne de façon transverse l'évaluation des systèmes, à travers le montage de collections de test ou la définition de protocoles d'évaluation.
- Published
- 2018
4. Enrichissement d'un réseau sémantique multilingue
- Author
-
Jouanneaux, Julie, Université Grenoble Alpes - UFR Langage, lettres et arts du spectacle, information et communication - Dpt Sciences du langage et français langue étrangère (UGA UFR LLASIC SLFLE), Université Grenoble Alpes [2016-2019] (UGA [2016-2019]), Thomas Lebarbé, and Dominique Noël
- Subjects
Multilingual semantic web ,Réseau sémantique multilingue ,Ontology ,Désambiguïsation sémantique ,Entities ,Semantic disambiguation ,French language processing ,Ontologie ,Entités nommées ,Expert System ,Traitement du français ,[SHS]Humanities and Social Sciences - Abstract
This paper summarizes the work completed during a 6-month internship in the R&D department at Expert System. For the most part this work concerns the enrichment of the French part of a multilingual semantic web known as extended Sensigrafo. The objective of this enrichment is to improve the quality of the semantic disambiguation. The Sensigrafo web is the semantic resource used by the semantic analysis engine which conducts a series of disambiguations (grammatical, semantic and syntactic) on textual content. Both test and enrichment tasks have been performed on the semantic resource. The test tasks provided us with the means of analysing the quality results of various disambiguations. The analysis of these results allow us to develop an error typology so as to determine those which need to be addressed in priority and to give thought to the various development strategies which could be implemented.; Ce document résume le travail effectué durant 6 mois de stage dans le département de Recherche & Développement de l’entreprise Expert System. Le travail portait principalement sur l’enrichissement de la partie française d’un réseau sémantique multilingue appelé Sensigrafo étendu. L’objectif est d’améliorer la qualité de la désambiguïsation sémantique. Le Sensigrafo FR est la ressource sémantique utilisée par un moteur d’analyse sémantique qui permet d’effectuer différentes désambiguïsations (grammaticales, sémantiques et syntaxiques) sur des contenus textuels. Différentes tâches de tests et d’enrichissements de la ressource sémantique ont été effectuées. Les tâches de test ont pour but d’obtenir une analyse de la qualité des résultats des différentes désambiguïsations. Les observations des résultats de cette analyse ont permis d’établir une typologie d’erreurs à traiter en priorité et de réfléchir aux différentes stratégies de développement possibles.
- Published
- 2016
5. Filtrage et agrégation d'informations vitales relatives à des entités
- Author
-
Abbes, Rafik, Systèmes d’Informations Généralisées (IRIT-SIG), Institut de recherche en informatique de Toulouse (IRIT), Université Toulouse 1 Capitole (UT1), Université Fédérale Toulouse Midi-Pyrénées-Université Fédérale Toulouse Midi-Pyrénées-Université Toulouse - Jean Jaurès (UT2J)-Université Toulouse III - Paul Sabatier (UT3), Université Fédérale Toulouse Midi-Pyrénées-Centre National de la Recherche Scientifique (CNRS)-Institut National Polytechnique (Toulouse) (Toulouse INP), Université Fédérale Toulouse Midi-Pyrénées-Université Toulouse 1 Capitole (UT1), Université Fédérale Toulouse Midi-Pyrénées, Universite Toulouse III Paul Sabatier, and Mohand Boughanem
- Subjects
Aggregation ,Entities ,Agrégation ,[INFO]Computer Science [cs] ,Vitality ,Vitalité ,Information filtering ,Filtrage d’information ,Entités - Abstract
Nowadays, knowledge bases such as Wikipedia and DBpedia are the main sources to access information on a wide variety of entities (an entity is a thing that can be distinctly identified such a person, an organization, a product, an event, etc.). However, the update of these sources with new information related to a given entity is done manually by contributors with a significant latency time particularly if that entity is not popular. A system that analyzes documents when published on the Web to filter important information about entities will probably accelerate the update of these knowledge bases. In this thesis, we are interested in filtering timely and relevant information, called vital information, concerning the entities. We aim at answering the following two issues: (1) How to detect if a document is vital (i.e., it provides timely relevant information) to an entity? and (2) How to extract vital information from these documents to build a temporal summary about the entity that can be seen as a reference for updating the corresponding knowledge base entry?Regarding the first issue, we proposed two methods. The first proposal is fully supervised. It is based on a vitality language model. The second proposal measures the freshness of temporal expressions in a document to decide its vitality. Concerning the second issue, we proposed a method that selects the sentences based on the presence of triggers words automatically retrieved from the knowledge already represented in the knowledge base (such as the description of similar entities).We carried out our experiments on the TREC Stream corpus 2013 and 2014 with 1.2 billion documents and different types of entities (persons, organizations, facilities and events). For vital documents filtering approaches, we conducted our experiments in the context of the task "knowledge Base Acceleration (KBA)" for the years 2013 and 2014. Our method based on leveraging the temporal expressions in the document obtained good results outperforming the best participant system in the task KBA 2013. In addition, we showed the importance of our generated temporal summaries to accelerate the update of knowledge bases.; Aujourd'hui, les bases de connaissances telles que Wikipedia et DBpedia représentent les sources principales pour accéder aux informations disponibles sur une grande variété d'entités (une entité est une chose qui peut être distinctement identifiée par exemple une personne, une organisation, un produit, un événement, etc.). Cependant, la mise à jour de ces sources avec des informations nouvelles en rapport avec une entité donnée se fait manuellement par des contributeurs et avec un temps de latence important en particulier si cette entité n'est pas populaire. Concevoir un système qui analyse les documents dès leur publication sur le Web pour filtrer les informations importantes relatives à des entités pourra sans doute accélérer la mise à jour de ces bases de connaissances. Dans cette thèse, nous nous intéressons au filtrage d'informations pertinentes et nouvelles, appelées vitales, relatives à des entités. Ces travaux rentrent dans le cadre de la recherche d'information mais visent aussi à enrichir les techniques d'ingénierie de connaissances en aidant à la sélection des informations à traiter. Nous souhaitons répondre principalement aux deux problématiques suivantes: (1) Comment détecter si un document est vital (c.à.d qu'il apporte une information pertinente et nouvelle) par rapport à une entité donnée? et (2) Comment extraire les informations vitales à partir de ces documents qui serviront comme référence pour mettre à jour des bases de connaissances? Concernant la première problématique, nous avons proposé deux méthodes. La première proposition est totalement supervisée. Elle se base sur un modèle de langue de vitalité. La deuxième proposition mesure la fraîcheur des expressions temporelles contenues dans un document afin de décider de sa vitalité. En ce qui concerne la deuxième problématique relative à l'extraction d'informations vitales à partir des documents vitaux, nous avons proposé une méthode qui sélectionne les phrases comportant potentiellement ces informations vitales, en nous basant sur la présence de mots déclencheurs récupérés automatiquement à partir de la connaissance déjà représentée dans la base de connaissances (comme la description d'entités similaires).L'évaluation des approches proposées a été effectuée dans le cadre de la campagne d'évaluation internationale TREC sur une collection de 1.2 milliard de documents avec différents types d'entités (personnes, organisations, établissements et événements). Pour les approches de filtrage de documents vitaux, nous avons mené nos expérimentations dans le cadre de la tâche "Knwoledge Base Acceleration (KBA)" pour les années 2013 et 2014. L'exploitation des expressions temporelles dans le document a permis d'obtenir de bons résultats dépassant le meilleur système proposé dans la tâche KBA 2013. Pour évaluer les contributions concernant l'extraction des informations vitales relatives à des entités, nous nous sommes basés sur le cadre expérimental de la tâche "Temporal Summarization (TS)". Nous avons montré que notre approche permet de minimiser le temps de latence des mises à jour de bases de connaissances.
- Published
- 2015
6. Filtering and aggregating vital information related to entities
- Author
-
Abbes, Rafik, Systèmes d’Informations Généralisées (IRIT-SIG), Institut de recherche en informatique de Toulouse (IRIT), Université Toulouse 1 Capitole (UT1), Université Fédérale Toulouse Midi-Pyrénées-Université Fédérale Toulouse Midi-Pyrénées-Université Toulouse - Jean Jaurès (UT2J)-Université Toulouse III - Paul Sabatier (UT3), Université Fédérale Toulouse Midi-Pyrénées-Centre National de la Recherche Scientifique (CNRS)-Institut National Polytechnique (Toulouse) (Toulouse INP), Université Fédérale Toulouse Midi-Pyrénées-Université Toulouse 1 Capitole (UT1), Université Fédérale Toulouse Midi-Pyrénées, Universite Toulouse III Paul Sabatier, and Mohand Boughanem
- Subjects
Aggregation ,Entities ,Agrégation ,[INFO]Computer Science [cs] ,Vitality ,Vitalité ,Information filtering ,Filtrage d’information ,Entités - Abstract
Nowadays, knowledge bases such as Wikipedia and DBpedia are the main sources to access information on a wide variety of entities (an entity is a thing that can be distinctly identified such a person, an organization, a product, an event, etc.). However, the update of these sources with new information related to a given entity is done manually by contributors with a significant latency time particularly if that entity is not popular. A system that analyzes documents when published on the Web to filter important information about entities will probably accelerate the update of these knowledge bases. In this thesis, we are interested in filtering timely and relevant information, called vital information, concerning the entities. We aim at answering the following two issues: (1) How to detect if a document is vital (i.e., it provides timely relevant information) to an entity? and (2) How to extract vital information from these documents to build a temporal summary about the entity that can be seen as a reference for updating the corresponding knowledge base entry?Regarding the first issue, we proposed two methods. The first proposal is fully supervised. It is based on a vitality language model. The second proposal measures the freshness of temporal expressions in a document to decide its vitality. Concerning the second issue, we proposed a method that selects the sentences based on the presence of triggers words automatically retrieved from the knowledge already represented in the knowledge base (such as the description of similar entities).We carried out our experiments on the TREC Stream corpus 2013 and 2014 with 1.2 billion documents and different types of entities (persons, organizations, facilities and events). For vital documents filtering approaches, we conducted our experiments in the context of the task "knowledge Base Acceleration (KBA)" for the years 2013 and 2014. Our method based on leveraging the temporal expressions in the document obtained good results outperforming the best participant system in the task KBA 2013. In addition, we showed the importance of our generated temporal summaries to accelerate the update of knowledge bases.; Aujourd'hui, les bases de connaissances telles que Wikipedia et DBpedia représentent les sources principales pour accéder aux informations disponibles sur une grande variété d'entités (une entité est une chose qui peut être distinctement identifiée par exemple une personne, une organisation, un produit, un événement, etc.). Cependant, la mise à jour de ces sources avec des informations nouvelles en rapport avec une entité donnée se fait manuellement par des contributeurs et avec un temps de latence important en particulier si cette entité n'est pas populaire. Concevoir un système qui analyse les documents dès leur publication sur le Web pour filtrer les informations importantes relatives à des entités pourra sans doute accélérer la mise à jour de ces bases de connaissances. Dans cette thèse, nous nous intéressons au filtrage d'informations pertinentes et nouvelles, appelées vitales, relatives à des entités. Ces travaux rentrent dans le cadre de la recherche d'information mais visent aussi à enrichir les techniques d'ingénierie de connaissances en aidant à la sélection des informations à traiter. Nous souhaitons répondre principalement aux deux problématiques suivantes: (1) Comment détecter si un document est vital (c.à.d qu'il apporte une information pertinente et nouvelle) par rapport à une entité donnée? et (2) Comment extraire les informations vitales à partir de ces documents qui serviront comme référence pour mettre à jour des bases de connaissances? Concernant la première problématique, nous avons proposé deux méthodes. La première proposition est totalement supervisée. Elle se base sur un modèle de langue de vitalité. La deuxième proposition mesure la fraîcheur des expressions temporelles contenues dans un document afin de décider de sa vitalité. En ce qui concerne la deuxième problématique relative à l'extraction d'informations vitales à partir des documents vitaux, nous avons proposé une méthode qui sélectionne les phrases comportant potentiellement ces informations vitales, en nous basant sur la présence de mots déclencheurs récupérés automatiquement à partir de la connaissance déjà représentée dans la base de connaissances (comme la description d'entités similaires).L'évaluation des approches proposées a été effectuée dans le cadre de la campagne d'évaluation internationale TREC sur une collection de 1.2 milliard de documents avec différents types d'entités (personnes, organisations, établissements et événements). Pour les approches de filtrage de documents vitaux, nous avons mené nos expérimentations dans le cadre de la tâche "Knwoledge Base Acceleration (KBA)" pour les années 2013 et 2014. L'exploitation des expressions temporelles dans le document a permis d'obtenir de bons résultats dépassant le meilleur système proposé dans la tâche KBA 2013. Pour évaluer les contributions concernant l'extraction des informations vitales relatives à des entités, nous nous sommes basés sur le cadre expérimental de la tâche "Temporal Summarization (TS)". Nous avons montré que notre approche permet de minimiser le temps de latence des mises à jour de bases de connaissances.
- Published
- 2015
7. Identification automatique d'entités pour l'enrichissement de contenus textuels
- Author
-
Stern, Rosa, Analyse Linguistique Profonde à Grande Echelle, Large-scale deep linguistic processing (ALPAGE), Université Paris Diderot - Paris 7 (UPD7)-Inria Paris-Rocquencourt, Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria), Université Paris-Diderot - Paris VII, Laurence Danlos(laurence.danlos@linguist.univ-paris-diderot.fr), Inria Paris-Rocquencourt, and Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria)-Université Paris Diderot - Paris 7 (UPD7)
- Subjects
entités ,liage ,linked data ,semantic annotation ,[INFO.INFO-CL]Computer Science [cs]/Computation and Language [cs.CL] ,entities ,extraction d'information ,semantic web ,annotation sémantique ,information extraction ,reconnaissance d'entités nommées ,named entitiy recognition ,web sémantique ,linking - Abstract
This dissertation proposes a method and a system for the identification of entities (persons, locations, organizations) mentionned in the textual production of the news agency Agence France Presse, in the prospect of the automatic content enrichment. The various fields concerned by this task are viewed through their relationship: Semantic Web, Information Extraction and in particular Named Entity Recognition (\ner), Semantic Annotation, Entity Linking. Following this study, the industrial need expressed by the Agence France Presse is the subject of specifications, useful for the development of a solution relying on Natural Language Processing tools. The approach adopted for the identification of the target entities is then described: we propose a system taking charge of the \ner step using any existing module, whose results, possibly combined with those of other modules, are evaluated by a linking module able to (i) align a given mention with the entity it denotes among an inventory, built prior to the task, (ii) to spot denotations without alignment in the inventory and (iii) to reconsider denotational readings of mentions (false positive detection). The \nomos system is developed to this end for the processing of French data. Its conception also gives rise to the building and use of resources integrated into the \ld network, as well as a rich knowledge base about the target entities.; Cette thèse propose une méthode et un système d'identification d'entités (personnes, lieux, organisations) mentionnées au sein des contenus textuels produits par l'Agence France Presse dans la perspective de l'enrichissement automatique de ces contenus. Les différents domaines concernés par cette tâche ainsi que par l'objectif poursuivi par les acteurs de la publication numérique de contenus textuels sont abordés et mis en relation : Web Sémantique, Extraction d'Information et en particulier Reconnaissance d'Entités Nommées (\ren), Annotation Sémantique, Liage d'Entités. À l'issue de cette étude, le besoin industriel formulé par l'Agence France Presse fait l'objet des spécifications utiles au développement d'une réponse reposant sur des outils de Traitement Automatique du Langage. L'approche adoptée pour l'identification des entités visées est ensuite décrite : nous proposons la conception d'un système prenant en charge l'étape de \ren à l'aide de n'importe quel module existant, dont les résultats, éventuellement combinés à ceux d'autres modules, sont évalués par un module de Liage capable à la fois (i) d'aligner une mention donnée sur l'entité qu'elle dénote parmi un inventaire constitué au préalable, (ii) de repérer une dénotation ne présentant pas d'alignement dans cet inventaire et (iii) de remettre en cause la lecture dénotationnelle d'une mention (repérage des faux positifs). Le système \nomos est développé à cette fin pour le traitement de données en français. Sa conception donne également lieu à la construction et à l'utilisation de ressources ancrées dans le réseau des \ld ainsi que d'une base de connaissances riche sur les entités concernées.
- Published
- 2013
8. Automatic Entity Identification for textual content enrichment
- Author
-
Stern, Rosa, Analyse Linguistique Profonde à Grande Echelle, Large-scale deep linguistic processing (ALPAGE), Inria Paris-Rocquencourt, Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria)-Université Paris Diderot - Paris 7 (UPD7), Université Paris-Diderot - Paris VII, and Laurence Danlos(laurence.danlos@linguist.univ-paris-diderot.fr)
- Subjects
entités ,liage ,linked data ,semantic annotation ,[INFO.INFO-CL]Computer Science [cs]/Computation and Language [cs.CL] ,entities ,extraction d'information ,semantic web ,annotation sémantique ,information extraction ,reconnaissance d'entités nommées ,named entitiy recognition ,web sémantique ,linking - Abstract
This dissertation proposes a method and a system for the identification of entities (persons, locations, organizations) mentionned in the textual production of the news agency Agence France Presse, in the prospect of the automatic content enrichment. The various fields concerned by this task are viewed through their relationship: Semantic Web, Information Extraction and in particular Named Entity Recognition (\ner), Semantic Annotation, Entity Linking. Following this study, the industrial need expressed by the Agence France Presse is the subject of specifications, useful for the development of a solution relying on Natural Language Processing tools. The approach adopted for the identification of the target entities is then described: we propose a system taking charge of the \ner step using any existing module, whose results, possibly combined with those of other modules, are evaluated by a linking module able to (i) align a given mention with the entity it denotes among an inventory, built prior to the task, (ii) to spot denotations without alignment in the inventory and (iii) to reconsider denotational readings of mentions (false positive detection). The \nomos system is developed to this end for the processing of French data. Its conception also gives rise to the building and use of resources integrated into the \ld network, as well as a rich knowledge base about the target entities.; Cette thèse propose une méthode et un système d'identification d'entités (personnes, lieux, organisations) mentionnées au sein des contenus textuels produits par l'Agence France Presse dans la perspective de l'enrichissement automatique de ces contenus. Les différents domaines concernés par cette tâche ainsi que par l'objectif poursuivi par les acteurs de la publication numérique de contenus textuels sont abordés et mis en relation : Web Sémantique, Extraction d'Information et en particulier Reconnaissance d'Entités Nommées (\ren), Annotation Sémantique, Liage d'Entités. À l'issue de cette étude, le besoin industriel formulé par l'Agence France Presse fait l'objet des spécifications utiles au développement d'une réponse reposant sur des outils de Traitement Automatique du Langage. L'approche adoptée pour l'identification des entités visées est ensuite décrite : nous proposons la conception d'un système prenant en charge l'étape de \ren à l'aide de n'importe quel module existant, dont les résultats, éventuellement combinés à ceux d'autres modules, sont évalués par un module de Liage capable à la fois (i) d'aligner une mention donnée sur l'entité qu'elle dénote parmi un inventaire constitué au préalable, (ii) de repérer une dénotation ne présentant pas d'alignement dans cet inventaire et (iii) de remettre en cause la lecture dénotationnelle d'une mention (repérage des faux positifs). Le système \nomos est développé à cette fin pour le traitement de données en français. Sa conception donne également lieu à la construction et à l'utilisation de ressources ancrées dans le réseau des \ld ainsi que d'une base de connaissances riche sur les entités concernées.
- Published
- 2013
9. Modélisation électromagnétique in virtuo. Application aux problèmes de propagation en milieux complexes pour les systèmes de télécommunication
- Author
-
Chenu, Sylvain, Département Micro-Ondes (MO), Université européenne de Bretagne - European University of Brittany (UEB)-Télécom Bretagne-Institut Mines-Télécom [Paris] (IMT), Ecole Nationale Supérieure des Télécommunications de Bretagne - ENSTB, Michel Ney(michel.ney@telecom-bretagne.eu), Chenu, Sylvain, Laboratoire des sciences et techniques de l'information, de la communication et de la connaissance (UMR 3192) (Lab-STICC), Université européenne de Bretagne - European University of Brittany (UEB)-Université de Bretagne Sud (UBS)-Université de Brest (UBO)-Institut Brestois du Numérique et des Mathématiques (IBNM), Université de Brest (UBO)-Télécom Bretagne-Institut Mines-Télécom [Paris] (IMT)-Centre National de la Recherche Scientifique (CNRS), Université européenne de Bretagne - European University of Brittany (UEB), Télécom Bretagne, Université de Bretagne Occidentale, Michel NEY(michel.ney@telecom-bretagne.eu), and Télécom Bretagne, Bibliothèque
- Subjects
système multi-agents ,[SPI.ELEC] Engineering Sciences [physics]/Electromagnetism ,méthode énactive ,modélisation dynamique ,entités ,in virtuo ,phénomène ,interactions ,complex system ,[INFO.INFO-MO]Computer Science [cs]/Modeling and Simulation ,environnement ,entities ,réalité virtuelle ,[SPI.ELEC]Engineering Sciences [physics]/Electromagnetism ,dynamic modeling ,multi-agent system ,phenomenon ,Principe d'énaction ,virtual reality ,système complexe ,[INFO.INFO-MO] Computer Science [cs]/Modeling and Simulation ,enactive method ,environment - Abstract
Currently, most of electromagnetic simulators are based on the solution of Maxwell's equations or their equivalent forms. These simulators have benefited from the rapid evolution of the computer power that has compensated the rapid increase of the structure complexity and size to be simulated. However, the computer power increase can no longer compensate the future demands for larger size and more complex problems. In spite of much effort made to reduce electromagnetic calculations, the difficulty to take such challenging complex problems requires the quest for an important methodological breakthrough. The method called "enactive", proposed in these works, is an atypical approach to model dynamic systems of a natural environment and its simulation in a system of virtual reality. Coming from the modelling of multi-agent systems, it offers a specific method for modelling such complex systems where many phenomena must interact in multiple ways, at different space and time scales. We wish to follow the evolution of an electromagnetic wave and its possible interactions with objects in an environment in virtuo, i.e. in a virtual laboratory (virtuoscope). In this context, this work is interdisciplinary and combines the tools and techniques of virtual reality to model electromagnetic phenomena. In addition, phenomena are modelled by autonomous entities that interact. Therefore, our model must be based on both aspects a rigorous definition of entities, namely waves and media, and interactions that may occur to reconstitute "real" electromagnetic phenomena in a virtual environment. Also, we have no means to verify or validate our model other than by experiments. In a way, we make a bet, a challenge, to succeed in building an electromagnetic enactic system. For this, we have developed some scenarios of electromagnetic environments, followed by the development of two models, one unidimensional and one bidimensionnal. Results are compared to more conventional and appropriate methods or to the theory when it is possible., Actuellement, la plupart des simulateurs électromagnétiques se basent sur une résolution des équations aux dérivées partielles ou leurs formes équivalentes. Ces simulateurs ont jusqu'à présent bénéficié d'une augmentation de la puissance informatique compensant les exigences de calcul nécessitées par la croissance de la complexité et de la dimension des objets à modéliser. Cependant la taille des problèmes cruciaux augmente beaucoup plus rapidement que la puissance informatique. Malgré les apports faits pour simplifier les calculs électromagnétiques, la difficulté à tenir compte de tels problèmes complexes nécessite un saut méthodologique important. La méthode dite " énactive ", proposée dans ces travaux, constitue une approche atypique pour la modélisation dynamique d'un environnement naturel et sa simulation en un système de réalité virtuelle. Issue de la modélisation des systèmes multi-agents, elle propose une méthode spécifique pour la modélisation de tels systèmes complexes où de nombreux phénomènes interagissent de nombreuses façons, à des échelles de temps et d'espace pouvant être très différentes. Nous cherchons à suivre l'évolution d'une onde électromagnétique et ses interactions éventuelles avec des objets d'un environnement in virtuo, i.e. à travers un laboratoire virtuel (virtuoscope). Dans ce contexte, cette thèse s'inscrit dans un cadre interdisciplinaire qui allie les outils et les techniques de la réalité virtuelle à la modélisation de phénomènes électromagnétiques. En outre, les phénomènes sont modélisés en tant qu'entités autonomes en interaction. Notre modèle doit donc reposer sur une définition rigoureuse des entités, à savoir les ondes et les milieux, et des interactions qui peuvent avoir lieu afin de reconstituer l'ensemble des phénomènes électromagnétiques " réels " au sein d'un environnement virtuel. Aussi, nous n'avons pas de moyens nous permettant de vérifier ni de valider autrement que par l'expérimentation notre modèle. En ce sens, nous faisons l'enjeu et le pari de parvenir à construire un tel système énactique électromagnétique. Pour cela, nous avons mis au point un ensemble de scénarios d'environnements électromagnétiques, suite au développement de deux modèles de propagation, l'un unidimensionnel et l'autre bidimensionnel. Les résultats seront comparés à des méthodes plus classiques appropriées voire à la théorie lorsque c'est possible.
- Published
- 2011
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.