275 results on '"méthodes numériques"'
Search Results
2. The Feminist XResistance Project: Reflections and Commentary.
- Author
-
Ariel, Galit, Bhandari, Aparajita, York-Bertram, Sarah, and Hopkins, Kacie G.
- Abstract
Copyright of Atlantis: Critical Studies in Gender, Culture & Social Justice / Études Critiques sur le Genre, la Culture, et la Justice is the property of Mount Saint Vincent University and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2024
- Full Text
- View/download PDF
3. O que está acontecendo? O que os trending topics podem nos dizer a respeito de ações políticas coletivamente orquestradas.
- Author
-
Chagas, Viktor
- Abstract
The objective of this article is to understand the dynamics concerning political actions, carried out through hashtags on Twitter. Its main goal is to determine if the monitoring of trending topics can help to identify moments of acute political tension. Based on an analysis of rank flows, the main hypothesis raised by this investigation is that, as indications of online public opinion, trends can operate as a thermometer of the climate of opinion in networks. In addition, it is possible to note, through the use of hashtags as markers of support and disarray, the use of astroturfing tactics to achieve visibility and repercussion on social media. The study undertook a systematic collection of the main trends in Brazil, between January and July 2019, to evaluate strategies related to the competitive capacity of these groups [ABSTRACT FROM AUTHOR]
- Published
- 2023
- Full Text
- View/download PDF
4. Glowinski and numerical control problems.
- Author
-
Fernández-Cara, Enrique
- Subjects
- *
HEAT equation , *CARLEMAN theorem , *NONLINEAR equations , *NASH equilibrium , *NUMERICAL control of machine tools - Abstract
This paper is devoted to recall several contributions to the numerical control of PDE's that have origin in Glowinski's work. I will consider null controllability problems for linear and nonlinear heat equations and some free-boundary systems. We will also deal with some bi-objective optimal control problems. Additionally, some new methods and results will be announced. [ABSTRACT FROM AUTHOR]
- Published
- 2023
- Full Text
- View/download PDF
5. Qualitative Research Methods: do digital tools open promising trends?
- Author
-
Pedro Costa, António
- Subjects
QUALITATIVE research ,DIGITAL technology ,DIGITAL literacy ,ARTIFICIAL intelligence ,RESEARCH questions - Abstract
Copyright of Revista Lusofona de Educacao is the property of Universidade Lusofona de Humanidades e Tecnologias, CEIEF and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2023
- Full Text
- View/download PDF
6. Is the Alt-Right Popular in Canada? Image Sharing, Popular Culture, and Social Media.
- Author
-
McKelvey, Fenwick, De Jong, Scott, Kowalchuck, Saskia, and Donovan, Elsa
- Subjects
- *
SOCIAL media , *PRACTICAL politics , *TECHNOLOGY - Abstract
Background: In popular coverage and social media analysis, the alt-right has been described as a popular phenomenon. Following Stuart Hall's understanding of popular culture, we question the status of the alt-right in Canada as both a political and methodological problem that requires critical attention to social media metrics and critical experimentation in developing new digital methods. Analysis: Our study developed a novel method to analyse image circulation across major social media platforms. We fnd that image sharing is marginal, yet the spread of images distinguishes political communities between Twitter hashtags, subreddits, and Facebook pages. We found a distinct altright community in our sample, active but isolated from other popular sites. Conclusion and Implications: While the fndings suggest the limited signifcance of image sharing to conceptualize popularity in cross-platform analysis, our novel method offers a compelling alternative to corporate social media analytics and raises new questions about how popular politics, especially the popularity of the alt-right, may be studied in the future. [ABSTRACT FROM AUTHOR]
- Published
- 2022
- Full Text
- View/download PDF
7. ME to WE Social Entrepreneurship: A Wolf in Sheep's Clothing.
- Author
-
Karsgaard, Carrie and Shultz, Lynette
- Subjects
SOCIAL entrepreneurship ,SOCIAL enterprises ,ORGANIZATIONAL goals ,SOCIAL justice ,COMMON good ,CORPORATE giving - Abstract
Copyright of Canadian Journal of Education / Revue Canadienne de l'Éducation is the property of Canadian Society for the Study of Education and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2022
- Full Text
- View/download PDF
8. Du corpus télévisuel au corpus web à l’aide de l’outil visuel automatique
- Author
-
Shen, Shiming, Kergosien, Eric, Treleani, Matteo, Laboratoire de Recherche en Sciences de l'Information et de la Communication (SIC.Lab Méditerranée), Université Nice Sophia Antipolis (1965 - 2019) (UNS), COMUE Université Côte d'Azur (2015-2019) (COMUE UCA)-COMUE Université Côte d'Azur (2015-2019) (COMUE UCA)-Université Côte d'Azur (UCA), Groupe d'Études et de Recherche Interdisciplinaire en Information et COmmunication - ULR 4073 (GERIICO ), Université de Lille, and Ecole nationale des chartes
- Subjects
Europe ,Audiovisual archives ,Télévision ,Méthodes numériques ,Digital methods ,Archives audiovisuelles ,[SHS.INFO]Humanities and Social Sciences/Library and information sciences ,Television ,Web ,Media memory ,Mémoire des médias - Abstract
International audience; This article addresses a major issue related to the collection of audiovisual documents within television and web archives. While searching for repeated sequences in a corpus of thousands of videos, we were confronted with the fact that unlike television images, the web images we were looking for turned out not to be accessible via metadata. To solve this problem, we consider web sources not in isolation, but in connection with television data. From our already established TV corpus, when faced with large amounts of web data with unstructured metadata, to link a visual unit to its occurrences, automatic analysis techniques are therefore required. We describe our data collection procedures and the solution combining qualitative work and computer-assisted approach to face this major challenge, within the Crossing Borders Archives (CROBORA) research project.; Cet article traite d'un enjeu majeur lié à la collecte de documents audiovisuels au sein des archives télévisuelles et web. En recherchant des séquences répétées dans un corpus de milliers de vidéos, nous avons été confrontés au fait que contrairement aux images télévisuelles, les images web que nous recherchions se révèlent ne pas être accessibles via les métadonnées. Pour résoudre ce problème, nous envisageons les sources web non pas de manière isolée, mais en lien avec les données télévisuelles. A partir de notre corpus télévisuel déjà établi, face à de grandes quantités de données du web avec des métadonnées non structurées, pour relier une unité visuelle à ses occurrences, des techniques d'analyse automatiques sont donc nécessaires. Nous décrivons nos procédures de collecte de données et la solution alliant travail qualitatif et approche assistée par ordinateur pour faire face à ce défi majeur, au sein du projet de recherche Crossing Borders Archives (CROBORA).
- Published
- 2023
9. Méthodes tensorielles adaptatives pour problèmes haute dimensionnelles
- Author
-
Fuente Ruiz, María, COmputational Mathematics for bio-MEDIcal Applications (COMMEDIA), Inria de Paris, Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria)-Laboratoire Jacques-Louis Lions (LJLL (UMR_7598)), Sorbonne Université (SU)-Centre National de la Recherche Scientifique (CNRS)-Université Paris Cité (UPCité)-Sorbonne Université (SU)-Centre National de la Recherche Scientifique (CNRS)-Université Paris Cité (UPCité), Laboratoire Jacques-Louis Lions (LJLL (UMR_7598)), Sorbonne Université (SU)-Centre National de la Recherche Scientifique (CNRS)-Université Paris Cité (UPCité), Sorbonne Université, Damiano Lombardi, and Virginie Ehrlacher
- Subjects
Neural Networks ,Singulary Perturbed Problems ,Canonical Polyadic ,PINNs ,[INFO.INFO-NA]Computer Science [cs]/Numerical Analysis [cs.NA] ,High dimension ,[INFO.INFO-MO]Computer Science [cs]/Modeling and Simulation ,Polyadique canonique ,Tensor methods ,Méthodes numériques ,Réseaux neuronaux ,Modèles d'ordre réduit ,Méthodes tensorielles ,Numerical methods ,Model Order Reduction ,Problèmes perturbés singuliers ,Haute dimension - Abstract
This thesis aims to find numerical methods for approximating multivariate functions (tensors). It covers three different perspectives: a tensor approximation method (Sum of Tensor Trains), a local tensor approximation method based on clustering (local HOSVD), and a deep learning-based method for approximating a solution of a convection diffusion PDE. The first part of the work proposes a method for approximating a tensor as a sum of Tensor Trains, which is based on a greedy algorithm and TT-SVD. The second part proposes a local tensor approximation method that retrieves an approximated solution in the local HOSVD format, based on clustering and a search between possible partition combinations to minimize memory needed to store the approximation. The results show good compression rate compared to HOSVD.; Cette thèse vise à trouver des méthodes numériques pour approximer des fonctions multivariées. Elle couvre trois perspectives différentes: une méthode d'approximation de tenseur (Somme de Tensor Trains), une méthode d'approximation de tenseur locale basée sur le regroupement (HOSVD local), et une méthode basée sur l'apprentissage profond pour approximer une solution d'une EDP de convection diffusion. La première partie du travail propose une méthode pour approximer un tenseur en tant que somme de Tensor Trains, basée sur un algorithme gourmand et le TT-SVD. La seconde partie propose une méthode d'approximation de tenseur locale qui récupère une solution approximée au format HOSVD local, basée sur le regroupement et une recherche entre les combinaisons de partitions possibles pour minimiser la mémoire nécessaire pour stocker l'approximation. Les résultats montrent un bon taux de compression par rapport à HOSVD.
- Published
- 2023
10. La modération abusive sur Twitter: Étude de cas sur l’invisibilisation des contenus LGBT et TDS en ligne
- Author
-
Grison, Thibault, Julliard, Virginie, Alié, Félix, Ecrement, Victor, Sorbonne Université - Faculté des Lettres - École des hautes études en sciences de l'information et de la communication (SU CELSA), Sorbonne Université (SU), Sorbonne Center for Artificial Intelligence (SCAI), Muséum national d'Histoire naturelle (MNHN)-Institut de Recherche pour le Développement (IRD)-Université de Technologie de Compiègne (UTC)-Institut National de Recherche en Informatique et en Automatique (Inria)-Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Assistance publique - Hôpitaux de Paris (AP-HP) (AP-HP)-Institut National de la Santé et de la Recherche Médicale (INSERM)-Sorbonne Université (SU)-Centre National de la Recherche Scientifique (CNRS)-Institut Européen d'administration des Affaires (INSEAD), and Groupe de recherches interdisciplinaires sur les processus d’information et de communication (GRIPIC)
- Subjects
Algorithmes ,Méthodes numériques ,LGBT ,Modération ,Twitter ,Haine en ligne ,[SHS]Humanities and Social Sciences - Abstract
International audience; Bien que les entreprises du web affirment soutenir une politique inclusive en matière de modération de contenus et qu’elles affirment s’engager dans la lutte contre la haine en ligne, elles sont régulièrement accusées de censure à l’encontre de communautés minorisées. Cet article étudie la façon dont les dispositifs de modération des réseaux sociaux numériques (en particulier Twitter) affectent les régimes de visibilité des LGBT et des travailleurs et travailleuses du sexe en ligne. L’étude s’appuie sur une approche en méthodes numériques dédiée au repérage et à la collecte de tweets supprimés afin de permettre la formulation d'hypothèses relatives à ce qui a suscité les suppressions conduisant à une censure abusive. Elle explore, en particulier, l’hypothèse selon laquelle certains mots-clés référant à une culture sexuelle et de genre suscitent une modération automatisée en raison de leur caractère injurieux.
- Published
- 2023
- Full Text
- View/download PDF
11. Dynamics of a particle with friction and delay.
- Author
-
Monteiro Marques, Manuel D.P. and Dzonou, Raoul
- Subjects
- *
DRY friction , *COULOMB functions , *FINITE element method , *ALGORITHMS , *MATHEMATICAL models - Abstract
We are interested in the motion of a simple mechanical system having a finite number of degrees of freedom subjected to a unilateral constraint with dry friction and delay effects (with maximal duration τ > 0 ). At the contact point, we characterize the friction by a Coulomb law associated with a friction cone. Starting from a formulation of the problem that was given by Jean-Jacques Moreau in the form of a second-order differential inclusion in the sense of measures, we consider a sweeping process algorithm that converges towards a solution to the dynamical contact problem. The mathematical machinery as well as the general plan of the existence proof may seem much too heavy in order to treat just this simple case, but they have proved useful in more complex settings. [ABSTRACT FROM AUTHOR]
- Published
- 2018
- Full Text
- View/download PDF
12. Algorithmes efficaces pour le contrôle et l'apprentissage par renforcement
- Author
-
Berthier, Eloïse, Université Paris sciences et lettres (PSL), École normale supérieure - Paris (ENS-PSL), Statistical Machine Learning and Parsimony (SIERRA), Département d'informatique - ENS Paris (DI-ENS), Université Paris sciences et lettres (PSL)-Université Paris sciences et lettres (PSL)-Institut National de Recherche en Informatique et en Automatique (Inria)-Centre National de la Recherche Scientifique (CNRS)-École normale supérieure - Paris (ENS-PSL), Université Paris sciences et lettres (PSL)-Université Paris sciences et lettres (PSL)-Institut National de Recherche en Informatique et en Automatique (Inria)-Centre National de la Recherche Scientifique (CNRS)-Centre National de la Recherche Scientifique (CNRS)-Inria de Paris, Institut National de Recherche en Informatique et en Automatique (Inria), Université PSL (Paris Sciences & Lettres), and Francis Bach (francis.bach@inria.fr)
- Subjects
Sommes de carrés ,Optimal control ,Fonctions de Lyapunov ,Méthodes numériques ,Apprentissage par renforcement ,[INFO.INFO-LG]Computer Science [cs]/Machine Learning [cs.LG] ,Espaces à noyaux reproduisants ,Approximation max-plus ,Reinforcement learning ,Sums-of-squares ,Contrôle optimal ,Numerical methods ,Max-plus approximation ,Estimation non-paramétrique ,[MATH.MATH-OC]Mathematics [math]/Optimization and Control [math.OC] ,Non-parametric estimation ,Reproducing kernel Hilbert spaces ,Lyapunov functions - Abstract
Reinforcement learning describes how an agent can learn to act in an unknown environment in order to maximize its reward in the long run. It has its origins in the field of optimal control, as well as in some works in psychology. The increase in computational power and the use of approximation methods such as neural networks have led to recent successes, in particular in the resolution of games, yet without systematically providing theoretical guarantees. As for the field of optimal control, for which a model of the environment is provided, it has known solid theoretical developments since the 1960s, with numerical tools that have proven useful in many industrial applications. Nevertheless, the numerical resolution of high dimensional nonlinear control problems, which are typically encountered in robotics, remains relatively open today.In this thesis, we develop and analyze efficient algorithms, when possible with theoretical guarantees, for control and reinforcement learning. We show that, even though they are formulated differently, these two problems are very similar. We first focus on the discretization of continuous state deterministic Markov decision processes, by adapting a method developed for continuous time control. Then we propose a method for fast estimation of stability regions applicable to imperfectly known high-dimensional dynamical systems. We then generalize an algorithm for solving control problems derived from polynomial optimization, to non-polynomial systems known through a finite number of observations. For this, we use a sum-of-squares representation of smooth positive functions from kernel methods. Finally, we analyze a classical algorithm in reinforcement learning, the temporal-difference learning algorithm, in its non-parametric version. In particular, we insist on the link between the temporal-difference learning algorithm and the stochastic gradient descent algorithm, for which many convergence results are known.; L’apprentissage par renforcement désigne pour un agent le fait d’apprendre à agir dans un environnement inconnu, de façon à maximiser sa récompense sur le long terme. Il trouve son origine dans le domaine du contrôle optimal, ainsi que dans certains travaux en psychologie. L’augmentation des capacités de calcul et l’utilisation de méthodes d’approximation comme les réseaux de neurones ont permis des succès récents notamment pour la résolution des jeux, sans pour autant systématiquement fournir des garanties théoriques. Quant au domaine du contrôle optimal, pour lequel un modèle de l’environnement est fourni, il a connu des développements théoriques solides dès les années 1960, avec des outils numériques qui ont fait leurs preuves dans de nombreuses applications industrielles. Néanmoins, la résolution numérique de problèmes de contrôle non-linéaires de grande dimension, problèmes qui sont notamment rencontrés en robotique, reste aujourd’hui relativement ouverte.Dans cette thèse, nous développons et analysons des algorithmes efficaces, si possible avec des garanties théoriques, pour le contrôle et l’apprentissage par renforcement. Nous montrons que, même s’ils sont formulés différemment, ces deux problèmes sont très proches. Nous nous intéressons d’abord à la discrétisation des processus de décision Markoviens déterministes à état continu, en adaptant une méthode développée pour le contrôle en temps continu. Puis nous proposons une méthode d’estimation rapide de régions de stabilité applicable à des systèmes dynamiques de grande dimension imparfaitement connus. Nous généralisons ensuite un algorithme de résolution de problèmes de contrôle issu de l’optimisation polynomiale, aux systèmes non-polynomiaux et connus à partir d’un nombre fini d’observations. Pour cela, nous utilisons une représentation comme somme de carrés des fonctions positives lisses issue des méthodes à noyaux. Enfin, nous analysons un algorithme classique en apprentissage par renforcement, l’algorithme des différences temporelles, dans sa version non-paramétrique. Nous soulignons ainsi le lien entre l’algorithme des différences temporelles et l’algorithme de descente de gradient stochastique, pour lequel de nombreux résultats de convergence sont connus.
- Published
- 2022
13. L’éthique comme méthode en communication: Contourner les plateformes numériques pour assurer la qualité des données de recherche
- Author
-
Alloing, Camille, Le Béchec, Mariannig, Université du Québec à Montréal = University of Québec in Montréal (UQAM), Laboratoire de communication médiatisée par ordinateur (LabCMO), Equipe de recherche de Lyon en sciences de l'information et de la communication (ELICO), Université Lumière - Lyon 2 (UL2)-École nationale supérieure des sciences de l'information et des bibliothèques (ENSSIB), Université de Lyon-Université de Lyon-Sciences Po Lyon - Institut d'études politiques de Lyon (IEP Lyon), Université de Lyon-Université Jean Moulin - Lyon 3 (UJML), Université de Lyon-Université Claude Bernard Lyon 1 (UCBL), Université de Lyon, and Université Claude Bernard Lyon 1 (UCBL)
- Subjects
méthodes mixtes ,mixed methods ,consentement ,multiplateforme ,éthique ,multiplatform ,consent ,ethics ,anonymat ,digital methods ,méthodes numériques ,[SHS]Humanities and Social Sciences - Abstract
International audience; What are the implications of leading a research project related to different digital platforms ? There are some conceptual and methodological choices to make as well as technical hurdles to be aware of. To answer this question, central to research in information-communication, we present the practices developed during a research project related to crowdfunding. These practices aim to adapt our method to the standardisation of platforms and to the ethical foundations of social science research, such as anonymity and consent. Researchers process data produced by end-users in some context. This context is of paramount importance to interpret data without betraying the intentions of the subject producing them. The necessary skills for anonymising data sets are a matter of tinkering and require computer skills to overcome the shortcomings of the platforms. Eventually we would like to highlight that the ethical practices described in this paper often remain invisible and informal even though they condition the interpretation of the results and their reliability.; Quelles implications conceptuelles, méthodologiques et techniques deviennent nécessaires lorsqu’un projet de recherche étudie différentes plateformes numériques ? Pour répondre à cette question devenue centrale dans les recherches en information-communication, nous présentons les pratiques développées lors d’une recherche portant sur le financement participatif. Ces pratiques ont pour objectif d’adapter notre méthode à la standardisation des plateformes afin de respecter les fondements éthiques des recherches en sciences sociales, tels que l’anonymat et le consentement. Le consentement accordé aux plateformes par l’usager implique pour les chercheurs d’interpréter de manière fiable les usages incorporés dans les données obtenues et analysées, qui sont parfois éloignées du contexte de production par un sujet. Les techniques nécessaires à l’anonymisation des sujets relèvent quant à elles d’un nécessaire bricolage, et du recours à des compétences en informatique, afin de pallier les défaillances des plateformes. Enfin, nous soulignons que les pratiques éthiques décrites demeurent souvent invisibles et informelles, alors même qu’elles conditionnent l’interprétation des résultats comme leur fiabilité.
- Published
- 2022
- Full Text
- View/download PDF
14. 'Algorithmic Discriminations'? Digital social networks and content moderation in the light of censorship
- Author
-
Grison, Thibault, Sorbonne Université - Faculté des Lettres - École des hautes études en sciences de l'information et de la communication (SU CELSA), Sorbonne Université (SU), Sorbonne Center for Artificial Intelligence (SCAI), Muséum national d'Histoire naturelle (MNHN)-Institut de Recherche pour le Développement (IRD)-Université de Technologie de Compiègne (UTC)-Institut National de Recherche en Informatique et en Automatique (Inria)-Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Assistance publique - Hôpitaux de Paris (AP-HP) (AP-HP)-Institut National de la Santé et de la Recherche Médicale (INSERM)-Sorbonne Université (SU)-Centre National de la Recherche Scientifique (CNRS)-Institut Européen d'administration des Affaires (INSEAD), Groupe de recherches interdisciplinaires sur les processus d’information et de communication (GRIPIC), SFSIC, and CIMEOS
- Subjects
Digital social networks ,Algorithmes ,Méthodes numériques ,LGBT ,Modération ,Réseaux sociaux ,Computer science methods ,Algorithms ,[SHS]Humanities and Social Sciences - Abstract
National audience; Cette communication prend pour objet la construction des représentations et identités de genre dans le déploiement des algorithmes de recommandation et de modération au sein des réseaux sociaux numériques (RSN). La communication propose donc de s'intéresser à la façon dont les dispositifs de modération et de recommandation des RSN produisent et conditionnent des régimes d'(in)visibilité pour les communautés sexuelles et de genre, et impactent la fabrique sémiotique de la sexualité en ligne.
- Published
- 2022
15. Imagerie de milieux salifères aux échelles crustales et expérimentales par méthodes de migration sismique et méthode de l'adjoint : applications marines
- Author
-
Abreu-Torres, Javier, Géosciences Environnement Toulouse (GET), Institut de Recherche pour le Développement (IRD)-Université Toulouse III - Paul Sabatier (UT3), Université de Toulouse (UT)-Université de Toulouse (UT)-Institut national des sciences de l'Univers (INSU - CNRS)-Observatoire Midi-Pyrénées (OMP), Université de Toulouse (UT)-Université de Toulouse (UT)-Institut national des sciences de l'Univers (INSU - CNRS)-Centre National d'Études Spatiales [Toulouse] (CNES)-Centre National de la Recherche Scientifique (CNRS)-Météo-France -Institut de Recherche pour le Développement (IRD)-Institut national des sciences de l'Univers (INSU - CNRS)-Centre National d'Études Spatiales [Toulouse] (CNES)-Centre National de la Recherche Scientifique (CNRS)-Météo-France -Centre National de la Recherche Scientifique (CNRS), Université Paul Sabatier - Toulouse III, Roland Martin, and José Darrozes
- Subjects
Ondes sismiques ,Imagerie séismique ,Méthodes numériques ,Seismic waves ,RTM algorithm ,Wave equation ,Équation des ondes ,Numerical methods ,Seismic imaging ,Algorithme RTM ,[SDU.STU.AG]Sciences of the Universe [physics]/Earth Sciences/Applied geology ,Salt dome ,Dôme salin - Abstract
Finding salt geological structures is an important economic reason for exploration in the world because they constitute a natural trap for various resources such as oil, natural gas, water, and also the salt itself can be exploitable. However, the imaging of these structures is a great challenge. Due to the properties of salt, with propagation velocities much higher than the adjacent strata, seismic waves are trapped within these structures, producing a large number of spurious numerical artifacts, such as multiples. This interferes with the primary seismic signal, making it impossible to see clearly what is underneath the salt structures (salt domes for instance). Among all the geophysical exploration methods, the Reverse Time Migration method (RTM), which is part of the methods that solve the complete seismic waveform, is a very powerful imaging tool, even in regions of complex geology. In this work we use the adjoint-based RTM method, which basically consists of three stages: the solution of the wave equation (forward problem), the solution of the adjoint wave equation (adjoint problem), and the imaging condition, which consists in the correlation of the forward and adjoint wavefields. This work can be divided in two cases of study: the first case consists in a two-dimensional synthetic model of a salt dome, taken from the final migration of a real survey in the Gulf of Mexico. The second case consists in an experimental three-dimensional model (WAVES), elaborated by the LMA laboratory in Marseille (France), which simulates a salt structure (with surrounding sedimentary structures), and a basement. The model was immersed in water to recreate a reallistic marine survey. Two different data types were obtained in this experiment: zero-offset and multi-offset data. To compute the adjoint-based RTM method we use fourth-order finite differences in both cases. Furthermore, in the second case we used the UniSolver code, which solves the adjoint-based RTM method using fourth-order finite differences and MPI-based parallelism. It was also necessary to implement the viscoelastic equations to simulate the effect of attenuation. Because of this, the Checkpointing scheme is introduced to calculate the imaging condition and ensures physical and numerical stability in the migration procedure. In the first case study we analyze the recovery of the salt dome image that different sensitivity kernels produce. We calculate these kernels using different parametrizations (density - P velocity), (density - Lamé constants), or (density - P impedance) for an acoustic rheology. We also study how the use of different a priori models affects the final image depending on the kind of kernel computed. Using the results obtained previously in 2D, we calculate synthetic three-dimensional kernels using an elastic rheology. In the second case (the realistic/experimental case), we perform a calibration of the model properties for zero-offset data, and once the synthetic and real data fit well, we calculate the three-dimensional kernels. [...]; La découverte de structures géologiques salines est une raison économique importante pour l'exploration dans le monde car elles constituent un piège naturel pour diverses ressources. Cependant, l'imagerie de ces structures est un grand défi. En raison des propriétés du sel, dont les vitesses de propagation sont beaucoup plus élevées que celles des strates adjacentes, les ondes sismiques sont piégées dans ces structures, produisant un grand nombre d'artefacts numériques parasites, tels que des multiples. Cela interfère avec le signal sismique primaire, ce qui empêche de voir clairement ce qui se trouve sous les structures salifères. Parmi toutes les méthodes d'exploration géophysique, la méthode de migration par renversement temporel (RTM), qui fait partie des méthodes qui utilisent la résolution de la forme d'onde sismique complète, est un outil d'imagerie très puissant, même dans les régions à géologie complexe. Dans ce travail, nous utilisons la méthode RTM basée sur l'adjoint, qui consiste essentiellement en trois étapes : la solution de l'équation des ondes, la solution de l'équation des ondes adjointe et la condition d'imagerie, qui consiste en la corrélation des champs d'ondes directs et adjoints. Ce travail peut être divisé en deux cas d'étude : le premier cas consiste en un modèle synthétique bidimensionnel d'un dôme de sel, issu de la migration finale d'une étude réelle dans le Golfe du Mexique. Le second cas consiste en un modèle tridimensionnel expérimental (WAVES), élaboré par le laboratoire LMA de Marseille, qui simule une structure saline, structures sédimentaires environnantes, et un socle. Le modèle a été immergé dans l'eau pour recréer un sondage marin réaliste. Deux types de données différents ont été obtenus dans cette expérience : des données à décalage nul et des données à décalage multiple. Pour résoudre l'équation des ondes impliquée dans la méthode RTM basée sur l'adjoint, nous utilisons des différences finies d'ordre 4 dans les deux cas. De plus, dans le second cas, nous avons utilisé le code UniSolver, qui résout la méthode RTM basée sur l'adjoint en utilisant des différences finies d'ordre 4 et un parallélisme basé sur MPI. Nous avons mis en œuvre les équations viscoélastiques pour simuler l'effet de l'atténuation. Pour cette raison, le schéma "Checkpointing" est introduit pour calculer la condition d'imagerie et assurer la stabilité physique et numérique. Dans le premier cas d'étude, nous analysons la reconstruction de l'image du dôme de sel que produisent différents noyaux de sensibilité. Nous calculons ces noyaux en utilisant différentes paramétrisations (densité - vitesse P), ou (densité - constantes de Lamé) pour une rhéologie acoustique. Nous étudions également comment l'utilisation de différents modèles a priori affecte l'image finale en fonction du type de noyau calculé. En utilisant les résultats obtenus en 2D, nous calculons des noyaux synthétiques tridimensionnels en utilisant une rhéologie élastique. Dans le second cas, nous effectuons d'abord une calibration des propriétés du modèle pour des données à décalage nul, et une fois que les données synthétiques et réelles s'ajustent bien, nous calculons les noyaux tridimensionnels. Nous résolvons le problème direct pour le cas à décalage multiple avec et sans effets d'atténuation.[...]
- Published
- 2022
16. ENTRE INFORMATIQUE ET SÉMIOTIQUE: Les conditions techno-méthodologiques d'une analyse de controverse sur Twitter.
- Author
-
BOTTINI, Thomas and JULLIARD, Virginie
- Abstract
Copyright of Réseaux (07517971) is the property of Editions La Decouverte and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2017
- Full Text
- View/download PDF
17. Processus de conception de fidélité mixte pour des concepts d'avion à ingestion de couche limite
- Author
-
Atinault, Olivier, Meheut, Michaël, Defoort, Sébastien, and André, Cécile
- Subjects
Aerodynamics ,Boundary Layer Ingestion ,BLI ,Méthodes numériques ,Aerodynamique ,[SPI] Engineering Sciences [physics] ,Ingestion de couche limite ,Propulsion ,Computing Methods ,[PHYS] Physics [physics] - Abstract
Boundary Layer Ingestion (BLI) is a promising concept that helps improving aircraft aeropropulsive performance. However, it remains difficult to bring together OAD (Overall Aircraft Design) process and high-fidelity tools due to the time of response of complex disciplinary tools. ONERA has thus developed a mixed fidelity approach inside its in-house OAD platform. The purpose is to mix conventional and robust OAD methods with high levels of fidelity from disciplinary tools such as CFD (Computational Fluid Dynamics), FEM (Finite Element Model) or CAA (Computational Aero Acoustics). This paper focuses on the integration of rapid CFD tools inside the OAD process, in order to assess BLI benefits. The resulting process is validated against reference and experimental cases when available, or high-fidelity RANS data elsewhere. The paper intends to present the tools and their validation process. These modules are applied to the common inlet concept, which aims at ingesting 100% of the fuselage boundary layer. The results demonstrate the potential gain on the Power Saving Coefficient (up to 3% obtained with the L2 BLI module without resizing loop) but with non-negligible fan losses (up to 1.5%)., L'ingestion de la couche limite (BLI) est l'un des concepts prometteurs permettant d'améliorer les performances aéropropulsives des avions. Plusieurs études ont déjà mis en évidence les avantages de cette technologie, soit au niveau de l'OAD (Overall Aircraft Design), soit avec la CFD (Computational Fluid Dynamics) haute-fidélité. Cependant, il reste difficile de rapprocher les outils OAD et haute-fidélité en raison du temps de réponse des outils disciplinaires complexes. L'ONERA a donc développé une approche de fidélité mixte au sein de sa plateforme interne OAD, en y intégrant des outils disciplinaires rapides. Le but est de mélanger des méthodes OAD conventionnelles et robustes avec des niveaux de fidélité élevés provenant d'outils disciplinaires tels que CFD, FEM ou CAA. Cet article se concentre sur l'intégration d'outils rapides de CFD dans le processus d'OAD, afin d'évaluer les avantages de la BLI.Le processus qui en résulte est validé par rapport à des cas de référence et expérimentaux lorsqu'ils sont disponibles, ou par rapport à des données RANS haute-fidélité. L'article a pour but de présenter les outils, leur processus de validation et les résultats globaux au niveau de l'OAD pour différentes familles d'avions (tels que les avions à moyen courriers ou les jets d'affaires) en utilisant les différents niveaux de fidélité disponibles.
- Published
- 2022
18. Shape turnpike, numerical control and optimal design for PDEs
- Author
-
Lance, Gontran, Laboratoire Jacques-Louis Lions (LJLL (UMR_7598)), Sorbonne Université (SU)-Centre National de la Recherche Scientifique (CNRS)-Université Paris Cité (UPCité), Control And GEometry (CaGE ), Inria de Paris, Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria)-Laboratoire Jacques-Louis Lions (LJLL (UMR_7598)), Sorbonne Université (SU)-Centre National de la Recherche Scientifique (CNRS)-Université Paris Cité (UPCité)-Sorbonne Université (SU)-Centre National de la Recherche Scientifique (CNRS)-Université Paris Cité (UPCité), Sorbonne Université, Emmanuel Trélat, and Sorbonne Université (SU)-Centre National de la Recherche Scientifique (CNRS)-Université de Paris (UP)
- Subjects
FreeFEM++ ,Turnpike ,Méthodes numériques ,Shape design ,Contrôle optimal ,[MATH.MATH-AP]Mathematics [math]/Analysis of PDEs [math.AP] ,[MATH.MATH-OC]Mathematics [math]/Optimization and Control [math.OC] ,Numerical optimal control ,Optimisation de formes ,Équations aux dérivées partielles ,[MATH.MATH-NA]Mathematics [math]/Numerical Analysis [math.NA] - Abstract
This thesis, which is in the field of optimal control of PDEs and shape optimization, addresses both theoretical and numerical issues. The first step of the thesis is the demonstration of the turnpike property for shape optimization problems or "shape turnpike". Indeed, for a quadratic cost under the constraints of a parabolic PDE controlled by a time-dependent domain acting as a source term, we manage to show by a relaxation method that the time-optimal shape is most of the time close to a stationary shape solution of a stationary optimization problem. Numerical simulations illustrate this result and have shown the need for an adapted numerical formulation. In the second part, we thus develop a general methodology for the numerical solution of optimal control problems with the FreeFEM and IpOpt softwares. Through several examples, from the simple linear quadratic case to the more complicated case of the optimal design of a micro-swimmer, using adjoint methods or automatic differentiation, we illustrate the effectiveness of the combination of FreeFEM and IpOpt as an optimization tool. Finally, we conclude with a description of the numerical methods used for the problem of the first part and give several propositions for future research.; Cette thèse, qui s’inscrit dans le domaine du contrôle optimal des EDPs et de l’optimisation de formes, aborde à la fois des questions théoriques et numériques. L’amorce de la thèse est la mise en évidence de la propriété de turnpike pour des problèmes d’optimisations de formes ou "shape turnpike". En effet, pour un coût quadratique sous la contraintes d’une EDP parabolique contrôlée par un domaine dépendant du temps et agissant comme un terme source, nous arrivons à montrer par une méthode de relaxation que la forme optimale en temps est la plupart du temps proche d’une forme stationnaire solution d’un problème d’optimisation stationnaire. Des simulations numériques illustrent ce résultat et ont fait apparaître la nécessité d’une formulation numérique adaptée. Nous élaborons donc en deuxième partie une méthodologie générale pour la résolution numérique de problèmes de contrôle optimal avec les logiciels FreeFEM et IpOpt. A travers plusieurs exemples, du cas simple linéaire quadratique au cas plus compliqué du design optimal d’un micro-nageur, en passant par des méthodes adjointes ou de la différentiation automatique, nous illustrons l’efficacité de la combinaison FreeFEM et IpOpt comme outil d'optimisation. Enfin, nous terminons avec un descriptif des méthodes numériques utilisées pour le problème de la première partie et donnons plusieurs pistes de recherche futures.
- Published
- 2021
19. Cartographie moléculaire d'exoplanètes avec le télescope spatial James Webb
- Author
-
Coulombe, Louis-Philippe and Benneke, Björn
- Subjects
Exoplanètes ,Atmosphères ,Méthodes numériques ,Exoplanets ,Exocartography ,Numerical methods ,Exocartographie - Abstract
Les atmosphères de Jupiter chaudes reçoivent des quantitées extrêmes de radiation de leur étoile hôte, ce qui nous permet d’étudier les processus chimiques et dynamiques d’atmosphères dans un régime d’énergie qui n’est pas accessible par l’étude du système solaire. La spectroscopie de transit et d’éclipse secondaire permet la caractérisation de ces atmosphères. Toutefois, ces méthodes ne considèrent pas la variation spatiale des abondances moléculaires, du profil de température et des nuages dans l’atmosphère. À l’aide de la méthode de cartographie par éclipse secondaire à plusieurs longueurs d’ondes, il est possible de mesurer la distribution spatiale des paramètres atmosphériques. À ce jour, cette méthode n’a été appliquée qu’à la Jupiter chaude HD 189733 b à partir d’observations photométriques du télescope spatial Spitzer à 8 μm. Avec le lancement prochain du JWST, des observations à haute précision spectrophotométrique sont attendues, ce qui renforce le besoin pour une méthode permettant la simulation et l’analyse statistique d’observations d’éclipse secondaire à plusieurs longueurs d’ondes. Nous présentons une nouvelle méthode afin de simuler des courbes de lumière à plusieurs longueurs d’ondes, ainsi qu’une méthode statistique pour déterminer la distribution atmosphérique à partir d’observations. La simulation des courbes de lumière à plusieurs longueurs d’ondes est discrétisée pour permettre le calcul rapide des modèles nécessaire à l’analyse statistique d’observations. Nous appliquons cette méthode à des observations simulées de JWST NIRSpec pour la planète WASP-33 b à diverses distributions spatiales de coefficient de dissociation de l’eau. Nos résultats indiquent que 5 observations d’éclipse secondaire sont suffisantes pour mesurer la distribution spatiale du coefficient de dissociation de l’eau en longitude et latitude. L’application de la méthode de cartographie par éclipse secondaire à plusieurs longueurs d’ondes va permettre d’appronfondir d’avantage notre connaissance des processus dynamiques des atmosphères de Jupiter chaudes., Hot Jupiter atmospheres, receiving extreme amounts of irradiation from their host star, enable us to study the atmospheric chemistry and dynamics of atmospheres at regimes that would otherwise be inaccessible from solar system observations. Transmission and emission spectroscopy of these atmospheres enables their characterization. However, these methods do not consider the spatial distribution of the molecular abundances, temperature profile, and clouds. Using multi-wavelength secondary eclipse mapping, it is possible to measure the spatial distribution of the atmospheric parameters. Secondary eclipse mapping has only been applied for photometric Spitzer/IRAC 8 μm observations of HD 189733 b so far. With the imminent launch of JWST, high-precision spectrophotometric observations of hot Jupiters are expected, reinforcing the need for a framework that can simulate and retrieve secondary eclipse mapping observations. We present a novel method to simulate secondary eclipse light curves for non-uniform atmospheres at multiple wavelengths, as well as a statistical method to retrieve the distribution from observations. The simulation of the multi-wavelength light curves is discretized to enable the fast computation necessary for statistical analysis of observations. We apply these methods to simulated JWST NIRSpec observations of WASP-33 b for various distributions of the water dissociation coefficient and conclude that 5 secondary eclipse observations are sufficient to constrain significant spatial variations in longitude and latitude. The application of the multi-wavelength secondary eclipse mapping to JWST will further deepen our understanding of the atmospheric dynamics processes to which hot Jupiter atmospheres are subjected.
- Published
- 2021
20. La reconstruction de cartes de haute fidélité du ciel micro-ondes à partir des données d'expériences multi-kilo pixels pour la cosmologie de haute précision
- Author
-
El Bouhargani, Hamza, AstroParticule et Cosmologie (APC (UMR_7164)), Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Institut National de Physique Nucléaire et de Physique des Particules du CNRS (IN2P3)-Observatoire de Paris, Université Paris sciences et lettres (PSL)-Université Paris sciences et lettres (PSL)-Centre National de la Recherche Scientifique (CNRS)-Université Paris Cité (UPCité), Université Paris Cité, and Radek Stompor
- Subjects
Linear systems solvers ,Cartographie ,[SDU.ASTR]Sciences of the Universe [physics]/Astrophysics [astro-ph] ,Analyse de données ,Data analysis ,Calcul haute performance ,Cosmology ,Map-Making ,Méthodes numériques ,Cosmic Microwave Background ,Solveurs de systèmes linéaires ,Numerical methods ,High performance computing ,Cosmologie ,Fond diffus cosmologique - Abstract
In the last two decades, cosmology has been propelled by numerous theoretical and experimental developments allowing it to enter into the high precision era. New experiments are currently being prepared to start operating in the coming years and continue pushing the frontiers of knowledge and improve our theoretical understanding of the inner workings of the Universe. In particular, the next generation of cosmic microwave background (CMB) experiments will enable the mapping of the CMB temperature and polarization anisotropies with unprecedented precision, from the largest degree scale patterns on the sky down to arcminute scales. They will hence open a unique window on both the primordial Universe and its late time evolution. These measurements will encode key insights on the nature of dark matter, dark energy and the physics of neutrinos, and may reveal for the first time the presence of primordial gravitational waves, thought to be generated during the inflationary phase at energies close to the scale of the Grand Unified Theories in the very early Universe. Reaching these ambitious scientific goals entails building experiments with exceptional complexity. The extremely faint signals we are attempting to measure require both very high sensitivities, and hence the collection of huge volumes of data, as well as a precise control of all systematic effects. This makes the scientific exploitation and analysis of the data uniquely challenging from both a computational and methodological point of view. This work focuses on tackling these issues in the early stages of the analysis where we deal with the full size of the time-domain data. I generalize the map-making procedure, to allow for efficient mitigation of some of the major time-domain systematic effects concurrently with the unbiased estimation of sky maps. I address both computational and methodological challenges, in the context of stage-3 CMB ground experiments such as Simons Array and the Simons Observatory, developing a massively parallel framework tested and validated on state-of-the-art supercomputing architectures. The framework provides robust methods to solve the map-making problem in the presence of numerous time-domain systematic effects, which need to be modeled with sufficient accuracy for a robust measurement of cosmological signals of interest such as B-modes from inflationary gravitational waves.; Durant les deux dernières décennies, la cosmologie a été propulsée par de nombreux développements théoriques et expérimentaux lui permettant d'entrer dans l'ère de la haute précision. De nouvelles expériences sont actuellement en cours de préparation pour débuter leurs opérations dans les prochaines années et continuer de pousser les frontières du savoir et améliorer notre compréhension théorique des rouages internes de l'Univers. En particulier, la prochaine génération d'observatoires du fond diffus cosmologique (Cosmic Microwave Background - CMB) permettra la cartographie des anisotropies de température et de polarisation du CMB avec une précision inédite, sur des échelles allant du degré sur le ciel jusqu'aux minutes d'arc. Ces observatoires vont ainsi ouvrir une fenêtre unique sur l'Univers primordial ainsi que sur son évolution récente. Ces mesures contiennent des informations clés sur la nature de la matière noire, l'énergie noire, ainsi que la physique des neutrinos, et pourraient également révéler l'existence des ondes gravitationnelles primordiales, qui seraient générées durant la phase inflationnaire à des énergies proches de l'échelle des théories de grande unification aux premiers instant de l'Univers. Atteindre ces ambitieux objectifs scientifiques nécessite la construction d'expériences d'une complexité exceptionnelle. Les signaux extrêmement faibles qu'on tente de mesurer requièrent de très grandes sensibilités, et donc la collection de volumes énormes de données, ainsi qu'un contrôle précis des effets systématiques. Ceci rend l'analyse et l'exploitation scientifique des données particulièrement difficile sur le plan, à la fois, computationnel et méthodologique. Le travail présenté dans cette thèse se donne pour objectif de s'attaquer à ces problèmes dans les premières étapes de l'analyse où l'on traite tout le volume des données dans le domaine temporel. Je généralise la procédure de cartographie afin de permettre une mitigation efficace de certains des effets systématiques majeurs dans le domaine temporel simultanément avec l'estimation non biaisée des cartes du ciel. J'aborde à la fois les problèmes computationnels et méthodologiques, posés lors du développement d'observatoires du CMB au sol de type "stage-3" comme Simons Array et Simons Observatory, en développant un environnement massivement parallèle testé et validé sur des supercalculateurs à l'état de l'art mondial. L'environnement offre des méthodes robustes pour la résolution du problème de cartographie en cas de présence de nombreux effets systématiques dans le domaine temporel, qui doivent être modélisés avec une précision suffisante pour permettre une mesure robuste des signaux cosmologiques d'intérêt comme les modes-B issus des ondes gravitationnelles produites lors de l'inflation.
- Published
- 2021
21. Ab initio description of doubly-open shell nuclei via a novel resolution method of the quantum many-body problem
- Author
-
Frosini, Mikael, Département de Physique Nucléaire (ex SPhN) (DPHN), Institut de Recherches sur les lois Fondamentales de l'Univers (IRFU), Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Université Paris-Saclay-Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Université Paris-Saclay, Université Paris-Saclay, Thomas Duguet, Vittorio Somà, and Jean-Paul Ebran
- Subjects
Many-body problem ,[PHYS.PHYS.PHYS-COMP-PH]Physics [physics]/Physics [physics]/Computational Physics [physics.comp-ph] ,Méthodes numériques ,Structure nucléaire ,[PHYS.NUCL]Physics [physics]/Nuclear Theory [nucl-th] ,[PHYS.QPHY]Physics [physics]/Quantum Physics [quant-ph] ,Systèmes à N corps ,Nuclear structure ,Numerical methods - Abstract
Nuclei are self bound systems of interacting nucleons, whose unified description is made intricate by the very diverse phenomenology emerging in nuclear systems. Besides individual excitations responsible for absolute binding energies and separation energies between nuclei, long range correlations with a high degree of collectivity play a major role in macroscopic properties of nuclei and are essential for comparison with experimental measurements. In this thesis, the focus is put on microscopic models where the nucleus is described as a collection of point-like nucleons in strong interactions, falling into the realm of the quantum many-body problem. Two approaches exist to solve this problem, differing by the very nature of the interaction. Energy Density Functional (EDF) uses a phenomenological system-dependent Hamiltonian easily encompassing short-range correlations at the mean-field level, leaving long-range physics to be captured beyond the mean-field via multi-reference methods. On the contrary, ab initio methods start from a realistic interaction rooted (through chiral Effective Field Theory) into the underlying theory of the strong force, i.e. quantum chromo-dynamics, making the solution of the many-body problem much more difficult to compute but providing results that are more reliable and systematically improvable. In the present work, a new multi-reference perturbation theory to solve the many-body problem starting from chiral interactions is formalized in order to include coherently long and short range correlations in both closed- and open-shell nuclei. The first order of this theory, directly adapted from the EDF know-how to the ab initio context, is benchmarked in large scale calculations against other methods, and applied to the Neon chain. The second - newly formalized - order of the theory is implemented in small-scale model spaces to assess the quality of the method and compared with available single-reference perturbative expansions. The novel formalism shows great promises to describe ground and excited states of closed and open-shell nuclei.; Les noyaux atomiques sont des systèmes liés de nucléons en interaction dont la description unifiée pose encore des problèmes théoriques à l'heure actuelle à cause de la grande diversité dans la phénoménologie émergeant dans les systèmes nucléaires. En plus des excitations individuelles responsables des énergies de liaison absolues et des énergies de séparation entre noyaux, des corrélations de longue portée avec un grand degré de collectivité jouent dans rôle majeur dans les propriétés macroscopiques du noyau et sont essentielles pour la comparaison avec l'expérience. Dans cette thèse, on s'intéresse aux modèles microscopiques où le noyau est décrit comme une collection de nucléons ponctuels en interaction forte. On rentre donc dans le domaine du problème à N corps quantique. Deux approches complémentaires existent pour résoudre ce problème, qui diffèrent par la nature de l'interaction. La méthode de la fonctionnelle de la densité de l'énergie (EDF) utilise une interaction phénoménologique dépendant du système qui capture facilement les corrélations de courte portée au niveau du champ moyen. La physique de longue portée doit être capturée au-delà du champ moyen via des méthodes multi référence. A l'inverse les méthodes ab-initio partent d'une interaction réaliste dérivée (via la théorie effective des champs chirale) à partir de la physique sous-jacente, l'interaction forte, c'est-à-dire la chromodynamique quantique. La solution du problème à N corps est donc bien plus difficile obtenir mais les résultats qui ressortent sont plus fiables et systématiquement améliorables. Dans cette thèse une nouvelle théorie de perturbation multi référence est introduite pour résoudre le problème à N corps à partir d'interactions chirales. Ce nouveau formalisme inclue de façon cohérente les corrélations de courte et longue portée. Le premier ordre de la théorie, directement adapté du savoir-faire EDF au contexte ab-initio, est comparé dans des calculs à grande échelle à d'autres méthodes et appliqué à la chaîne de Néons. Le second ordre (nouvellement formulé) est implémenté dans des bases de taille réduite pour s'assurer de la qualité de la méthode et le comparer avec des méthodes de perturbation uni référence déjà existantes. Ce nouveau formalisme et très prometteur pour la description unifiée des états fondamentaux excités des noyaux à couche fermées comme à couches ouvertes.
- Published
- 2021
22. Etude d’une méthode de zoom structural avec interaction Global/Local pour simulations cycliques non-linéaires
- Author
-
École centrale de Nantes, Bilotta, Giovambattista, Blanchard, Maxime, Morice, Erwan, Ballester Claret, Roger, École centrale de Nantes, Bilotta, Giovambattista, Blanchard, Maxime, Morice, Erwan, and Ballester Claret, Roger
- Abstract
Ce stage a été réalisé dans l’équipe Thermomécanique et durée de vie du Bureau des Méthodes et Outils de Safran Aircraft Engines. Les composants étudiés par l’équipe sont soumis à des chargements de grande magnitude et également à des températures extrêmes. Ces chargements conduisent à des comportements non linéaires dans les matériaux, comportements définis avec des lois à haut niveau de complexité. De part l'utilisation de ces lois, ainsi que de la complexité géométrique des composants, il y a un besoin croissant de développer des méthodes permettant de réduire les ressources de calcul nécessaires pour résoudre les simulations d’éléments finis. Étant donné que les méthodes de submodeling classiques ne sont pas en mesure d'approcher avec précision les phénomènes viscoplastiques observés dans les parties chaudes des moteurs Safran AE, une méthode de zoom structural adaptée aux comportements non linéaires a été traité. La méthode proposée étudie les interactions global/local pour pouvoir prédire correctement les comportements viscoplastiques à l’interface entre les deux modèles. La méthode a été développée et écrite dans un script Python qui réalise aussi tous les traitements de maillage nécessaires. Finalement, cette méthode a été appliquée à différents cas d’étude pour la valider et pour rendre le script utilisable par le Bureau d’études de Safran AE., Outgoing
- Published
- 2021
23. Vers un modèle simplifié d’usure des douilles du mécanisme de calage variable d’aubes
- Author
-
Harnafi, Myriam, Boucard, Pierre-Alain, Guidault, Pierre-Alain, Paleczny, Christian, Laboratoire de mécanique et technologie (LMT), Université Paris-Saclay-Centre National de la Recherche Scientifique (CNRS)-Ecole Normale Supérieure Paris-Saclay (ENS Paris Saclay), and Safran Aircraft Engines
- Subjects
Variable Stator Vanes ,Méthodes numériques ,Usure ,[SPI.MECA.STRU]Engineering Sciences [physics]/Mechanics [physics.med-ph]/Structural mechanics [physics.class-ph] ,Paliers lisses - Abstract
National audience; La prédiction de l’usure des composants des turbomachines est un enjeu majeur pour les constructeurs aéronautiques dans une optique d’extension de leur durée de vie. Ce travail s’intéresse aux paliers lisses, ou douilles, situés au cœur du système de calage variable des aubes de redresseur (Variable Stator Vane (VSV)). Ces pièces d’usure fortement sollicitées thermo-mécaniquement assurent un guidage en rotation de l’axe des aubes, ce qui permet d’ajuster en continu l’incidence du flux d’air. Une usure excessive peut entraîner des coûts de maintenance élevés, des baisses de performances du moteur et, dans les cas extrêmes, des risques de pompage du compresseur.Différentes approches numériques de prédiction de l’usure ont été développées antérieurement : un modèle analytique 2D générique capable d’estimer des usures sous des sollicitations cycliques, et des modèles éléments finis 3D [1] permettant d’obtenir les niveaux de pression et d’usure dans les zones de contact. L’approche 2D présente l’avantage d’être rapide et de donner des résultats satisfaisants par rapport à des machines d’essais d’usure, mais nécessite des recalages. L’approche 3D apporte une précision accrue mais est néanmoins actuellement trop coûteuse en vue de simuler des milliers de cycles [2].L’enjeu de ce travail est de développer un modèle numérique de prédiction des efforts de contact vus par les douilles du système VSV en environnement moteur de manière fiable et en des temps de calculs adaptés au pré-dimensionnement en bureau d’études. Le modèle numérique est placé sous l’hypothèse des solides rigides indéformables où seules les zones de contact se déforment de manière élastique selon une loi de comportement définie. Il s’agit de la résolution d’un problème cinématique à forte non-linéarité appliqué à un système multi-corps soumis à des chargements variables et combinés. Ce problème de contact est tout d’abord traité en 2D avec un chargement simplifié de l’aube. Le problème est décrit analytiquement selon une démarche classique de passage local-global et résolu par la méthode de Newton-Raphson. L’écriture analytique du problème permet d’identifier les paramètres importants de modélisation. La maîtrise de la configuration initiale du redresseur en fonction des jeux et des positions relatives des pièces est essentielle à la convergence de l’algorithme de résolution. Afin de prendre en compte de manière plus complète le chargement et les géométries considérées, une extension au cadre tridimensionnel est proposée.La validation des modèles est réalisée par la confrontation des résultats obtenus à l’aide d’un outil de dimensionnement développé par Safran Aircraft Engines permettant d’estimer les pressions de contact maximales. L’objectif sera ensuite d’aboutir à un calcul d’usure sur des cycles de vol complets dans le but d’estimer la durée de vie des douilles du système VSV. La validation de ce modèle en perspective s’appuiera sur des résultats d’essais expérimentaux ainsi que de données de retour de flotte.[1] Y. Xue, J. Chen, S. Guo, Q. Meng, J. Luo (2018) « Finite element simulation and experimental test of the wear behavior for self-lubricating spherical plain bearings ». Friction, 6(3), pp. 297-306.[2] C. Paleczny, A. Selvi, E. Gabellini (2003) « 3D Kinematics Study with SAMCEF MECANO Motion on a nozzle of a turbojet engine - Pre and post- processing in SYNAMEC», SAMCEF User Days. France.
- Published
- 2021
24. High-order numerical methods for unstructured grids and sliding mesh
- Author
-
Sáez Mischlich, Gonzalo, Institut Supérieur de l'Aéronautique et de l'Espace, Carbonneau, Xavier, and Grondin, Gilles
- Subjects
Volumes finis ,Turbulence ,Calcul Haute Performance ,Finite Volume ,Méthodes numériques ,High-Order ,Maillages Glissants ,Ordre élevé ,Numerical Methods ,Hpc ,Sliding mesh - Abstract
Les méthodes numériques d’ordre élevé se sont avérées être un outil essentiel pour améliorer la précision des simulations concernant des écoulements turbulents par la résolution des lois de conservation. Ces écoulements se trouvent dans une grande variété d’applications industrielles et leur prédiction et modélisation est cruciale pour améliorer l’efficacité des procès. Cette thèse met en oeuvre et analyse différents types de schémas de discrétisation spatiale d’ordre élevé pour des maillages non structurés afin d’évaluer et de quantifier leur précision dans les simulations d’écoulements turbulents. En particulier, les méthodes de volumes finis (FVM) d’ordre élevé basées sur les opérateurs de déconvolution des moindres carrés et entièrement contraints sont considérées. De plus, leur précision est évaluée par une analyse analytique et pour des cas linéaires et non linéaires. Une attention spéciale est portée à la comparaison des FVM de second ordre et d’ordre élevé, montrant que la première peut surpasser la seconde en termes de précision et de performance de calcul dans des configurations sous-résolues. Les méthodes d’éléments spectraux (SEM) d’ordre élevé, y compris Spectral Difference (SD) et Flux Reconstruction (FR), sont comparées dans différentes configurations linéaires et non linéaires. De plus, un solveur SD basé sur GPU est développé et ses performances par rapport `a d’autres solveurs basés sur CPU seront discutées, montrant ainsi que le solveur développé basé sur GPU surpasse d’autres solveurs basés sur CPU en termes de performance économique et énergétique. La précision et le comportement des SEM avec de l’aliasing sont évalués dans des cas de test linéaires à l’aide d’outils analytiques. L’utilisation de grilles avec des cellules d’ordre élevé, qui permettent de mieux d’écrire les surfaces d’intérêt des simulations, en combinaison avec le SEM est également analysée. Cette dernière analyse démontre qu’un traitement particulier doit être implémenté pour assurer une précision numérique appropriée lors de l’utilisation de mailles avec ces éléments. Ce document présente également le développement et l’analyse de la méthode Spectral Difference Raviart-Thomas (SDRT) pour les éléments bidimensionnels et tridimensionnels de type produit tensoriel et simplex. Cette méthode est équivalente à la formulation SD pour les éléments de produit tensoriel et peut être considérée comme une extension naturelle de la formulation SD pour les éléments de type simplex. En outre, une nouvelle famille de méthodes FR, équivalente à la méthode SDRT dans certaines circonstances, est décrite. Tous ces développements ont été implémentés dans le solveur open-source PyFR et sont compatibles avec les architectures CPU et GPU. Dans le contexte des simulations d’ordre élevé d’écoulements turbulents trouvés dans les cas d’interaction rotor-stator, une méthode de maillage glissant (qu’implique des grilles non-conformes et le mouvement des maillages) spécifiquement adaptée aux simulations massivement parallèles est implémenté dans un solveur basé sur CPU. La méthode développée est compatible avec FVM et SEM de second ordre et d’ordre élevé. D’autre part, le mouvement de la grille, nécessaire pour simuler les cas d’essai rotor-stator `a cause du mouvement relatif de chaque zone du domaine, est traité à l’aide de la formulation Arbitrary-Lagrangian-Eulerian (ALE). L’analyse de cette formulation montre son influence importante sur la précision numérique et la stabilité des simulations numériques avec du mouvement de maillage. High-order numerical methods have proven to be an essential tool to improve the accuracy of simulations involving turbulent flows through the solution of conservation laws. Such flows appear in a wide variety of industrial applications and its correct prediction is crucial to reduce the power consumption and improve the efficiency of these processes. The present study implements and analyzes different types of high-order spatial discretization schemes for unstructured grids to assess and quantify their accuracy in simulations of turbulent flows. In particular, high-order Finite Volume methods (FVM) based on least squares and fully constrained deconvolution operators are considered and their accuracy is evaluated in a variety of linear and non-linear test cases and throughanalytical analysis. Special emphasis is placed on the comparison of formally second-order and high-order FVM, showing that the former can over-perform the latter in terms of accuracy and computational performance in under-resolved configurations. High-order Spectral Element methods (SEM), including Spectral Difference (SD) and Flux Reconstruction (FR), are compared in different linear and non-linear configurations. Furthermore, a SD GPU-based solver (based on the open-source PyFR solver) is developed and its performance with respect to other state of the art CPU-based solvers will be discussed, showing that the developed GPU-based solver outperforms other state of the art CPU-based solvers in terms of performance-per-euro and performance-per-watt. The accuracy and behavior of SEM under aliasing are assessed in linear test cases using analytical tools. The use of grids with high-order cells, which allow to better describe the surfaces of interests of a given simulation, in combination with SEM is also analyzed. The latter analysis demonstrates that special care must be taken to ensure appropriate numerical accuracy when utilizing meshes with such elements. This document also presents the development and the analysis of the Spectral Difference Raviart-Thomas (SDRT) method for two and three-dimensional tensor product and simplex elements. This method is equivalent to the SD formulation for tensor product elements and it can be considered as a natural extension of the SD formulation for simplex elements. Additionally, a new family of FR methods, which is equivalent to the SDRT method under certain circumstances, is described. All these developments were implemented in the open-source PyFR solver and are compatible with CPU and GPU architectures. In the context of high-order simulations of turbulent flows found in rotor-stator interaction test cases, a sliding mesh method (which involves non-conformal grids and mesh motion) specifically tailored for massivelyparallel simulations is implemented within a CPU-based solver. The developed method is compatible with second-order and high-order FVM and SEM. Grid movement, needed to simulate rotor-stator test cases due to the relative movement of each domain zone, is treated using the Arbitrary-Lagrangian-Eulerian (ALE) formulation. The analysis of such formulation depicts its important influence on the numerical accuracy and stability of numerical simulations with mesh motion. Moreover, specific non-conformal discretization methodscompatible with second-order and high-order FVM and SEM are developed and their accuracy is assessed on different non-linear test cases. The parallel scalability of the method is assessed with up to 11000 cores, proving appropriate computational efficiency. The accuracy of the implementation is assessed through a set of linear and non-linear test cases. Preliminary results of the turbulent flow around a DGEN 380 fan stage in an under-resolved configuration are shown and compared to available experimental data.
- Published
- 2021
25. Contributions to stochastic numerics: simulation of infinite dimensional, multiscale and metastable processes
- Author
-
Bréhier, Charles-Edouard, Probabilités, statistique, physique mathématique (PSPM), Institut Camille Jordan [Villeurbanne] (ICJ), École Centrale de Lyon (ECL), Université de Lyon-Université de Lyon-Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Université Jean Monnet [Saint-Étienne] (UJM)-Institut National des Sciences Appliquées de Lyon (INSA Lyon), Université de Lyon-Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA)-Centre National de la Recherche Scientifique (CNRS)-École Centrale de Lyon (ECL), Université de Lyon-Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA)-Centre National de la Recherche Scientifique (CNRS), Université Claude Bernard Lyon 1, Arnaud Debussche, and Bréhier, Charles-Edouard
- Subjects
[MATH.MATH-PR] Mathematics [math]/Probability [math.PR] ,Stochastic Partial Differential Equations ,Rare events ,Systèmes multiéchelles ,Monte Carlo methods ,[MATH.MATH-NA] Mathematics [math]/Numerical Analysis [math.NA] ,Multiscale systems ,Méthodes de Monte Carlo ,Evénements rares ,[MATH.MATH-PR]Mathematics [math]/Probability [math.PR] ,Méthodes numériques ,Numerical methods ,[MATH.MATH-NA]Mathematics [math]/Numerical Analysis [math.NA] ,Equations aux Dérivées Partielles Stochastiques - Abstract
The works reported in this manuscript combine probabilistic models, tools from analysis of partial differential equations and numerical methods, and go from theoretial analysis to applications (in physics, astrophysics and biology), supplemented with numerical experiments.The first part is about analysis of numerical schemes for stochastic partial differential equations. First, we obtain rates of convergence in a weak sense, mainly exploiting regularity properties of infinite dimensional Kolmogorov equations. For some equations with polynomial nonlinearities (Allen-Cahn and Schr\"odinger), we propose splitting schemes and study their speed of convergence. Finally, we study the large time behavior of numerical schemes, with the objective to approximate the invariant distribution: in particular we provide higher order methods for this problem. The results are based on theoretical analysis and numerical investigation.The second part is devoted to the study of some multiscale stochastic systems. On the one hand, we study the rate of convergence in the averaging principle for some SPDE systems, and an efficient numerical method is proposed. On the other hand, we provide the construction and analysis of some asymptotic preserving schemes for SDE and SPDE systems in averaging and diffusion approximation regimes.The third part deals with two Monte Carlo methods to sample rare events, applied to metastable processes. First, we introduce a generalized version of the Adaptive Multilevel Splitting algorithms, used to estimate probabilities or rare events. We study some theoretical properties (unbiasedness) and various applications. Second, we study the consistency of adaptive biasing techniques to sample from multimodal distributions, using self-interacting dynamics., Les travaux rapportés dans ce manuscrit combinent des modèles probabilistes, des outils issus de l'analyse des équations aux dérivées partielles et des méthodes numériques, et vont de l'analyse théorique aux applications (en physique, astrophysique et biologie), complétées par des expériences numériques.La première partie porte sur l'analyse des schémas numériques pour les équations aux dérivées partielles stochastiques. Tout d'abord, nous obtenons des taux de convergence dans un sens faible, en exploitant principalement les propriétés de régularité des équations de Kolmogorov de dimension infinie. Pour certaines équations avec des non-linéarités polynomiales (Allen-Cahn et Schrödinger), nous proposons des schémas de fractionnement et étudions leur vitesse de convergence. Enfin, nous étudions le comportement en grand temps des schémas numériques, dans le but d'approximer la distribution invariante : en particulier, nous fournissons des méthodes d'ordre supérieur pour ce problème. Les résultats sont basés sur une analyse théorique et une investigation numérique.La deuxième partie est consacrée à l'étude de certains systèmes stochastiques multi-échelles. D'une part, nous étudions le taux de convergence du principe de moyenne pour certains systèmes SPDE, et une méthode numérique efficace est proposée. D'autre part, nous fournissons la construction et l'analyse de certains schémas de préservation symptotique pour les systèmes SDE et SPDE dans les régimes d'approximation de moyenne et de diffusion.La troisième partie traite de deux méthodes de Monte Carlo pour échantillonner les événements rares, appliquées aux processus métastables. Tout d'abord, nous introduisons une version généralisée des algorithmes Adaptive Multilevel Splitting, utilisés pour estimer les probabilités ou les événements rares. Nous étudions certaines propriétés théoriques (absence de biais) et diverses applications. Deuxièmement, nous étudions la cohérence des techniques de biais adaptatifs pour échantillonner des distributions multimodales, en utilisant des dynamiques auto-interactives.
- Published
- 2021
26. Développement de stratégies de commandes pour des systèmes décrits par des équations aux dérivées partielles paraboliques non linéaires
- Author
-
Azar, Thérèse, Laboratoire Angevin de Recherche en Ingénierie des Systèmes (LARIS), Université d'Angers (UA), Université d'Angers, Laurent Autrique, Laetitia Perez, and Christophe Prieur
- Subjects
Commande ,Méthodes numériques ,[INFO.INFO-AU]Computer Science [cs]/Automatic Control Engineering ,Control ,Numerical methods ,Partial differential equations - Abstract
The general context of the investigated study is the control of distributed parameter systems,such as those modeled by partial differential equations (PDE). The interest of this type of mathematical model compared to finite dimensions mathematical models is that it allows to consider the control of an infinity of dynamics at the same time. The fields of application are numerous and in the context of nuclear fusion for example, it isnecessary to determine control strategies for both zero stabilization and disturbances rejection. For nuclear fusion, the goal is to control the safety profile.The evolution of the spatial distribution of this key factor (conditioning the stability of the plasma) is described by a parabolic PDE system able to estimate the magnetic flux and the thermal state of the plasma. The problem of determining the control strategy to stabilize the safety profile is formulated as a minimization problem and solved using an inverse problem. Due to its well-known ill-posed character, the method of regularization of the conjugate gradient is adapted to solve this inverse heat conduction problem. Implementation of quasi-online strategies to obtain relevant controls for such nonlinear systems is developed. The actuators are intern to the geometry. The presented results show that this generalist numerical method makes it possible to obtain effective control strategies without strong assumptions on the studied system. The proposed alternative is meaningful if the mathematical model is in adequacy with the physical phenomena studied and as the system dynamics are not completely unknown.; Le contexte général de ces recherches est la commande des systèmes physiques modélisés par des équations aux dérivées partielles (EDP). L’intérêt de tels modèles mathématiques, par rapport aux approches reposant sur des modèles de dimension finie, est qu’ils permettent d’envisager le contrôle d’une infinité de dynamiques en même temps. Les champs d’application sont nombreux et dans le cadre de la fusion nucléaire par exemple, il est nécessaire de développer de nouveaux outils pour déterminer des lois de commandes adaptés à des systèmes modélisés par des EDPs paraboliques non-linéaires : l’objectif étant la stabilisation à zéro et le rejet de perturbations. Il s’agit en particulier de contrôler le profil de sécurité dont l’évolution est décrite par un système d’EDP parabolique décrivant le flux magnétique et l’état thermique du plasma. Le problème de détermination du contrôle permettant de stabiliser le profil de sécurité est formulé comme un problème de minimisation. Du fait de son caractère mal posé, le problème inverse est résolu de matière itérative par la méthode régularisante du gradient conjugué. Les principaux développements concernent la mise en œuvre de stratégies quasi en ligne permettant d’obtenir des contrôles pertinents à l’aide d’actionneurs internes (zones ou ponctuels). Les résultats montrent que cette méthode généraliste numérique permet d’obtenir des stratégies de contrôle efficaces et ce sans hypothèses limitatives sur le système étudié. Les résultats sont d’autant plus satisfaisant que le modèle mathématique est en adéquation avec les phénomènes physiques étudiés et que la dynamique du système n’est pas totalement inconnue.
- Published
- 2021
27. Determination of control strategies for non linear parabolic partial differential equations
- Author
-
Azar, Thérèse, Laboratoire Angevin de Recherche en Ingénierie des Systèmes (LARIS), Université d'Angers (UA), Université d'Angers, Laurent Autrique, Laetitia Perez, and Christophe Prieur
- Subjects
Commande ,Méthodes numériques ,[INFO.INFO-AU]Computer Science [cs]/Automatic Control Engineering ,Control ,Numerical methods ,Partial differential equations - Abstract
The general context of the investigated study is the control of distributed parameter systems,such as those modeled by partial differential equations (PDE). The interest of this type of mathematical model compared to finite dimensions mathematical models is that it allows to consider the control of an infinity of dynamics at the same time. The fields of application are numerous and in the context of nuclear fusion for example, it isnecessary to determine control strategies for both zero stabilization and disturbances rejection. For nuclear fusion, the goal is to control the safety profile.The evolution of the spatial distribution of this key factor (conditioning the stability of the plasma) is described by a parabolic PDE system able to estimate the magnetic flux and the thermal state of the plasma. The problem of determining the control strategy to stabilize the safety profile is formulated as a minimization problem and solved using an inverse problem. Due to its well-known ill-posed character, the method of regularization of the conjugate gradient is adapted to solve this inverse heat conduction problem. Implementation of quasi-online strategies to obtain relevant controls for such nonlinear systems is developed. The actuators are intern to the geometry. The presented results show that this generalist numerical method makes it possible to obtain effective control strategies without strong assumptions on the studied system. The proposed alternative is meaningful if the mathematical model is in adequacy with the physical phenomena studied and as the system dynamics are not completely unknown.; Le contexte général de ces recherches est la commande des systèmes physiques modélisés par des équations aux dérivées partielles (EDP). L’intérêt de tels modèles mathématiques, par rapport aux approches reposant sur des modèles de dimension finie, est qu’ils permettent d’envisager le contrôle d’une infinité de dynamiques en même temps. Les champs d’application sont nombreux et dans le cadre de la fusion nucléaire par exemple, il est nécessaire de développer de nouveaux outils pour déterminer des lois de commandes adaptés à des systèmes modélisés par des EDPs paraboliques non-linéaires : l’objectif étant la stabilisation à zéro et le rejet de perturbations. Il s’agit en particulier de contrôler le profil de sécurité dont l’évolution est décrite par un système d’EDP parabolique décrivant le flux magnétique et l’état thermique du plasma. Le problème de détermination du contrôle permettant de stabiliser le profil de sécurité est formulé comme un problème de minimisation. Du fait de son caractère mal posé, le problème inverse est résolu de matière itérative par la méthode régularisante du gradient conjugué. Les principaux développements concernent la mise en œuvre de stratégies quasi en ligne permettant d’obtenir des contrôles pertinents à l’aide d’actionneurs internes (zones ou ponctuels). Les résultats montrent que cette méthode généraliste numérique permet d’obtenir des stratégies de contrôle efficaces et ce sans hypothèses limitatives sur le système étudié. Les résultats sont d’autant plus satisfaisant que le modèle mathématique est en adéquation avec les phénomènes physiques étudiés et que la dynamique du système n’est pas totalement inconnue.
- Published
- 2021
28. Les chemins de traverse de la thèse. Sources médiatiques et archives du moment présent, repenser sa recherche face à l'éloignement du terrain
- Author
-
MOUMMI, Akhésa, École des hautes études en sciences sociales (EHESS), Laboratoire Interdisciplinaire d’Etudes sur les Réflexivités-Fonds Yan Thomas (LIER-FYT), École des hautes études en sciences sociales (EHESS)-Centre National de la Recherche Scientifique (CNRS), Institut Français du Proche-Orient (IFPO), MIN AFF ETRANG-Centre National de la Recherche Scientifique (CNRS), Centre d’études en sciences sociales du religieux (CéSor ), Centre National de la Recherche Scientifique (CNRS)-École des hautes études en sciences sociales (EHESS), and École des Hautes Études en Sciences Sociales (Christian Ingrao & Romain Huret)
- Subjects
Médias ,Méthodes numériques ,[SHS.STAT]Humanities and Social Sciences/Methods and statistics ,[SHS.EDU]Humanities and Social Sciences/Education ,Archives orales ,Base de données ,[SHS.HIST]Humanities and Social Sciences/History ,Pandémie ,[SHS.SCIPO]Humanities and Social Sciences/Political science - Abstract
Cette communication se donne pour objectif de questionner la fabrique concrète de la recherche en temps de pandémie, au prisme de mes propres hésitations pratiques et méthodologiques lors du premier confinement, connu conjointement par la France et le Liban. Pour ce faire, ce sont les « chemins de traverse » de ma propre thèse, mes voies de sortie face à un projet empêché qui seront ici envisagées et décortiquées. Face à l’impossibilité de mener une ethnographie scolaire au Liban et en réponse à l’importance des évènements qui traversent la société libanaise depuis octobre 2019, j’ai fait le choix de construire une base de données médiatiques comme première voie de saisissement du terrain malgré l’éloignement. C’est, par la suite, la perspective d’une hybridation disciplinaire et la possibilité de me tourner vers l’histoire, via des archives orales, qui a représenté un second « chemin de traverse » et qui m’a permis de dépasser l’inquiétude de ne pas pouvoir mener à bien mon projet de recherche.Une version remaniée de ma communication est disponible sur mon carnet Hypothèses au lien suivant : https://laicites.hypotheses.org/1208.
- Published
- 2021
29. Development of a general-purpose sky simulator for Low Earth Orbit wide-field X/gamma-ray instruments and its application to the assessment of SVOM/ECLAIRs trigger performance
- Author
-
Mate, Sujay, Institut de recherche en astrophysique et planétologie (IRAP), Université Toulouse III - Paul Sabatier (UT3), Université de Toulouse (UT)-Université de Toulouse (UT)-Institut national des sciences de l'Univers (INSU - CNRS)-Observatoire Midi-Pyrénées (OMP), Institut de Recherche pour le Développement (IRD)-Université Toulouse III - Paul Sabatier (UT3), Université de Toulouse (UT)-Université de Toulouse (UT)-Institut national des sciences de l'Univers (INSU - CNRS)-Centre National d'Études Spatiales [Toulouse] (CNES)-Centre National de la Recherche Scientifique (CNRS)-Météo-France -Institut de Recherche pour le Développement (IRD)-Institut national des sciences de l'Univers (INSU - CNRS)-Centre National d'Études Spatiales [Toulouse] (CNES)-Centre National de la Recherche Scientifique (CNRS)-Météo-France -Centre National de la Recherche Scientifique (CNRS), Université Paul Sabatier - Toulouse III, Laurent Bouchet, Jean Luc Atteia, Institut national des sciences de l'Univers (INSU - CNRS)-Université Toulouse III - Paul Sabatier (UT3), Université Fédérale Toulouse Midi-Pyrénées-Université Fédérale Toulouse Midi-Pyrénées-Observatoire Midi-Pyrénées (OMP), and Météo France-Centre National d'Études Spatiales [Toulouse] (CNES)-Université Fédérale Toulouse Midi-Pyrénées-Centre National de la Recherche Scientifique (CNRS)-Institut de Recherche pour le Développement (IRD)-Météo France-Centre National d'Études Spatiales [Toulouse] (CNES)-Centre National de la Recherche Scientifique (CNRS)-Institut de Recherche pour le Développement (IRD)-Centre National de la Recherche Scientifique (CNRS)
- Subjects
Traitement du signal : traitement des images ,Méthodes et techniques pour l'astrophysique ,Méthodes numériques ,Methods: numerical ,Techniques: image processing ,Gamma-ray bursts ,Gamma rays/X-rays: general ,Instrumentation ,Astrophysique X/gamma ,Astronomical instrumentation ,Sursauts gamma ,Methods and techniques for astrophysics ,[SDU.ASTR.IM]Sciences of the Universe [physics]/Astrophysics [astro-ph]/Instrumentation and Methods for Astrophysic [astro-ph.IM] - Abstract
Gamma-Ray Bursts (GRBs) are the most luminous explosions in the universe. They are observed as bright flashes of gamma/X-rays (lasting a few milliseconds to a few tens of seconds) followed by an "afterglow" emission (usually at longer wavelengths). They are produced either due to the merger of two compact objects (a pair of neutron stars or a neutron star and a black hole) or due to the core collapse of a massive star (> 15 solar mass). GRBs are excellent candidates to study physics at extreme energies and densities. They also constitute important astrophysical tools to probe the history of the universe as they are observed at all epochs. The upcoming (June 2022) Sino-French mission SVOM (Space-based multi-band astronomical Variable Objects Monitor) aims to detect and study GRBs using dedicated space and ground based instruments to obtain multi-wavelength coverage. The primary instrument onboard SVOM spacecraft is ECLAIRs, a wide-field (~ 2 sr) coded-mask imager sensitive in the 4 - 150 keV energy range. ECLAIRs will detect and localise GRBs (and other high energy transients) in near real time using an onboard trigger. ECLAIRs will encounter a high and variable background due to the wide field-of-view (FoV) and the pointing strategy of SVOM which makes the Earth transit through the FoV. A new method (called Particle Interaction Recycling Approach or PIRA), based on Monte-Carlo simulations (GEANT4), was developed to estimate the variable background accurately and rapidly. The simulations of the background are complemented with simulations of X-ray sources and gamma-ray bursts to generate complete observation scenarios. The variable background of ECLAIRs poses challenges to detect GRBs and affects the sensitivity of the instrument. We use the simulated data to evaluate the performance of the onboard trigger, in particular, the impact of the variable background and its sensitivity to the GRB characteristics (duration, temporal profile, spectral shape,position in the FoV). ECLAIRs will send all detected photons to the ground. In addition, the availability of a larger computational power and the better knowledge of the context (e.g. background variations, sources in the FoV, etc.) on the ground motivates us to develop an "offline trigger" to overcome the challenges faced by the onboard trigger. An algorithm based on wavelet transforms is proposed to detect GRBs as part of the offline trigger. The work in this thesis, i.e. the development of PIRA, instrument's performance evaluation and development of a trigger method, provides a sound basis to build an effective offline trigger that will complement the onboard trigger and improve the overall performance of the SVOM mission.; Les sursauts gamma (Gamma-Ray Bursts ou GRBs) sont les explosions les plus lumineuses de l'univers. On les observe sous la forme de bouffées de rayons X/ƴ (d'une durée de quelques millisecondes à quelques dizaines de secondes) suivies d'une émission rémanente (généralement à de plus grandes longueurs d'onde). Ils résultent soit de la fusion de deux objets compacts (une paire d'étoiles à neutrons ou une étoile à neutrons et un trou noir), soit de l'effondrement du noyau d'une étoile massive (>15 masse solaire). Les GRBs sont d'excellents candidats pour étudier la physique aux énergies et densités extrêmes et un outil astrophysique pour sonder l'histoire de l'univers car ils sont observés à tous les âges de celui-ci. La mission spatiale Sino-Française SVOM (lancement prévu en juin 2022) a pour objectif la détection et l'étude des GRBs à l'aide d'instruments spatiaux et terrestres dédiés afin d'obtenir une couverture multi-longueurs d'onde. Le principal instrument à bord du satellite SVOM est ECLAIRs, un imageur à masque codé à grand champ de vue (~2 sr) fonctionnant dans la bande d'énergie de 4 à 150 keV. ECLAIRs détectera et localisera les GRBs (ainsi que d'autres sources transitoires à hautes énergies) en temps quasi réel grâce à son " trigger " embarqué. Le bruit de fond d'ECLAIRs est élevé et variable en raison du grand champ de vue et de la stratégie de pointage de SVOM qui amène la Terre à transiter dans le champ de vue. Une nouvelle méthode (appelée "Particle Interaction Recycling Approach" ou PIRA en anglais), basée sur des simulations de Monte-Carlo (GEANT4), a été développée pour estimer précisément et rapidement le bruit de fond variable. Les simulations du bruit de fond sont complétées avec des sources X et des sursauts gamma afin de générer des scénarios d'observation complets. Le bruit de fond variable d'ECLAIRs pose des problèmes pour la détection des GRBs et affecte la sensibilité de l'instrument. Nous avons évalué les performances du "trigger" embarqué, notamment l'impact du bruit de fond sur la détection des sources transitoires et sa sensibilité aux caractéristiques des GRBs (durée, profil temporel, forme spectrale, position dans le champ de vue). ECLAIRs enverra au sol tous les photons détectés. De plus, la disponibilité d'une plus grande puissance de calcul et une meilleure connaissance du contexte (par exemple, les variations du bruit de fond, les sources dans le champ de vue, etc.) au sol, nous ont conduits à développer un "trigger" sol pour surmonter les difficultés rencontrées par le "trigger" embarqué. Ainsi, nous proposons un algorithme basé sur des transformées en ondelettes pour détecter les GRBs dans le cadre du "trigger" sol. Les travaux de cette thèse, à savoir le développement de PIRA, l'évaluation des performances et le développement d'un nouvel algorithme de détection de sursauts, fournissent une base solide pour construire un "trigger" sol efficace, qui complétera le "trigger" embarqué et améliorera les performances globales de la mission SVOM.
- Published
- 2021
30. Central engine of extreme explosions : magnetorotational instability in proto-neutron stars
- Author
-
Reboul-Salze, Alexis, STAR, ABES, Astrophysique Interprétation Modélisation (AIM (UMR_7158 / UMR_E_9005 / UM_112)), Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Institut national des sciences de l'Univers (INSU - CNRS)-Université Paris-Saclay-Centre National de la Recherche Scientifique (CNRS)-Université de Paris (UP), Université Paris-Saclay, Jérôme Guilet, Thierry Foglizzo, and Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Institut national des sciences de l'Univers (INSU - CNRS)-Université Paris-Saclay-Centre National de la Recherche Scientifique (CNRS)-Université Paris Cité (UPCité)
- Subjects
[PHYS.PHYS.PHYS-FLU-DYN]Physics [physics]/Physics [physics]/Fluid Dynamics [physics.flu-dyn] ,Magnetohydrodynamics (MHD) ,[SDU.ASTR.HE] Sciences of the Universe [physics]/Astrophysics [astro-ph]/High Energy Astrophysical Phenomena [astro-ph.HE] ,[PHYS.ASTR.SR] Physics [physics]/Astrophysics [astro-ph]/Solar and Stellar Astrophysics [astro-ph.SR] ,[SDU.ASTR.HE]Sciences of the Universe [physics]/Astrophysics [astro-ph]/High Energy Astrophysical Phenomena [astro-ph.HE] ,Magnétars ,[PHYS.PHYS.PHYS-FLU-DYN] Physics [physics]/Physics [physics]/Fluid Dynamics [physics.flu-dyn] ,[PHYS.ASTR.SR]Physics [physics]/Astrophysics [astro-ph]/Solar and Stellar Astrophysics [astro-ph.SR] ,Gamma-Ray bursts ,Magnétohydrodynamique (MHD) ,Dynamo ,Supernovae ,Méthodes numériques ,Numerical Methods ,Astrophysics::Solar and Stellar Astrophysics ,Magnetars ,Sursauts gamma - Abstract
Massive stars end their life in a violent explosion, called supernova. These explosions are due to the collapse of their iron core and lead to the formation of neutron stars. Observations show that some supernovae have extreme properties, such as their kinetic energy in the case of hypernovae or their luminosity in the case of superluminous supernovae. A central engine different from the neutrino-driven mechanism for standard supernovae is often invoked for these extreme explosions : a magnetorotational explosion. This mechanism assumes on a fast rotating proto-neutron star (PNS) with an intense magnetic field, which extracts the rotational energy to explain the extreme caracteristics of hypernovae or superluminous supernovae. With time, this PNS becomes a magnetar, a class of neutron stars caracterised by a wide diversity of high energy phenomena powered by the dissipation of their strong magnetic field. A magnetic dipole of 10¹⁴-10¹⁵ G can be inferred from the observations of most magnetars. The origin of magnetars and their large-scale magnetic field, especially in presence of fast rotation, remains an open question. Two promising mechanisms are invoked to amplify the magnetic field of PNS : the convective dynamo or the magnetorotational instability (MRI). This thesis studies in more details the scenario of magnetar formation by the MRI. This instability has been studied analytically or in local numerical simulations with a box representing a small part of the PNS. For the first time, this thesis uses simplified spherical 3D models to study the origin of the dipole. A first study is designed to investigate large-scale magnetic field from an initial small-scale one using the incompressible approximation, which enables longer simulation times and the exploration of the parameter space. The numerical simulations of this model show a self-sustained turbulent MRI-driven dynamo, whose saturated state is independent of the initial magnetic field. This saturated state is dominated by a strong turbulent magnetic field of B ≥ 10¹⁵ G, but a non-dominant magnetic dipole represents systematically about 5% of the averaged magnetic field strength. Interestingly, this dipole is found to be tilted toward the equatorial plane. By comparing these results with local simulations, global models reproduce several characteristics of local MRI turbulence such as the kinetic and magnetic spectra, while the turbulence is less vigorous in the global models. A more realistic model based on the anelastic approximation was then developed in order to take into account the density and entropy profiles of the PNS. Simulation results show a self-sustained turbulent MRI-driven dynamo with a strong turbulent magnetic field of B ≥ 10¹⁴ G and a non-dominant equatorial dipole, which represents about 4.3% of the averaged magnetic field strength. Interestingly, an axisymmetric magnetic field at large scales is observed to oscillate with time, which can be described as a mean-field αΩ dynamo. By comparing these results with the models with less physical ingredients, we find that the density gradient favors the apparition of this mean-field behaviour. Buoyancy due to the entropy gradient damps turbulence in the equatorial plane but has a relatively weak influence overall because of the high thermal diffusivity due to neutrinos.To conclude, this thesis supports the ability of the MRI to generate magnetar-like large-scale magnetic fields in a fast-rotating PNS., La fin de vie des étoiles massives donne lieu à une explosion, appelée supernova. Ces explosions sont provoquées par l'effondrement de leur cœur de fer et la formation d'une étoile à neutrons. Les observations des supernovae montrent que certaines d'entre elles ont des caractéristiques extrêmes comme leur énergie cinétique pour les hypernovae ou leur luminosité pour les supernovae superlumineuses. Un moteur central de ces explosions différent du mécanisme des neutrinos pour les supernovae standards est souvent invoqué pour expliquer ces caractéristiques extrêmes : une explosion magnétorotationnelle. Ce mécanisme suppose la formation d'une proto-étoile à neutrons (PNS) en rotation rapide et avec un fort champ magnétique qui permet d'extraire l'énergie de rotation et obtenir une explosion plus énergétique ou lumineuse. Cette PNS, une fois refroidie en étoile à neutrons, fait partie de la classe des magnétars, qui se distingue par toute une diversité d'émissions à haute énergie dues à la dissipation de leur intense champ magnétique interne. Les observations de ces objets permettent d'inférer que la composante dipolaire de leur champ magnétique est de l'ordre de 10¹⁴-10¹⁵ G.L'origine des magnétars et de leur fort champ magnétique à grande échelle, particulièrement en présence de rotation rapide, reste une question ouverte. Deux mécanismes ont été invoqués pour amplifier le champ magnétique dans les PNS : la dynamo convective ou l'instabilité magnétorotationnelle (MRI). Cette thèse se propose d'étudier en détail le scénario de formation par la MRI. Celle-ci a déjà été étudiée de manière analytique ou dans des simulations numériques locales dans une boite représentant une partie de la PNS. Pour la première fois, cette thèse présente des modèles 3D sphériques simplifiés, ce qui permet d'étudier l'origine du dipôle. Une première étude a été menée pour étudier la génération d'un champ magnétique à grande échelle dans l'approximation incompressible, ce qui permet une plus vaste exploration des paramètres et des simulations plus longues. Nos simulations montrent la présence d'une dynamo auto-entretenue, dont l'état saturé ne dépend pas des conditions initiales du champ magnétique. Bien que cet état soit dominé par le champ magnétique turbulent (≥ 10¹⁵ G), un dipôle représentant 5% du champ magnétique moyen est généré dans toutes les simulations. De manière inédite, ce dipôle est orienté vers le plan équatorial plutôt que vers l'axe de rotation. De plus, la comparaison de ces modèles sphériques avec les modèles locaux montre que l'état turbulent de la MRI a des propriétés similaires, bien que le champ magnétique soit légèrement plus faible dans les modèles globaux. Un modèle basé sur l'approximation anélastique a ensuite été développé afin de prendre en compte les profils de densité et d'entropie d'une structure réaliste de PNS. Les simulations montrent également une dynamo auto-entrenue avec un champ magnétique moyen ≥ 10¹⁴ G et un dipôle équatorial de l'ordre de 4.3% du champ magnétique. De plus, un nouveau comportement à grande échelle apparaît avec ce modèle réaliste : une dynamo de champ moyen qui peut être décrite comme une dynamo αΩ. La comparaison de ce modèle avec des modèles idéalisés montre que la stratification en densité favorise l'apparition d'une dynamo de champ moyen. La force de flottaison limite la turbulence dans le plan équatorial mais a une influence assez faible dans l'ensemble du fait de la forte diffusion thermique due aux neutrinos. Dans l'ensemble, les résultats présentés dans cette thèse confirment la capacité de la MRI de former des magnétars dans le cas d'une rotation rapide.
- Published
- 2021
31. Contributions à l'optimisation topologique de liaisons amortissantes pour des applications spatiales
- Author
-
Burri, Sylvain, Laboratoire de Mécanique des Structures et des Systèmes Couplés (LMSSC), Conservatoire National des Arts et Métiers [CNAM] (CNAM), HESAM Université, and Antoine Legay
- Subjects
Optimisation topologique ,Modèle éléments finis ,Méthodes numériques ,Finite Element Model ,Matériau viscoélastique ,Amortissement ,Elastomer ,Topology optimization ,Numerical methods ,[SPI.MECA]Engineering Sciences [physics]/Mechanics [physics.med-ph] ,Elastomère ,Damping ,Viscoelastic material - Abstract
Thanks to their damping properties, elastomer materials are commonly used in the aeronautics and aerospace industries in order to reduce vibrations coming from external sources.When this material is placed between subs-systems of a mechanical assembly, it is able to protect the integrity of sensitive equipment such as electrical or optical devices.To study this phenomenon, this PhD thesis is based upon a representative finite element model of an industrial application composed of a payload that we aim to protect, a dispenser through which vibrations coming from the launcher are transmitted, and links between these sub-systems.The damping material is added inside the links which then have to handle two contradictory aims: transmitting static loads and damping vibrations.First of all, the material's positioning as well as its mechanical properties are determined by using a parametric optimization numerical strategy.Then, in order to improve the links’ design, a topology optimization algorithm is implemented.This algorithm is firstly used in a static environment, then some academic cases are solved in a dynamic environment.; Grâce à leurs propriétés amortissantes, les matériaux élastomères sont fréquemment utilisés dans l'industrie aéronautique et spatiale afin d'atténuer les vibrations provenant de sources extérieures.Lorsque ce matériau est placé entre des sous-systèmes d'un assemblage mécanique, il permet de protéger l'intégrité d'équipements sensibles tels que des éléments électroniques ou optiques.Afin d'étudier ces phénomènes, cette thèse de doctorat se base sur un modèle éléments finis représentatif d'une application industrielle comprenant une charge utile que l'on souhaite préserver, un support de charge utile par lequel transite les vibrations provenant du lanceur, et des liaisons entre ces sous-systèmes.Le matériau amortissant est incorporé dans les liaisons qui doivent alors répondre à deux objectifs contradictoires : transmettre les charges statiques et amortir les vibrations.Dans un premier temps, le positionnement du matériau ainsi que ses caractéristiques mécaniques sont déterminés en utilisant une stratégie numérique d'optimisation paramétrique.Puis, dans le but d'améliorer la conception des liaisons, un algorithme d'optimisation topologique est implémenté.Cet algorithme est d'abord utilisé dans le cadre de la statique, puis quelques cas académiques sont résolus en dynamique.
- Published
- 2020
32. Transmission spectroscopy of TRAPPIST-1d with the new Palomar/WIRC+Spec instrument : a Karhunen-Loève transform based approach to extracting spectrophotometry
- Author
-
Chan, Jonathan and Benneke, Björn
- Subjects
Méthodes numériques ,Planètes et satellites: atmosphères ,Planètes et satellites: individuels (TRAPPIST-1d) ,Planets and satellites: atmospheres ,Planets and satellites: individual (TRAPPIST-1d) ,Numerical methods ,Spectroscopie de transit ,Transit spectroscopy - Abstract
Le système TRAPPIST-1 offre une opportunité sans précédent de caractériser les premières planètes potentiellement habitables en dehors de notre système solaire. Dans ce mémoire est décrit le développement d’un pipeline de réduction de données personnalisé pour le mode WIRC+Spec de la caméra infrarouge à grand champ récemment mise à niveau à l’observatoire Palomar. Nous introduisons une nouvelle approche d’ajustement de la fonction d’étalement du point basée sur la transformation de Karhunen-Loève pour extraire des courbes de lumière photométrique et spectroscopique de sources de forme irrégulière, que nous appliquons aux observations de l’exoplanète TRAPPIST-1d pour mesurer ses spectres de transmission dans les bandes J (1.1 à 1.4 µm) et Ks (1.95 à 2.35 µm). Un guide détaillé est présenté pour l’implémentation d’un calcul de profils de température incluant l’équilibre radiatif et convectif pour une modélisation atmosphérique efficace et précise. En comparant une multitude de scénarios atmosphériques aux observations de TRAPPIST-1d, nous obtenons des contraintes sur la composition et la structure de son atmosphère, excluant les scénarios sans nuages avec des métallicités inférieures à 300 fois la valeur solaire à 3σ., The TRAPPIST-1 system provides an unprecedented opportunity to characterize the first potentially habitable planets outside our solar system. In this work we describe the development of a custom data reduction pipeline for the WIRC+Spec mode of the recently upgraded Wide Field Infrared Camera instrument on Palomar Observatory. We introduce a novel, Karhunen-Loève transform based approach to extract photometric and spectroscopic light curves from irregularly shaped sources, which we apply to observations of the TRAPPIST-1d exoplanet to measure the J band (1.1 to 1.4 µm) and Ks band (1.95 to 2.35 µm) transmission spectra. We also present a detailed guide into the implementation of a self-consistent, radiative-convective temperature structure calculation for efficient and accurate atmospheric modelling. Comparing a host of atmospheric scenarios to the observations of TRAPPIST-1d to date, we constrain its atmosphere, ruling out cloud-free atmospheres with metallicities lower than 300 times the solar value at 3σ confidence.
- Published
- 2020
33. Transposition of parameters estimated by inversion of a two-dimensional hydrodynamic model to a three-dimensional solute transport model : methodology and application to an alluvial aquifer
- Author
-
Rambourg, Dimitri, Laboratoire d'Hydrologie et de Géochimie de Strasbourg (LHyGeS), Ecole et Observatoire des Sciences de la Terre (EOST), Université de Strasbourg (UNISTRA)-Institut national des sciences de l'Univers (INSU - CNRS)-Centre National de la Recherche Scientifique (CNRS)-Université de Strasbourg (UNISTRA)-Institut national des sciences de l'Univers (INSU - CNRS)-Centre National de la Recherche Scientifique (CNRS)-École Nationale du Génie de l'Eau et de l'Environnement de Strasbourg (ENGEES)-Institut national des sciences de l'Univers (INSU - CNRS)-Centre National de la Recherche Scientifique (CNRS), Université de Strasbourg, Philippe Ackerer, Olivier Bildstein, and STAR, ABES
- Subjects
Hydrogéologie ,Ecoulement et transport dans un aquifère non-saturé ,Méthodes numériques ,[SDU.STU] Sciences of the Universe [physics]/Earth Sciences ,Computational methods ,Hydrogeology ,[SDU.STU]Sciences of the Universe [physics]/Earth Sciences ,Flow and transport in an unsaturated aquifer - Abstract
The thesis proposes a tool for modelling flows and the transport of dissolved pollutants in aquifers, with an example of application to the CEA site at Marcoule (Gard). The methodological developments and the application to the study site are divided into three phases. An inversion of the hydrodynamic parameters of the aquifer in 2D, with a formulation adapted to the context of the study site (constraint of the complex topography of the aquifer bedrock, integration of large-scale geological data), allows the behaviour of the alluvial water table at Marcoule to be reproduced with fidelity and robustness. 3D hydrogeological models are then constructed by interpolating borehole data using two methods (a stochastic approach and a deterministic approach). The parameterisation of the heterogeneities produced by the interpolation exploits the 2D inversion’s transmissivity values. Finally, the parameterised hydrogeological model is used to simulate the flow and transport of dissolved contaminants in three dimensions, in the saturated zone and the vadose zone., La thèse propose un outil de modélisation des écoulements et du transport des polluants dissous dans les aquifères, avec un exemple d’application au site du CEA de Marcoule (Gard). Les développements méthodologiques et l’application au site d’étude s’échelonnent en trois phases. Une inversion des paramètres hydrodynamiques de l’aquifère en 2D, avec une formulation adaptée au contexte du site d’étude (contrainte de la topographie complexe du substratum de l’aquifère, intégration de données géologiques à grande échelle), permet de reproduire avec fidélité et robustesse le comportement de la nappe alluviale au droit de Marcoule. Des modèles hydrogéologiques 3D sont ensuite construits en procédant à l’interpolation de données de sondage via deux méthodes (une approche stochastique et une approche déterministe). La paramétrisation des hétérogénéités produites par l’interpolation exploite les valeurs de transmissivité issues de l’inversion 2D. Pour finir, le modèle hydrogéologique paramétré est exploité pour simuler d’écoulement et de transport de contaminants dissous en trois dimensions, en zone saturée et en zone insaturée.
- Published
- 2020
34. Modélisation de la Propagation Atmospherique d’Ondes Electromagnetiques sur de Longues Distances en 3D à partir de laTransformée en Ondelettes
- Author
-
Bonnafont, Thomas, Ecole Nationale de l'Aviation Civile (ENAC), Université Toulouse 3, Rémi Douvenot, and Alexandre Chabory
- Subjects
Propagation atmospherique ,[SPI.ELEC]Engineering Sciences [physics]/Electromagnetism ,Méthodes numériques ,Split-step ,Equation parabolique ,Ondelettes - Abstract
In the domain of radio frequencies, the long-range electromagnetic wave propagation is a major issue. Fast and accurate methods for propagation over several hundreds of kilometers are needed. Methods exist for this purpose but they are never both accurate and fast.The objective of this Ph.D. thesis is to develop a fast and accurate method for modeling the tropospheric propagation in 3D by means of wavelets and compression. More precisely, first, the method shall be optimized in terms of memory occupation in 2D. Then, since the method needs to be accurate, a theoretical bound of the compression error of this method shall be derived. Finally, the method must be generalized to 3D to obtain a fast method with low memory occupation. Therefore, three main axes toward the objective have been studied:• Based on the split-step wavelet algorithm and on the wavelet property a local split-step wavelet method is derived to minimize the memory occupation.• A bound for the compression error of split-step wavelet is calculated. This allows to obtain a given accuracy in a given scenario, thus the accuracy will be assessed.• The local method is extended to 3D to obtain a fast and accurate method for the long-range propagation in 3D while keeping a minimized memory occupation. The objective is to be better in terms of computation time and memory occupation than split-step Fourier to allow modeling large domains in 3D.• Simulations on canonical and realistic scenarios are performed to test and compare the different methods.; Dans le domaine des radiofréquences, la propagation des ondes électromagnétiques à longue portée est un enjeu majeur. Des méthodes rapides et précises de propagation sur plusieurs centaines de kilomètres sont nécessaires. Des méthodes existent à cet effet mais elles ne sont jamais à la fois précises et rapides.L'objectif de la thèse est de développer une méthode rapide et précise de modélisation de la propagation troposphérique en 3D au moyen d'ondelettes et de compression. Plus précisément, dans un premier temps, la méthode sera optimisée en termes d'occupation mémoire en 2D. Puis, puisque la méthode doit être précise, une borne théorique de l'erreur de compression de cette méthode doit être dérivée. Enfin, la méthode doit être généralisée à la 3D pour obtenir une méthode rapide avec une faible occupation mémoire. Par conséquent, trois axes principaux vers l'objectif ont été étudiés:• Sur la base de l'algorithme d'ondelettes à pas divisé et de la propriété d'ondelette, une méthode locale d'ondelettes à pas divisé est dérivée pour minimiser l'occupation de la mémoire.• Une limite pour l'erreur de compression de l'ondelette à pas de division est calculée. Cela permet d'obtenir une précision donnée dans un scénario donné, donc la précision sera évaluée.• La méthode locale est étendue à la 3D pour obtenir une méthode rapide et précise de propagation longue portée en 3D tout en gardant une occupation mémoire minimisée. L'objectif est d'être meilleur en termes de temps de calcul et d'occupation mémoire que de Fourier à pas fractionné pour permettre la modélisation de grands domaines en 3D.• Des simulations sur des scénarios canoniques et réalistes sont effectuées pour tester et comparer les différentes méthodes.
- Published
- 2020
35. Modeling the Atmopsheric Long-range Electromagnetic Waves Propagation in 3D Using the Wavelet Transform
- Author
-
Bonnafont, Thomas, Ecole Nationale de l'Aviation Civile (ENAC), Université Toulouse 3, Rémi Douvenot, and Alexandre Chabory
- Subjects
Propagation atmospherique ,[SPI.ELEC]Engineering Sciences [physics]/Electromagnetism ,Méthodes numériques ,Split-step ,Equation parabolique ,Ondelettes - Abstract
In the domain of radio frequencies, the long-range electromagnetic wave propagation is a major issue. Fast and accurate methods for propagation over several hundreds of kilometers are needed. Methods exist for this purpose but they are never both accurate and fast.The objective of this Ph.D. thesis is to develop a fast and accurate method for modeling the tropospheric propagation in 3D by means of wavelets and compression. More precisely, first, the method shall be optimized in terms of memory occupation in 2D. Then, since the method needs to be accurate, a theoretical bound of the compression error of this method shall be derived. Finally, the method must be generalized to 3D to obtain a fast method with low memory occupation. Therefore, three main axes toward the objective have been studied:• Based on the split-step wavelet algorithm and on the wavelet property a local split-step wavelet method is derived to minimize the memory occupation.• A bound for the compression error of split-step wavelet is calculated. This allows to obtain a given accuracy in a given scenario, thus the accuracy will be assessed.• The local method is extended to 3D to obtain a fast and accurate method for the long-range propagation in 3D while keeping a minimized memory occupation. The objective is to be better in terms of computation time and memory occupation than split-step Fourier to allow modeling large domains in 3D.• Simulations on canonical and realistic scenarios are performed to test and compare the different methods.; Dans le domaine des radiofréquences, la propagation des ondes électromagnétiques à longue portée est un enjeu majeur. Des méthodes rapides et précises de propagation sur plusieurs centaines de kilomètres sont nécessaires. Des méthodes existent à cet effet mais elles ne sont jamais à la fois précises et rapides.L'objectif de la thèse est de développer une méthode rapide et précise de modélisation de la propagation troposphérique en 3D au moyen d'ondelettes et de compression. Plus précisément, dans un premier temps, la méthode sera optimisée en termes d'occupation mémoire en 2D. Puis, puisque la méthode doit être précise, une borne théorique de l'erreur de compression de cette méthode doit être dérivée. Enfin, la méthode doit être généralisée à la 3D pour obtenir une méthode rapide avec une faible occupation mémoire. Par conséquent, trois axes principaux vers l'objectif ont été étudiés:• Sur la base de l'algorithme d'ondelettes à pas divisé et de la propriété d'ondelette, une méthode locale d'ondelettes à pas divisé est dérivée pour minimiser l'occupation de la mémoire.• Une limite pour l'erreur de compression de l'ondelette à pas de division est calculée. Cela permet d'obtenir une précision donnée dans un scénario donné, donc la précision sera évaluée.• La méthode locale est étendue à la 3D pour obtenir une méthode rapide et précise de propagation longue portée en 3D tout en gardant une occupation mémoire minimisée. L'objectif est d'être meilleur en termes de temps de calcul et d'occupation mémoire que de Fourier à pas fractionné pour permettre la modélisation de grands domaines en 3D.• Des simulations sur des scénarios canoniques et réalistes sont effectuées pour tester et comparer les différentes méthodes.
- Published
- 2020
36. Dynamics and interactions in natural resources economics : land use, soil pollution and renewable energy
- Author
-
Cornet, Alexandre, Centre d'économie de la Sorbonne (CES), Université Paris 1 Panthéon-Sorbonne (UP1)-Centre National de la Recherche Scientifique (CNRS), Université Panthéon-Sorbonne - Paris I, Antoine Mandel, and STAR, ABES
- Subjects
Natural resources and energy economics ,Économie spatiale et géographique ,Méthodes numériques ,Macrodynamics ,Macroéconomie dynamique ,Spatial and geographic economics ,Numerical methods ,Économie de l'énergie et des ressources naturelles ,[SHS.ECO] Humanities and Social Sciences/Economics and Finance ,[SHS.ECO]Humanities and Social Sciences/Economics and Finance - Abstract
This thesis focuses on the interplay between dynamic economic policies concerning the use and preservation of natural resources and the technological, environmental and geographical frameworks in which they are implemented. The first chapter proposes an analysis of optimal peak load decarbonation pathways when back-up fossil fuels are being gradually substituted by stored intermittent renewable energy. We model the process of intermittent renewable energy storage under renewable energy surplus uncertainty in a Markovian framework and consider technical progress in both storage efficiency and capacity. This allows us to study the optimal storage policies with respect to carbon and storage costs, as well as the renewable energy surplus distribution. We analytically solve this problem under specific assumptions and use a value function iteration algorithm to investigate numerically on the optimal energy storage policies for peak load decarbonation in Portugal. Along with intermittency and storage costs, land use is another limitation to the development of renewable energy. In the second chapter of this thesis, we develop a macrodynamic growth model of the energy shift integrating land use constraints. Land is considered as a resource for agricultural production along with energy. Developing renewable energy uses space and thus interferes with the agricultural sector. Moreover, pollution abatement policies, such as forests preservation policies, also compete with renewable energy for land in order to reduce pollution from the use of fossil fuels. We theoretically study the competition in land use between agriculture, pollution abatement and renewable energy production and apply our model to study the development of a palm oil biodiesel sector in Brazil, along with the issues it rises regarding the Amazon forest preservation. The last chapter of this thesis also focuses on agricultural land, but this time to assess the impact of the agriculture activity on soil fertility. More precisely, we focus our analysis on a specific externality from the agricultural sector being diffuse soil pollution. Hence, we develop in this chapter a spatial growth model for an agricultural economy, in which pollution diffuses across space. We analytically show that, due to diffuse soil pollution, the economy can reach a long-term spatial equilibrium with a fertile region and a polluted region, and that the polluted region can either stagnate at low levels of fertility, or catch up with the fertile region. Our results are numerically illustrated, including the resiliency of the economy to recover from pollution shocks., Cette thèse propose une analyse théorique des interactions entre les politiques économiques concernant l’utilisation et la préservation des ressources naturelles et le cadre technologique, environnemental et géographique dans lequel elles sont implémentées. Le premier chapitre porte sur les dynamiques optimales de décarbonation du pic de consommation via le stockage d’énergies renouvelables intermittentes. Le processus de stockage est modélisé dans un cadre Markovien pour prendre en compte le caractère incertain de la disponibilité en énergies renouvelables intermittentes. Nous considérons du progrès technique à la fois en efficacité et en capacité de stockage ce qui nous permet d’étudier les politiques optimales de stockage selon leur coût, mais aussi selon le coût du carbone et de la disponibilité en énergie renouvelable. Nous appliquons notre modèle à l’analyse de la décarbonation du pic de consommation au Portugal. Outre le caractère intermittent des énergies renouvelables et leur coût de stockage, leur usage des sols est aussi une limite à leur développement à grande échelle. Dans le deuxième chapitre, nous développons un modèle macrodynamique de la transition énergétique en prenant en compte la contrainte d’usage des sols. Le sol et l’énergie sont considérés comme les ressources nécessaires à la production agricole et le développement d’énergies renouvelables peut alors interférer avec la production agricole et l’activité de dépollution d’éventuelles zones forestières. Nous étudions théoriquement ces arbitrages en termes d’usages des sols entre la production agricole, le développement des énergies renouvelables et les politiques de dépollution, puis nous appliquons notre modèle à l’étude du développement d’une filière biodiesel à base d’huile de palme au Brésil et des enjeux que cela soulève concernant la préservation de la forêt Amazonienne. Le dernier chapitre de cette thèse s’intéresse aux sols agricoles mais du point de vue de l’impact de la pollution agricole sur la fertilité des terres. Nous nous intéressons plus précisément à la pollution diffuse des sols agricoles. Un modèle macrodynamique et spatial d’une économie agricole est ainsi développé en tenant compte du caractère diffusif de la pollution dans les terres agricoles. Nous montrons analytiquement que l’économie peut alors atteindre un équilibre spatial avec une région fertile et une région polluée, et que la région polluée peut soit stagner à des bas niveaux de fertilité soit rattraper le niveau de la région fertile. Une étude numérique est enfin menée pour illustrer nos résultats ainsi que pour étudier la résilience de l’économie à divers chocs de pollution.
- Published
- 2020
37. Development of a Methodology for the Multiphysic Best-Estimate Modelling of PWR Core along Irradiation
- Author
-
Cattaneo, Paolo, Laboratoire de Physique et d'Etude des Matériaux (UMR 8213) (LPEM), Ecole Superieure de Physique et de Chimie Industrielles de la Ville de Paris (ESPCI Paris), Université Paris sciences et lettres (PSL)-Université Paris sciences et lettres (PSL)-Sorbonne Université (SU)-Centre National de la Recherche Scientifique (CNRS), Université Grenoble Alpes [2020-....], Elsa Merle, and STAR, ABES
- Subjects
Multiphysique ,[SPI.GPROC] Engineering Sciences [physics]/Chemical and Process Engineering ,Méthodes Numériques ,Numerics ,Multiphysics ,PWR ,Calcul d'Evolution ,REP ,Depletion ,Partial-Convergences ,[SPI.GPROC]Engineering Sciences [physics]/Chemical and Process Engineering ,Fine-Mesh ,Maillage Raffiné ,Convergences Partielles - Abstract
This thesis aims at improving the modelling of Pressurized Water Reactors (PWRs). Nuclear reactors in general can be considered as multiphysic systems, as their accurate representation often requires to account for neutronics, thermal-hydraulics, isotopic evolution and fuel performance. In particular, this work concerns the development of a multiphysic calculation scheme for fine mesh (pin cell resolution) depletion calculations and its numerical optimization. Conventional approaches generally deploy solvers specialised on a subset of the physics, while resorting to simplified models for the rest. Thanks to the increasing availability of large computational resources and to the higher flexibility of modern programming languages, a large number of research groups is working on the development of simulation tools that rely less on the use of simplified models. A general coupling scheme is developed exploiting the tools from the SALOME platform. It ensures the compatibility with a set of the CEA solvers, including APOLLO3® for the neutronics, FLICA4 or THEDI for the thermal-hydraulics and heat conduction and MENDEL for the depletion calculations. Through the coupling of an APOLLO3® core solver with FLICA4, it is possible to combine two-steps neutronic simulations based on pin-cell homogenization with subchannel thermal-hydraulics and heat conduction on every fuel rod. This approach could be placed in between the two most common solutions found in literature for the computation of safety and design parameters at the pin-cell scale: it requires less computing power than the high-fidelity direct calculations (i.e. with no a priori homogenization) and it makes fewer assumptions than the faster running schemes based on the pin-power-reconstruction technique (i.e. the combination of coarse mesh calculations with form functions for the local refining of the results).Following a common approach, the depletion calculations are modelled as a sequence of steady states. For this reason, a large part of the thesis is devoted to the optimization of the steady-state scheme. A simple case study (mini-core: 5x5 PWR fuel assemblies plus reflector) is defined in order to allow to perform a large number of simulations in an acceptable time. On this applicative test, the best combination of models is selected by analysing the performance of the alternatives in terms of discrepancies with the reference and computational cost. In respect of the numerical optimization, two of the most common methods found in literature, the fixed-point and the Anderson methods, are tested confirming the superiority of the latter both in terms of robustness and efficiency. A variant of the fixed-point, here referred to as generalized fixed-point with partial-convergences, which is widespread in the nuclear industry, but hardly ever mentioned in publications, is studied in detail. Knowing that the effectiveness of this technique depends on the considered solvers, in this context, this method proves to solve the major robustness problems of the fixed-point and offers a higher efficiency than the Anderson method. While not possible to directly extend the Anderson method with the partial-convergences, following their core principles, a modified Anderson algorithm is proposed. Preliminary tests lead to promising results in terms of efficiency improvement.In order to account for the evolution of the fuel thermal-mechanical properties along irradiation, a simplified fuel gap heat transfer model is included in the scheme. The first tests confirm the importance of including this model. For the depletion scheme, the research of the target boron concentration is implemented. To do so, an approximated Newton method is adapted to be compatible with the generalized fixed-point with partial-convergences. All the elements mentioned so far are combined together to produce a multiphysic depletion calculation scheme, which is successfully tested on a constant power irradiation scenario., Cette thèse vise à améliorer la modélisation des Réacteurs à Eau Pressurisée (REPs). Les réacteurs nucléaires en général peuvent être considérés comme des systèmes multiphysiques, leur modélisation nécessite la prise en compte des phénomènes de neutronique, thermohydraulique, évolution isotopique et physique du combustible. Plus en détail, ces travaux concernent le développement d’un schéma de calcul d’évolution de type multiphysique avec maillage raffiné (échelle cellule du combustible) et son optimisation numérique. La démarche classique est basée sur l’utilisation de solveurs spécialisés sur un sous-ensemble des physiques combiné avec des modèles simplifiés pour le reste. Grâce à la croissante disponibilité de grandes ressources computationnelles et à la grande flexibilité des langages de programmation modernes, beaucoup de chercheurs sont en train de travailler sur le développement d’outils de simulation qui s’appuient moins sur des modèles simplifiés. Un schéma de calcul a ainsi été développé en exploitant les outils de la plateforme SALOME. Un ensemble de solveurs CEA est intégré, dont APOLLO3® pour la neutronique, FLICA4 ou THEDI pour la thermohydraulique et la conduction de chaleur et MENDEL pour le calcul d’évolution. A travers le couplage entre APOLLO3® et FLICA4, il est possible de combiner un calcul neutronique en deux étapes basé sur une homogénéisation à l’échelle cellule de combustible avec un calcul thermohydraulique sous-canal et la conduction de chaleur dans tous les crayons. Cette approche est intermédiaire entre les deux stratégies les plus diffusées pour le calcul de paramètres de sûreté et conception à l’échelle de la cellule de combustible : il demande moins de puissance computationnelle que les schémas high-fidelity basés sur un calcul direct (i.e. sans homogénéisation a priori) et il fait moins d’hypothèses que les schémas basés sur la technique de reconstruction de la forme de puissance fine qui sont pourtant souvent plus rapides.Les calculs d’évolution sont modélisés comme une séquence d’états permanents. Pour cela, une partie conséquente de la thèse est dédiée à l’optimisation du schéma de calcul en permanent. Un cas d’étude simple (mini-cœur : 5x5 assemblages REPs plus réflecteur) est défini pour pouvoir exécuter un grand nombre de simulations dans un temps acceptable. Sur ce cas test, la meilleure combinaison de modèles est sélectionnée d’après une analyse de performance basée sur les écarts avec la référence et les coûts computationnels. Par rapport à l’optimisation numérique, deux des méthodes les plus utilisées, le point-fixe et Anderson, sont testées en confirmant la supériorité de cette dernière. Une généralisation du point-fixe basée sur les convergences partielles, qui est diffusée dans l’industrie, mais pas autant que ça dans la littérature, est étudiée en détails. Sachant que l’efficacité de cette technique dépend des solveurs considérés, elle démontre pouvoir résoudre les problèmes de robustesse du point fixe et offrir une meilleure efficacité que la méthode d’Anderson. Alors que ce n’est pas possible d’étendre directement la méthode d’Anderson avec les convergences partielles, en suivant leurs principes fondamentaux, une version modifiée est proposée. Des tests préliminaires donnent des résultats prometteurs en termes d’efficacité.Afin de prendre en compte l’évolution des propriétés thermomécaniques du combustible, un modèle simplifié pour le coefficient d’échange thermique dans le jeu pastille-gaine est inclus dans le schéma. Les premiers tests confirment l’importance de ce modèle. La recherche de la concentration de bore ciblé est implémentée. Pour obtenir la compatibilité avec le point-fixe généralisé aux convergences partielles, une méthode de Newton est adaptée. Tous les éléments mentionnés jusqu’à maintenant sont combinés ensemble pour produire un schéma de calcul d’évolution de type multiphysique, qui est testé avec succès sur un scénario d’irradiation à puissance constante.
- Published
- 2020
38. Stabilité linéaire des amas stellaires en rotation
- Author
-
Rozier, Simon, Institut d'Astrophysique de Paris (IAP), Institut national des sciences de l'Univers (INSU - CNRS)-Sorbonne Université (SU)-Centre National de la Recherche Scientifique (CNRS), Sorbonne Université, Christophe Pichon, and Jean-Baptiste Fouvry
- Subjects
Amas globulaires ,Galaxies cinématique et dynamique ,Methods numerical ,Méthodes analytiques ,Instabilités ,Galaxies kinematics and dynamics ,[PHYS.ASTR.CO]Physics [physics]/Astrophysics [astro-ph]/Cosmology and Extra-Galactic Astrophysics [astro-ph.CO] ,Galaxies evolution ,Méthodes numériques ,[PHYS.ASTR.GA]Physics [physics]/Astrophysics [astro-ph]/Galactic Astrophysics [astro-ph.GA] ,Instabilities ,Globular clusters general ,Methods analytical ,Galaxies évolution - Abstract
In the last few decades, observational evidence showed that spheroidal stellar systems display large kinematic diversity. From the largest galaxies to the smallest star clusters, the velocity distribution of stars displays both various flavours of anisotropy (preference for more elongated or more circular orbits), as well as net angular momentum (preferred direction of the azimuthal velocity). This diversity was also shown to vary with cosmic time, through brutal changes and steady perturbations. These observations recently triggered a revived interest for the modelling of spheroidal stellar systems with various anisotropy and rotation profiles. Meanwhile, the stability and evolution of anisotropic, rotating spheroidal systems were scarcely studied. What degree of anisotropy and rotation is expected at the formation of these structures, and at various epochs of their evolution? How do they evolve, in isolation? How does the environment impact their kinematics? In all these prospects, the linear response of stellar clusters is central to their fate. On the one hand, understanding how stable they are is necessary for their consistent modelling. Indeed, it identifies the ensemble of authorised states in which star clusters can be at the time of their observation. On the other hand, identifying the attractors among the stable equilibria is critical to analyse the way they can evolve and interact with their environment, therefore putting constraints on their scenarios of formation and evolution. Here, I use the response matrix method to evaluate the linear response of spherical equilibria, and complement it with N-body simulations. I extend the matrix method to rotating clusters, where the matrix has an extra degree of freedom, and develop numerical techniques leading to its fast computation. This allows me to perform numerous stability analyses, on many clusters with various degrees and flavours in their velocity anisotropy, and different degrees and distributions of net angular momentum. Since star clusters are intrinsically resonant systems, I interpret the stability of rotating, anisotropic star clusters using three known resonant destabilising processes: the radial orbit instability (ROI) in radially anisotropic systems, the circular orbits instability (COI) in tangentially anisotropic systems, and the tumbling instability (TI) in rotating systems. I find that non-rotating clusters with sufficient velocity anisotropy are unstable, both in the radial (ROI) and in the tangential regime (COI). Rotation further enhances the destabilisation of anisotropic systems (through the TI), hence it narrows down the authorised stability domain around isotropic systems. This means that stable spherical clusters can only have a low amount of anisotropy and rotation, and conversely that highly anisotropic or fast rotating clusters cannot be spherical. From a detailed study of destabilising processes, both in terms of resonances via linear theory, and in terms of location in the cluster via N-body simulations, I develop a stability criterion for tangentially anisotropic, rotating spheres with high shear, which reproduces the stability boundary of a large sample of simulations. These results show that resonant processes and self-sustained modes can be important drivers of the secular evolution of spheroidal star clusters with intricate kinematics. It will prove of prime importance at a time when ab initio cosmological simulations reach sufficient resolution to resolve their dynamics, to best make sense of how they evolve over a Hubble time.; Ces dernières décennies, des preuves observationnelles ont montré que les systèmes stellaires sphéroïdaux présentent une importante diversité cinématique. Des plus grandes galaxies aux plus petits amas stellaires, la distribution de vitesse des étoiles présente de l’anisotropie dans différentes directions (une préférence pour les orbites plutôt allongées ou plutôt circulaires), ainsi que de la rotation globale (une direction préférentielle de la vitesse azimutale). Il a aussi été montré que cette diversité varie au cours de l’histoire de l’Univers, par des changements brutaux ou des perturbations régulières. Ces observations ont ainsi récemment renouvelé l’intérêt de la modélisation de systèmes stellaires sphériques présentant des profils d’anisotropie et de rotation divers. Cependant, la stabilité et l’évolution des systèmes sphéroïdaux anisotropes en rotation a été peu étudiée. À quel degré d’anisotropie et de rotation s’attend-on après la formation de ces structures, et à différentes époques de leur évolution ? Comment évoluent-elles lorsqu’elles sont isolées? Comment leur environnement influe-t-il sur leur cinématique? La réponse linéaire de ces objets joue un rôle central dans leur destin. D’une part, la compréhension de leur stabilité est nécessaire à une modélisation cohérente. En effet, on peut alors identifier l’ensemble des états autorisés dans lesquels les amas stellaires peuvent être lorsqu’on les observe. D’autre part, l’identification des attracteurs parmi l’ensemble des équilibres stables est critique pour analyser la manière dont ils évoluent et interagissent avec leur environnement, ce qui permet de contraindre leurs scénarios de formation et d’évolution. Dans cette thèse, j’utilise la méthode de la matrice de réponse, complémentée par des simulations à N corps, pour évaluer la stabilité linéaire d’équilibres sphériques. J’étends cette méthode des matrices aux amas en rotation, ce qui lui donne un degré de liberté supplémentaire, et je développe des méthodes numériques qui optimisent son évaluation. Ces nouvelles méthodes me permettent d’effectuer de nombreuses analyses de stabilité, sur de nombreux amas présentant de l’anisotropie à des degrés et saveurs divers, ainsi qu’une variété dans l’amplitude et la distribution du moment angulaire net. Comme les amas stellaires sont des systèmes intrinsèquement résonants, j’interprète la stabilité des amas stellaires anisotropes en rotation par le biais de trois processus résonnants de déstabilisation connus : l’instabilité d’orbite radiale (ROI) dans les systèmes radialement anisotropes, l’instabilité d’orbite circulaire (COI) dans les systèmes tangentiellement anisotropes, et l’instabilité d’alignement (TI) dans les systèmes tournants. Je montre que les systèmes sans rotation présentant un haut degré d’anisotropie sont instables, autant dans le régime radial (ROI) que dans le régime tangentiel (COI). La rotation entraîne la déstabilisation des systèmes anisotropes (via la TI), ce qui réduit d’autant le domaine de stabilité autour des systèmes isotropes. Cela signifie que les amas sphériques stables ne peuvent pas avoir une anisotropie ou une rotation importantes, et à l’inverse que des systèmes fortement anisotropes ou en rotation rapide ne peuvent pas être sphériques. À partir d’une étude détaillée des processus de déstabilisation, d’une part en termes de résonances avec la méthode des matrices, d’autre part en termes de position dans l’amas grâce à des simulations à N corps, je présente un critère de stabilité pour les sphères tangentiellement anisotropes en rotation et avec fort cisaillement, en accord avec la limite de stabilité d’un large échantillon de simulations. Ces résultats montrent que les processus résonnants et les modes auto-maintenus peuvent être des sources importantes de l’évolution séculaire des amas stellaires sphéroïdaux à haute complexité cinématique. Ces résultats ont une importance particulière à une époque où les simulations cosmologiques atteignent une résolution suffisante pour analyser leur dynamique, afin de mieux comprendre comment ils évoluent au cours de l’histoire de l’Univers.
- Published
- 2020
39. Comparaison entre les différents modèles électriques et détermination des paramètres de la caractéristique I-V d’un module photovoltaïque
- Author
-
R. Khezzar, M. Zereg, and A. Khezzar
- Subjects
module photovoltaïque ,si-cristallin ,modèles ,paramètres spécifiques de la caractéristique i-v ,méthodes numériques ,Renewable energy sources ,TJ807-830 - Abstract
La modélisation mathématique des cellules solaires est indispensable pour toute opération d’optimisation du rendement ou de diagnostic du générateur photovoltaïque. Le module photovoltaïque est représenté généralement par un circuit équivalent dont les paramètres sont calculés expérimentalement en utilisant la caractéristique courant-tension, I-V. La détermination précise de ces paramètres reste un challenge pour les chercheurs, ce qui a conduit à une grande diversification dans les modèles et les méthodes numériques dédiées à leurs caractérisations. Les auteurs dans le présent papier s’intéressent à la caractérisation paramétrique du modèle à quatre paramètres, dont l’objectif de prévoir le comportement du module de test Shell SP75 sous des conditions de fonctionnement réelles.
- Published
- 2010
40. Les pratiques de visionnement connecté des jeunes : méthodes traditionnelles, virtuelles et numériques
- Author
-
Millette, Mélanie, Millerand, Florence, Myles, David, Latzko-Toth, Guillaume, Thoër, Christine, Duque, Nina, Millette, Mélanie, Millerand, Florence, Myles, David, Latzko-Toth, Guillaume, Thoër, Christine, and Duque, Nina
- Abstract
Dans le cadre de ce chapitre, nous reprenons ces grandes catégories de méthodes pour apporter des éléments de réponse à la question suivante : jusqu’où peut-on aller dans la compréhension des pratiques de visionnement connecté chez les jeunes en employant des méthodes traditionnelles, et quelles autres méthodes peuvent être mobilisées pour pallier leurs limites éventuelles ? Nous commençons en présentant rapidement les méthodologies employées dans les études de réception. Nous présentons ensuite la stratégie méthodologique de la recherche que nous avons menée sur les pratiques de visionnement connecté de jeunes adultes. Puis, nous discutons des forces et des limites des méthodes dites traditionnelles pour l’étude des pratiques de visionnement connecté chez les jeunes, pour aborder finalement l’apport combiné de méthodes virtuelles et numériques à l’analyse des pratiques de visionnement connecté.
- Published
- 2020
41. La redistribution des méthodes de recherche en contexte numérique : critique d’une cartographie
- Author
-
Millette, Mélanie, Millerand, Florence, Myles, David, Latzko-Toth, Guillaume, Proulx, Serge, Millette, Mélanie, Millerand, Florence, Myles, David, Latzko-Toth, Guillaume, and Proulx, Serge
- Abstract
Ce chapitre propose une critique réflexive de l’hypothèse d’une redistribution des méthodes suggérée par Noortje Marres pour penser les conséquences – ou l’absence de conséquences – du virage numérique sur les méthodes en sciences sociales. La typologie proposée par Marres permet d’esquisser une cartographie des méthodes et de présenter une vue d’ensemble des grandes orientations méthodologiques qui structurent les recherches en contexte numérique. Il importe d’examiner l’hypothèse de la redistribution tant des méthodes que des acteurs de la recherche à partir des possibilités que cette proposition ouvre pour réfléchir à la construction sociale de la connaissance au temps de la transition numérique, ainsi que de réfléchir à l’application du concept de redistribution aux dispositifs eux-mêmes.
- Published
- 2020
42. Méthodes numériques et simulations
- Author
-
Université de Sherbrooke, Sénéchal, David, Université de Sherbrooke, and Sénéchal, David
- Abstract
Ressources éducatives libres, Open educational resources, Manuel du cours PHQ404 (Université de Sherbrooke) portant sur les méthodes numériques en physique. Représentation des nombres sur ordinateur; équations différentielles; opérations de l'algèbre linéaire; problèmes aux limites; méthodes stochastiques; optimisation; fluides. Des programmes en python sont inclus dans les sources.
- Published
- 2020
43. Two-dimensional natural element analysis of double-free surface flow under a radial gate.
- Author
-
Daneshmand, Farhang, Javanmard, S.A. Samad, Adamowski, Jan F., Liaghat, Tahereh, and Moshksar, Mohammad Mohsen
- Subjects
- *
DIVERSION structures (Hydraulic engineering) , *HYDRAULIC structures , *HYDRAULIC models , *FLUID dynamic measurements , *MATHEMATICAL models of fluid dynamics , *FLUID dynamics approximation methods - Abstract
The gravity-driven free surface flow problems for which both the solid and free surface boundaries are highly curved are very difficult to solve. A computational scheme using a variable domain and a fixed domain natural element method (NEM) is developed in the present study for the computation of the free surface profile, velocity and pressure distributions, and the flow rate of a 2D gravity fluid flow through a conduit and under a radial gate. The problem involves two highly curved unknown free surfaces and arbitrary curved-shaped boundaries. These features make the problem more complicated than flow under a sluice gate or over a weir. The fluid is assumed to be inviscid and incompressible and the results obtained are confirmed by conducting a hydraulic model test. The results are in agreement with other flow solutions for free surface profiles and pressure distributions. [ABSTRACT FROM AUTHOR]
- Published
- 2012
- Full Text
- View/download PDF
44. Coefficients of active earth pressure with seepage effect.
- Author
-
Barros, Pérsio L.A. and Santos, Petrucio J.
- Subjects
- *
EARTH pressure , *SEEPAGE , *RETAINING walls , *BOUNDARY element methods , *SOIL infiltration measurement , *MATHEMATICAL models - Abstract
A calculation method for the active earth pressure on the possibly inclined face of a retaining wall provided with a drainage system along the soil-structure interface is presented. The soil is cohesionless and fully saturated to the ground surface. This situation may arise during heavy rainstorms. To solve the problem, the water seepage through the soil is first analyzed using a numerical procedure based on the boundary element method. Then, the obtained pore-water pressure is used in a Coulomb-type formulation, which supposes a plane failure surface inside the backfill when the wall movement is enough to put the soil mass in the active state. The formulation provides coefficients of active pressure with seepage effect which can be used to evaluate the active earth thrust on walls of any height. A series of charts with values of the coefficients of active earth pressure with seepage calculated for selected values of the soil internal friction angle, the wall-soil friction angle, and the wall face inclination is presented. [ABSTRACT FROM AUTHOR]
- Published
- 2012
- Full Text
- View/download PDF
45. An improved neural network method for solving the Schrödinger equation1.
- Author
-
Manzhos, Sergei and Carrington Jr., Tucker
- Subjects
- *
ARTIFICIAL neural networks , *VIBRATIONAL spectra , *MOLECULAR spectroscopy , *WAVE mechanics , *LINEAR algebra , *MATHEMATICAL optimization - Abstract
We propose a neural network (NN) based algorithm for calculating vibrational energies and wave functions and apply it to problems in 2-, 4-, and 6-dimensions. By using neurons as basis functions and methods of nonlinear optimization, we are able to compute three states of a 6-D Hamiltonian using only 50 basis functions. In a standard direct product basis, thousands of basis functions would be necessary. Previous NN methods for solving the Schrödinger equation computed one level at a time and optimized all of the parameters using expensive nonlinear optimization methods. Using our approach, linear coefficients in the NN representation of wave functions are determined with methods of linear algebra and many levels are computed at the same time from one set of nonlinear NN parameters. In addition, we use radial basis function neurons to ensure the correct boundary conditions. The use of linear algebra methods makes it possible to treat systems of higher dimensionality. [ABSTRACT FROM AUTHOR]
- Published
- 2009
- Full Text
- View/download PDF
46. An improved neural network method for solving the Schrödinger equation1.
- Author
-
Manzhos, Sergei and Carrington Jr., Tucker
- Subjects
ARTIFICIAL neural networks ,VIBRATIONAL spectra ,MOLECULAR spectroscopy ,WAVE mechanics ,LINEAR algebra ,MATHEMATICAL optimization - Abstract
Copyright of Canadian Journal of Chemistry is the property of Canadian Science Publishing and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2009
- Full Text
- View/download PDF
47. Comparison of numerical methods and combustion models for LES of a ramjet
- Author
-
Roux, A., Reichstadt, S., Bertier, N., Gicquel, L., Vuillot, F., and Poinsot, T.
- Subjects
- *
COMBUSTION in ramjet engines , *MATHEMATICAL models of fluid dynamics , *COMPARATIVE studies , *COMPUTATIONAL fluid dynamics , *NUMERICAL analysis , *TURBULENCE , *NUMERICAL solutions to partial differential equations - Abstract
Abstract: Ramjets are very sensitive to instabilities and their numerical predictions can only be addressed adequately by Large Eddy Simulation (LES). With this technique, solvers can be implicit or explicit and handle structured, unstructured or hybrid meshes, etc. Turbulence and combustion models are other sources of differences. The impact of these options is here investigated for the ONERA ramjet burner. To do so, two LES codes developed by ONERA and CERFACS compute one stable operating condition. Preliminary LES results of the two codes underline the overall robustness of LES. Mean flow features at the various critical sections are reasonably well predicted by both codes. Disagreement mainly appear in the chamber where combustion positions differ pointing to the importance of the combustion and subgrid mixing models. The two LES produce different energy containing motions. With CEDRE, a low frequency dominates while AVBP produces different ranges of low frequencies that can be linked with acoustic modes of the configuration. To cite this article: A. Roux et al., C. R. Mecanique 337 (2009). [Copyright &y& Elsevier]
- Published
- 2009
- Full Text
- View/download PDF
48. L'analyse des paramètres de performances du sport de lancement du disque
- Author
-
Rouboa, A. and Silva, A.
- Subjects
- *
WIND speed , *BIOMECHANICS , *AERODYNAMICS , *EQUATIONS - Abstract
Abstract: Aims: In the present paper main parameters of the discus throw has been performed as function of the wind velocity the release velocity and the release angle. Current knowledge: The performance of the discus throw depends on athlete performance as well as environment. Recently biomechanic researchers worked on the usefulness of the wind during the discus throw. Two theories were revealed: the range of the discus throw can be higher if the throwing was in the same direction of the wind and the second theory suppose that the discus, regarding its aerodynamic profiles, can be considered as airplane wing. To achieve this study, first describe the movement of the discus during the flight taking into account the wind velocity, the initial velocity when the discus is thrown, the release angle and the incline angle of the discus. Equations of the movement has been described for each axis (Ox, Oy) and solved using numerical code (Mathematica 5®) with failure around 5%. The results were presented for angles between 0 and 70° and for speeds, with average performance, 25 m/s, high performance, 27 m/s, and with exceptional performance, 30 m/s, the wind velocity of the environment is supposed equal to 10 m/s and is in the opposite direction of the discus throw. Conclusion: Results show that the height of the throw increase with the release angle and the optimum angle to throw the discus is around 34° for this environment conditions. [Copyright &y& Elsevier]
- Published
- 2007
- Full Text
- View/download PDF
49. Sub-domain methods for collaborative electromagnetic computations
- Author
-
Soudais, Paul and Barka, André
- Subjects
- *
ELECTROMAGNETISM , *BOUNDARY element methods , *NUMERICAL analysis , *RADAR cross sections , *AERODYNAMICS - Abstract
Abstract: In this article, we describe a sub-domain method for electromagnetic computations based on boundary element method. The benefits of the sub-domain method are that the computation can be split between several companies for collaborative studies; also the computation time can be reduced by one or more orders of magnitude especially in the context of parametric studies. The accuracy and efficiency of this technique is assessed by RCS computations on an aircraft air intake with duct and rotating engine mock-up called CHANNEL. Collaborative results, obtained by combining two sets of sub-domains computed by two companies, are compared with measurements on the CHANNEL mock-up. The comparisons are made for several angular positions of the engine to show the benefits of the method for parametric studies. We also discuss the accuracy of two formulations of the sub-domain connecting scheme using edge based or modal field expansion. To cite this article: P. Soudais, A. Barka, C. R. Physique 7 (2006). [Copyright &y& Elsevier]
- Published
- 2006
- Full Text
- View/download PDF
50. An improved landslide mobility model.
- Author
-
Kwan, Julian S. H. and Sun, H. W.
- Subjects
- *
SURFACE chemistry , *SURFACE tension , *EUCLID'S elements , *GEOMETRY , *LANDSLIDES , *FRICTION - Abstract
A relatively simple and versatile numerical model known as DAN, developed by Oldrich Hungr for the assessment of landslide mobility, has been enhanced to incorporate the consideration of a trapezoidal-shaped flow channel for more realistic modelling purposes. This enhanced debris mobility model (DMM) has been programmed to run on a spreadsheet and has been calibrated against detailed landslide data in Hong Kong. In contrast to previous work, the enhanced DMM eliminates the limitations inherited from the assumption of a rectangular flow channel with frictionless side boundaries. When using DMM, no predefined width of landslide is needed. The DMM simulates landslide mobility with the flow resistance on the whole wetted perimeter of the channel, calculates the surface width of the landslide based on the cross-sectional geometry of the channel, and is capable of predicting a lobe-shaped debris deposition area. This technical note presents details of the enhancement to the DAN formulation. [ABSTRACT FROM AUTHOR]
- Published
- 2006
- Full Text
- View/download PDF
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.