173 results on '"Problèmes inverses"'
Search Results
2. Relations among atmospheric structure, refraction, and extinction.
- Author
-
Young, Andrew T.
- Subjects
- *
INVERSE problems - Abstract
The refraction and extinction in the Earth's atmosphere depend on the atmosphere's structure, so it was natural to try to infer that structure from optical observations. Efforts to extract structure fromobserved refractions led to proof that this is possible only below the astronomical horizon. Direct studies of the real atmosphere show complicated, variable structure. The complex history of relations between structure and refraction is outlined by citing some important works. [ABSTRACT FROM AUTHOR]
- Published
- 2022
- Full Text
- View/download PDF
3. Time reversal for obstacle location in elastodynamics from acoustic recording.
- Author
-
Assous, Franck and Lin, Moshe
- Subjects
- *
TIME reversal , *ELASTODYNAMICS , *SOUND wave scattering , *ELASTICITY , *FINITE element method , *BREAST cancer - Abstract
The Note is concerned with a feasibility study of time reversal in a non-homogeneous elastic medium, from data recorded in an acoustic medium. Our aim here is to determine the presence and some physical properties of elastic "inclusions" (unknown, not observable solid objects, characterized by their elastic properties) from partial observations of acoustic waves scattered by these inclusions. A finite element numerical method, based on a variational acousto-elastodynamics formulation, is derived and used to solve the forward, and then, the time-reversed problem. A criterion, derived from the reverse time migration framework, is introduced, to help construct images of the inclusions to be determined. Numerical illustrations on configurations that mimic the breast cancer configuration are proposed, and show that one can differentiate between two inclusions, even with different properties. [ABSTRACT FROM AUTHOR]
- Published
- 2019
- Full Text
- View/download PDF
4. Reconstruction de l'activité corticale à partir de données MEG à l'aide de réseaux cérébraux et de délais de transmission estimés à partir d'IRMd
- Author
-
Kojčić, Ivana, Computational Imaging of the Central Nervous System (ATHENA), Inria Sophia Antipolis - Méditerranée (CRISAM), Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria), Institut National de Recherche en Informatique et en Automatique (Inria), Université Côte d'Azur (UCA), Université Côte d'Azur, Théodore Papadopoulo, Samuel Deslauriers-Gauthier, European Project: 694665,H2020 ERC,ERC-2015-AdG,CoBCoM(2016), Kojcic, Ivana, Computational Brain Connectivity Mapping - CoBCoM - - H2020 ERC2016-09-01 - 2021-08-31 - 694665 - VALID, and Théodore Papadopoulo
- Subjects
connectivité cérébrale structurelle et fonctionnelle ,MEG ,source localization ,network neuroscience ,[INFO.INFO-TS] Computer Science [cs]/Signal and Image Processing ,inverse problems ,neurosciences des réseaux ,[SCCO.NEUR]Cognitive science/Neuroscience ,[SCCO.NEUR] Cognitive science/Neuroscience ,[INFO.INFO-IM] Computer Science [cs]/Medical Imaging ,IRM de diffusion ,Structural and fonctional brain connectivity ,[INFO.INFO-MO]Computer Science [cs]/Modeling and Simulation ,diffusion MRI ,problèmes inverses ,localisation de sources ,[INFO.INFO-TS]Computer Science [cs]/Signal and Image Processing ,[INFO.INFO-IM]Computer Science [cs]/Medical Imaging ,[INFO.INFO-MO] Computer Science [cs]/Modeling and Simulation ,structural and functional brain connectivity - Abstract
White matter fibers transfer information between brain regions with delays that are observable with magnetoencephalography and electroencephalography (M/EEG) due to their millisecond temporal resolution. We can represent the brain as a graph where nodes are the cortical sources or areas and edges are the physical connections between them: either local (between adjacent vertices on the cortical mesh) or non-local (long-range white matter fibers). Long-range anatomical connections can be obtained with diffusion MRI (dMRI) tractography which yields a set of streamlines representing white matter fiber bundles. Given the streamlines’ lengths and the information conduction speed, transmission delays can be estimated for each connection. dMRI can thus give an insight into interaction delays of the macroscopicbrain network.Localizing and recovering electrical activity of the brain from M/EEG measurements is known as the M/EEG inverse problem. Generally, there are more unknowns (brain sources) than the number of sensors, so the solution is non-unique and the problem ill-posed. To obtain a unique solution, prior constraints on the characteristics of source distributions are needed. Traditional linear inverse methods deploy different constraints which can favour solutions with minimum norm, impose smoothness constraints in space and/or time along the cortical surface, etc. Yet, structural connectivity is rarely considered and transmission delays almost always neglected.The first contribution of this thesis consists of a multimodal preprocessing pipeline used to integrate structural MRI, dMRI and MEG data into a same framework, and of a simulation procedure of source-level brain activity that was used as a synthetic dataset to validate the proposed reconstruction approaches.In the second contribution, we proposed a new framework to solve the M/EEG inverse problem called Connectivity-Informed M/EEG Inverse Problem (CIMIP), where prior transmission delays supported by dMRI were included to enforce temporal smoothness between time courses of connected sources. This was done by incorporating a Laplacian operator into the regularization, that operates on a time-dependent connectivity graph. Nonetheless, some limitations of the CIMIP approach arised, mainly due to the nature of the Laplacian, which acts on the whole graph, favours smooth solutions across all connections, for all delays, and it is agnostic to directionality.In this thesis, we aimed to investigate patterns of brain activity during visuomotor tasks, during which only a few regions typically get significantly activated, as shown by previous studies. This led us to our third contribution, an extension of the CIMIP approach that addresses the aforementioned limitations, named CIMIP_OML (“Optimal Masked Laplacian”). We restricted the full source space network (the whole cortical mesh) to a network of regions of interest and tried to find how the information is transferred between its nodes. To describe the interactions between nodes in a directed graph, we used the concept of network motifs. We proposed an algorithm that (1) searches for an optimal network motif – an optimal pattern of interaction between different regions and (2) reconstructs source activity given the found motif. Promising results are shown for both simulated and real MEG data for a visuomotor task and compared with 3 different state-of-the-art reconstruction methods.To conclude, we tackled a difficult problem of exploiting delays supported by dMRI for the reconstruction of brain activity, while also considering the directionality in the information transfer, and provided new insights into the complex patterns of brain activity., Les fibres de la matière blanche permettent le transfert d’information dans le cerveau avec des délais observables en Magnétoencéphalographie et Électroencéphalographie (M/EEG) grâce à leur haute résolution temporelle. Le cerveau peut être représenté comme un graphe où les nœuds sont les régions corticales et les liens sont les connexions physiques entre celles-ci: soit locales (entre sommets adjacents sur le maillage cortical), soit non locales (fibres de la matière blanche). Les connexions non-locales peuvent être reconstruites avec la tractographie de l’IRM de diffusion (IRMd) qui génère un ensemble de courbes («streamlines») représentant des fibres de la matière blanche. Sachant les longueurs des fibres et la vitesse de conduction de l’information, les délais de transmission peuvent être estimés. L’IRMd peut donc donner un aperçu des délais d’interaction du réseau cérébral macroscopique.La localisation et la reconstruction de l’activité électrique cérébrale à partir des mesures M/EEG est un problème inverse. En général, il y a plus d’inconnues (sources cérébrales) que de capteurs. La solution n’est donc pas unique et le problème est dit mal posé. Pour obtenir une solution unique, des hypothèses sur les caractéristiques des distributions de sources sont requises. Les méthodes inverses linéaires traditionnelles utilisent différentes hypothèses qui peuvent favoriser des solutions de norme minimale, imposer des contraintes de lissage dans l’espace et/ou dans le temps, etc. Pourtant, la connectivité structurelle est rarement prise en compte et les délais de transmission sont presque toujours négligés.La première contribution de cette thèse est un pipeline de prétraitement multimodal utilisé pour l’intégration des données d’IRM, IRMd et MEG dans un même cadre, et d’une méthode de simulation de l’activité corticale qui a été utilisée comme jeu de données synthétiques pour valider les approches de reconstruction proposées. Nous proposons également une nouvelle approche pour résoudre le problème inverse M/EEG appelée «Problème Inverse M/EEG Informé par la Connectivité» (CIMIP pour Connectivity-Informed M/EEG Inverse Problem), où des délais de transmission provenant de l’IRMd sont inclus pour renforcer le lissage temporel entre les décours des sources connectées. Pour cela, un opérateur Laplacien, basé sur un graphe de connectivité en fonction du temps, a été intégré dans la régularisation. Cependant, certaines limites de l’approche CIMIP sont apparues en raison de la nature du Laplacien qui agit sur le graphe entier et favorise les solutions lisses sur toutes les connexions, pour tous les délais, et indépendamment de la directionnalité.Lors de tâches visuo-motrices, seules quelques régions sont généralement activées significativement. Notre troisième contribution est une extension de CIMIP pour ce type de tâches qui répond aux limitations susmentionnées, nommée CIMIP_OML («Optimal Masked Laplacian») ou Laplacien Masqué Optimal. Nous essayons de trouver comment l’information est transférée entre les nœuds d’un sous-réseau de régions d’intérêt du réseau complet de l’espace des sources. Pour décrire les interactions entre nœuds dans un graphe orienté, nous utilisons le concept de motifs de réseau. Nous proposons un algorithme qui 1) cherche un motif de réseau optimal- un modèle optimal d’interaction entre régions et 2) reconstruit l’activité corticale avec le motif trouvé. Des résultats prometteurs sont présentés pour des données MEG simulées et réelles (tâche visuo-motrice) et comparés avec 3 méthodes de l’état de l’art. Pour conclure, nous avons abordé un problème difficile d’exploitation des délais de l’IRMd lors l’estimation de l’activité corticale en tenant compte de la directionalité du transfert d’information, fournissant ainsi de nouvelles perspectives sur les patterns complexes de l’activité cérébrale.
- Published
- 2022
5. Probabilistic seismic-hazard site assessment in Kitimat, British Columbia, from Bayesian inversion of surface-wave dispersion.
- Author
-
Gosselin, Jeremy M., Cassidy, John F., Dosso, Stan E., and Brillon, Camille
- Subjects
EARTHQUAKE hazard analysis ,SURFACE waves (Seismic waves) ,MICROSEISMS ,BAYESIAN analysis ,INVERSE problems - Abstract
Copyright of Canadian Geotechnical Journal is the property of Canadian Science Publishing and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2018
- Full Text
- View/download PDF
6. Modélisation guidée par les données des fonctions d'étalement du point des télescopes terrestres et spatiaux
- Author
-
Liaudat, Tobias Ignacio, Astrophysique Interprétation Modélisation (AIM (UMR_7158 / UMR_E_9005 / UM_112)), Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Institut national des sciences de l'Univers (INSU - CNRS)-Université Paris-Saclay-Centre National de la Recherche Scientifique (CNRS)-Université Paris Cité (UPCité), Université Paris-Saclay, Jean-Luc Starck, Martin Kilbinger, and STAR, ABES
- Subjects
Inverse problems ,Matrix factorisation ,[PHYS.ASTR.IM]Physics [physics]/Astrophysics [astro-ph]/Instrumentation and Methods for Astrophysic [astro-ph.IM] ,Optics ,Factorisation de matrices ,Point spread function ,Différenciation automatique ,[PHYS.ASTR.CO]Physics [physics]/Astrophysics [astro-ph]/Cosmology and Extra-Galactic Astrophysics [astro-ph.CO] ,Lentille gravitationnelle faible ,[INFO.INFO-TI] Computer Science [cs]/Image Processing [eess.IV] ,Automatic Differentiation ,Optique ,[PHYS.ASTR.CO] Physics [physics]/Astrophysics [astro-ph]/Cosmology and Extra-Galactic Astrophysics [astro-ph.CO] ,Problèmes inverses ,[INFO.INFO-TI]Computer Science [cs]/Image Processing [eess.IV] ,Euclid space mission ,[PHYS.ASTR.IM] Physics [physics]/Astrophysics [astro-ph]/Instrumentation and Methods for Astrophysic [astro-ph.IM] ,Weak gravitational lensing ,Fonction d'étalement du point ,Mission spatiale Euclid - Abstract
Gravitational lensing is the distortion of the images of distant galaxies by intervening massive objects and constitutes a powerful probe of the Large Scale Structure of our Universe. Cosmologists use weak (gravitational) lensing to study the nature of dark matter and its spatial distribution. These studies require highly accurate measurements of galaxy shapes, but the telescope's instrumental response, or point spread function (PSF), deforms our observations. This deformation can be mistaken for weak lensing effects in the galaxy images, thus being one of the primary sources of systematic error when doing weak lensing science. Therefore, estimating a reliable and accurate PSF model is crucial for the success of any weak lensing mission. The PSF field can be interpreted as a convolutional kernel that affects each of our observations of interest that varies spatially, spectrally, and temporally. The PSF model needs to cope with these variations and is constrained by specific stars in the field of view. These stars, considered point sources, provide us with degraded samples of the PSF field. The observations go through different degradations depending on the properties of the telescope, including undersampling, an integration over the instrument's passband, and additive noise. We finally build the PSF model using these degraded observations and then use the model to infer the PSF at the position of galaxies. This procedure constitutes the ill-posed inverse problem of PSF modelling. The core of this thesis has been the development of new data-driven, also known as non-parametric, PSF models. We have developed a new PSF model for ground-based telescopes, coined MCCD, which can simultaneously model the entire focal plane. Consequently, MCCD has more available stars to constrain a more complex model. The method is based on a matrix factorisation scheme, sparsity, and an alternating optimisation procedure. We have included the PSF model in a high-performance shape measurement pipeline and used it to process ~3500 deg² of r-band observations from the Canada-France Imaging Survey. A shape catalogue has been produced and will be soon released. The main goal of this thesis has been to develop a data-driven PSF model that can address the challenges raised by one of the most ambitious weak lensing missions so far, the Euclid space mission. The main difficulties related to the Euclid mission are that the observations are undersampled and integrated into a single wide passband. Therefore, it is hard to recover and model the PSF chromatic variations from such observations. Our main contribution has been a new framework for data-driven PSF modelling based on a differentiable optical forward model allowing us to build a data-driven model for the wavefront. The new model coined WaveDiff is based on a matrix factorisation scheme and Zernike polynomials. The model relies on modern gradient-based methods and automatic differentiation for optimisation, which only uses noisy broad-band in-focus observations. Results show that WaveDiff can model the PSFs' chromatic variations and handle super-resolution with high accuracy., L'effet de lentille gravitationnel est la distorsion des images de galaxies lointaines par des objets massifs et constitue une sonde puissante de la structure à grande échelle de notre Univers. Les cosmologistes utilisent la lentille (gravitationnelle) faible pour étudier la nature de la matière noire et sa distribution spatiale. Ces études nécessitent des mesures très précises des formes des galaxies, mais la réponse instrumentale du télescope, ou fonction d'étalement du point (PSF), déforme nos observations. Cette déformation peut être confondue avec des effets de lentille faible dans les images de galaxies, ce qui constitue l'une des principales sources d'erreur systématique. Par conséquent, l'estimation d'un modèle de PSF fiable et précis est cruciale pour le succès de toute mission de lentille faible. Le champ de PSF peut être interprété comme un noyau de convolution qui affecte chacune de nos observations d'intérêt et qui varie spatialement, spectralement et temporellement. Le modèle de PSF doit faire face à ces variations et est contraint par des étoiles spécifiques dans le champ observé. Ces étoiles, considérées comme des sources ponctuelles, nous fournissent des échantillons dégradés du champ de PSF. Les observations subissent différentes dégradations en fonction des propriétés du télescope, notamment un sous-échantillonnage, une intégration sur la bande passante de l'instrument et un bruit additif. Nous construisons finalement le modèle de PSF en utilisant ces observations dégradées, puis nous utilisons le modèle pour déduire les PSFs aux positions des galaxies. Cette procédure constitue le problème inverse mal posé de la modélisation de la PSF. Le cœur de cette thèse a été le développement de nouveaux modèles non-paramétriques pour estimer les PSFs à partir des étoiles observées dans les images acquises. Nous avons développé un nouveau modèle de PSF pour les télescopes terrestres, appelé MCCD, qui peut modéliser simultanément l'ensemble du plan focal. Par conséquent, MCCD dispose de plus d'étoiles pour contraindre un modèle plus complexe. La méthode est basée sur un schéma de factorisation matricielle, les représentations parcimonieuses et une procédure d'optimisation alternée. Nous avons inclus le modèle de PSF dans un pipeline de mesure de forme à haute performance et l'avons utilisé pour traiter ~3500 deg² d'observations en bande r provenant du Canada-France Imaging Survey. Un catalogue de formes a été produit et sera bientôt publié. L'objectif principal de cette thèse a été de développer un modèle de PSF basé sur les données qui puisse répondre aux défis soulevés par l'une des missions les plus ambitieuses en matière de lentille faible, la mission spatiale Euclid. Les principales difficultés liées à la mission Euclid sont que les observations sont sous-échantillonnées et intégrées dans une large bande passante unique. Par conséquent, il est difficile de récupérer et de modéliser les variations chromatiques de la PSF à partir de ces observations. Notre principale contribution est un nouveau cadre pour la modélisation de la PSF basée sur un modèle optique différentiable permettant de construire un modèle de front d'onde basé sur les données. Le nouveau modèle, appelé WaveDiff, est basé sur un schéma de factorisation matricielle et des polynômes de Zernike. Le modèle s'appuie sur des méthodes modernes basées sur le gradient et la différenciation automatique pour l'optimisation, qui n'utilise que des observations dégradées et bruitées. Les résultats montrent que WaveDiff peut modéliser les variations chromatiques des PSF et gérer la super-résolution avec une grande précision.
- Published
- 2022
7. Méthodes numériques pour la résolution du problème inverse en électrocardiographie dans le cas d’anomalies structurelles du tissu cardiaque
- Author
-
Bouhamama, Oumayma, Modélisation et calculs pour l'électrophysiologie cardiaque (CARMEN), Institut de Mathématiques de Bordeaux (IMB), Université Bordeaux Segalen - Bordeaux 2-Université Sciences et Technologies - Bordeaux 1 (UB)-Université de Bordeaux (UB)-Institut Polytechnique de Bordeaux (Bordeaux INP)-Centre National de la Recherche Scientifique (CNRS)-Université Bordeaux Segalen - Bordeaux 2-Université Sciences et Technologies - Bordeaux 1 (UB)-Université de Bordeaux (UB)-Institut Polytechnique de Bordeaux (Bordeaux INP)-Centre National de la Recherche Scientifique (CNRS)-Inria Bordeaux - Sud-Ouest, Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria)-IHU-LIRYC, Université Bordeaux Segalen - Bordeaux 2-CHU Bordeaux [Bordeaux]-CHU Bordeaux [Bordeaux], Université Bordeaux Segalen - Bordeaux 2-Université Sciences et Technologies - Bordeaux 1 (UB)-Université de Bordeaux (UB)-Institut Polytechnique de Bordeaux (Bordeaux INP)-Centre National de la Recherche Scientifique (CNRS), Université de Bordeaux, Lisl Weynans, Laura Bear, and STAR, ABES
- Subjects
Arythmie ventriculaire ,Inverse Problems ,Calcul scientifique ,Myocardial Infarction ,Algorithmes de Monte Carlo ,Infarctus du myocarde ,Scientific Computing ,[INFO.INFO-MO]Computer Science [cs]/Modeling and Simulation ,Electrocardiography Imaging ,Imagerie électrocardiaque ,Problèmes inverses ,Ventricular Arrhythmia ,[INFO.INFO-MO] Computer Science [cs]/Modeling and Simulation ,Monte-Carlo Algorithms - Abstract
The continued development of non invasive methods of mapping the electri-cal activity of the heart is motivated by the general hope that they may be clinically useful in the diagnosis and treatment of cardiac rhythm disorders, responsible for 80% of the 350,000 sudden cardiac arrest deaths that occur each year in Europe [LZ06]. Non-invasive electrocardiographic imaging (ECGI) provides real-time panoramic images of epicardial electrical activity from potential measurements on the surface of the torso. Though several methods have been developped for ECGI, recent validation studies have demonstrated that current implementations are inaccurate in reconstructing electrical activity in the presence of conduction anomalies and in structurally heterogeneous hearts. ECGI is known to produce artificial lines of block in healthy tissue, raising doubts about the ability of these methods to detect the presence of regions of true conduction slowly in structurally abnormal hearts.The objective of this thesis is to develop a new method in order to improve ECGI and its ability to detect regions of slow conduction in the presence of structural abnormalities.First, we presented a new method for solving the inverse problem of electro-cardiography. The idea of the method is to combine the solutions obtained with classical formulations in order to select the most accurate method in each area and at each time step, based on their residuals of the torso surface. This new approach, named the Patchwork Method (PM), is evaluated, along with other classical inverse methods, using simulated and experimental data. The stability and robustness of this new approach are also tested by adding Gaussian measurement noise to the torso surface potentials.Secondly, we focused on the detection of areas with damaged cardiac tissue. The different ECGI methods were evaluated based on the caracteristics of bipolar signals associated with structural abnormalities : amplitude, QRS duration and fragmentation. Being unable to detect the damaged areas using these features, we have developed a new method to detect slow conduction areas using the activation time gradient. Subsequently, we evaluated the ability of the standard ECGI methods, as well as the Patchwork method, to locate slow conduction areas and reduce the frequency of artificial lines of block.The main contribution of this thesis is the development of a new ECGI ap-proach to reconstruct electrical information on the surface of the heart. The Patchwork method has demonstrated a higher level of accuracy in recons-tructing activation maps and locating breakthrough sites than standard ECGI methods. This method is an effective tool to help overcome some of the limi-tations of conventional numerical methods in structurally abnormal hearts, showing its ability to detect regions of slow conduction using the activation time gradient. Importantly, these improvements include a reduction in the frequency of artificial lines of block. This has important clinical implications as it may help reduce false diagnosis of conduction disorders., Le développement continu des méthodes non invasives de cartographie de l’activité électrique du cœur est motivé par l’espoir général qu’elles puissent être cliniquement utiles dans le diagnostic et le traitement des troubles du rythme cardiaque, responsables de 80 % des 350 000 décès par arrêt cardiaque soudain qui surviennent chaque année en Europe [LZ06]. L’imagerie électrocardiographique non invasive (ECGI) fournit des images panoramiques en temps réel de l’activité électrique épicardique à partir de mesures de poten-tiel à la surface du torse. Bien que plusieurs méthodes aient été développées pour l’ECGI, des études de validation récentes ont démontré que les implémentations actuelles sont imprécises dans la reconstruction de l’activité électrique en présence d’anomalies de conduction et dans les cœurs structurellement hétérogènes. L’ECGI est connue pour produire des lignes de bloc artificielles dans les tissus sains, ce qui fait douter de la capacité de ces méthodes à détecter la présence de régions de véritable conduction lente dans les cœurs structurellement anormaux.L’objectif de cette thèse est de développer une nouvelle méthode afin d’améliorer l’ECGI et sa capacité à détecter les régions de conduction lente en présence d’anomalies structurelles.Tout d’abord, nous avons présenté une nouvelle méthode pour résoudre le problème inverse de l’électrocardiographie. L’idée de la méthode est de combiner les solutions obtenues avec les formulations classiques afin de sélectionner la méthode la plus précise dans chaque zone et à chaque pas de temps, en fonction de leurs résidus de la surface du torse. Cette nouvelle approche, appelée la méthode Patchwork (PM), est évaluée, avec d’autres méthodes inverses classiques, à l’aide des données simulées et expérimentales. La stabilité et la robustesse de cette nouvelle approche sont également testées en ajoutant un bruit de mesure Gaussien aux potentiels de la surface du torse.Deuxièmement, nous nous sommes concentrés sur la détection de zones pré-sentant des tissus cardiaques endommagés. Les différentes méthodes d’ECGI ont été évaluées sur la base des caractéristiques des signaux bipolaires associés aux anomalies structurelles : amplitude, durée du QRS et fragmentation. N’étant pas en mesure de détecter les zones endommagées à l’aide de ces caractéristiques, nous avons développé une nouvelle méthode pour détecter les zones de conduction lente en utilisant le gradient de temps d’activation. Par la suite, nous avons évalué la capacité des méthodes ECGI standard, ainsi que de la méthode Patchwork, à localiser les zones de conduction lente et à réduire la fréquence des lignes de bloc artificielles.La principale contribution de cette thèse est le développement d’une nouvelle approche ECGI pour reconstruire les informations électriques à la surface du cœur. La méthode Patchwork a démontré un niveau de précision plus élevé dans la reconstruction des cartes d’activation et la localisation des sites de percée que les méthodes ECGI standard. Cette méthode est un outil efficace pour aider à surmonter certaines des limites des méthodes numériques conventionnelles dans les cœurs structurellement anormaux, montrant sa capacité à détecter les régions de conduction lente en utilisant le gradient de temps d’activation. Il est important de noter que ces améliorations incluent une réduction de la fréquence des lignes de bloc artificielles. Cela a des implications cliniques importantes car cela peut contribuer à réduire les faux diagnostics de troubles de la conduction.
- Published
- 2022
8. Advanced deep neural networks for MRI image reconstruction from highly undersampled data in challenging acquisition settings
- Author
-
Ramzi, Zaccharie, Building large instruments for neuroimaging: from population imaging to ultra-high magnetic fields (BAOBAB), Service NEUROSPIN (NEUROSPIN), Université Paris-Saclay-Direction de Recherche Fondamentale (CEA) (DRF (CEA)), Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Université Paris-Saclay-Direction de Recherche Fondamentale (CEA) (DRF (CEA)), Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Centre National de la Recherche Scientifique (CNRS), Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Commissariat à l'énergie atomique et aux énergies alternatives (CEA), Département d'Astrophysique (ex SAP) (DAP), Institut de Recherches sur les lois Fondamentales de l'Univers (IRFU), Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Université Paris-Saclay-Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Université Paris-Saclay, Modelling brain structure, function and variability based on high-field MRI data (PARIETAL), Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Inria Saclay - Ile de France, Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria), Université Paris-Saclay, Philippe Ciuciu, Jean-Luc Starck, and STAR, ABES
- Subjects
Inverse problems ,Apprentissage profond ,[INFO.INFO-IM] Computer Science [cs]/Medical Imaging ,[INFO.INFO-CV]Computer Science [cs]/Computer Vision and Pattern Recognition [cs.CV] ,Deep learning ,[INFO.INFO-LG] Computer Science [cs]/Machine Learning [cs.LG] ,[STAT.ML] Statistics [stat]/Machine Learning [stat.ML] ,[INFO.INFO-CV] Computer Science [cs]/Computer Vision and Pattern Recognition [cs.CV] ,Reconstruction d'image ,[INFO.INFO-LG]Computer Science [cs]/Machine Learning [cs.LG] ,[STAT.ML]Statistics [stat]/Machine Learning [stat.ML] ,Problèmes inverses ,Image reconstruction ,Réseaux neuronaux ,[INFO.INFO-IM]Computer Science [cs]/Medical Imaging ,Compressed sensing ,Neural networks ,MRI ,Échantillonnage compressif ,IRM - Abstract
Magnetic Resonance Imaging (MRI) is one of the most prominent imaging techniques in the world. Its main purpose is to probe soft tissues in a non-invasive and non-ionizing way. However, its wider adoption is hindered by an overall high scan time. In order to reduce this duration, several approaches have been proposed, among which Parallel Imaging (PI) and Compressed Sensing (CS) are the most important. Using these techniques, MR data can be acquired in a highly compressed way which allows the reduction of acquisition times. However, the algorithms typically used to reconstruct the MR images from these undersampled data are slow and underperform in highly accelerated scenarios. In order to address these issues, unrolled neural networks have been introduced. The core idea of these models is to unroll the iterations of classical reconstruction algorithms into a finite computation graph. The main objective of this PhD thesis is to propose new architecture designs for acquisition scenarios which deviate from the typical Cartesian 2D sampling. To this end, we first review a handful of neural networks for MRI reconstruction. After selecting the best performer, the PDNet, we extend it to two contexts: the fastMRI 2020 reconstruction challenge and the 3D non-Cartesian data problem. We also chose to adress the concerns of many regarding the clinical applicability of deep learning for medical imaging. We do so by proposing ways to build robust and inspectable models, but also by simply testing the trained networks in out-of-distribution settings. Finally, after noticing how the implicit deep learning framework can help implement deeper MRI reconstruction models, we introduce a new acceleration method (called SHINE) for the training of such models., L'imagerie par résonance magnétique (IRM) est l'une des modalités d'imagerie les plus utilisées au monde. Son objectif principal est de visualiser les tissus mous de manière non invasive et non ionisante. Cependant, son adoption générale est entravée par une durée d'examen globalement élevée. Afin de la raccourcir, plusieurs techniques ont été proposées, parmi lesquelles l'imagerie parallèle (PI) et l'échantillonnage compressif (CS) jouent une place prédominante. Grâce à ces techniques, les données en IRM peuvent être acquises de manière fortement compressée, réduisant ainsi significativement le temps d'acquisition. Cependant, les algorithmes généralement utilisés pour reconstruire les images IRM à partir de ces données sous-échantillonnées sont lents et peu performants dans des scénarios d'acquisition fortement accélérés. Afin de résoudre ces problèmes, les "réseaux de neurones déroulés" ont été introduits. L'idée centrale de ces modèles est de dérouler ou déplier les itérations des algorithmes de reconstruction classiques en un graphe de calcul fini. L'objectif principal de cette thèse est de proposer de nouvelles architectures pour des scénarios d'acquisition qui s'écartent de l'acquisition cartésienne 2D typique. À cette fin, nous passons d'abord en revue une poignée de réseaux neuronaux pour la reconstruction IRM. Après avoir sélectionné le plus performant, i.e. le PDNet, nous l'étendons à deux contextes : le challenge fastMRI 2020 et le problème des données 3D non cartésiennes. Nous avons également choisi de répondre aux préoccupations de beaucoup concernant l'applicabilité clinique de l'apprentissage profond pour l'imagerie médicale. Nous le faisons en proposant des moyens de construire des modèles robustes et inspectables, mais aussi en testant simplement les réseaux entraînés dans des contextes qui s'écartent de la distribution d'entraînement. Enfin, après avoir remarqué comment l'outil de l'apprentissage profond implicite peut aider à entraîner des modèles de reconstruction IRM plus profonds, nous introduisons une nouvelle méthode d'accélération (i.e. SHINE) pour l'entraînement de ces modèles.
- Published
- 2022
9. Problèmes inverses et résonances locales dans les guides d’ondes mécaniques irréguliers
- Author
-
Niclas, Angèle and STAR, ABES
- Subjects
Inverse problems ,Propagation des ondes ,Wave propagation ,Mutli-frequency data ,Contrôle non destructif ,[SPI.OTHER] Engineering Sciences [physics]/Other ,Locally resonances ,Équation du déplacement élastique ,Elastic displacement equation ,Données multi-fréquencielles ,Résonances locales ,Problèmes inverses ,Helmholtz equation ,Guides d’ondes ,Waveguides ,Non-destructing testing ,Équation de Helmholtz - Abstract
Localization and reconstruction of defects in waveguides are crucial in the nondestructive evaluation of structures like pipelines, optics fibers, nuclear power plant conduits, or even ship hulls. This thesis aims to understand waves propagation in waveguides from a mathematical point of view to design new efficient methods to detect and reconstruct potential waveguides defects. To reproduce the existing experimental setups, we use multi-frequency data with frequencies sometimes close to resonant ones. Far from the resonant frequencies, we prove that the defects reconstruction is equivalent to a Fourier inversion from partial data, and we provide a stable reconstruction method working for small defects. On the other hand, mathematical equations are not well-posed near resonant frequencies, but waves seem very sensitive to potential defects. Drawing a parallel with quantum mechanics, we provide an asymptotic approximation of these waves as Airy functions when the width of the waveguide slowly varies. Using these approximations, we develop a precise method based on the shape of Airy functions to reconstruct width defects in waveguides., La détection et la reconstruction de défauts dans les guides d’ondes sont un enjeu contemporain important pour contrôler l’état de structures diverses allant des oléoducs aux fibres optiques, en passant par les conduits de centrales nucléaires ou les coques de navires. Cette thèse a pour but de mieux comprendre d’un point de vue mathématique la propagation des ondes en guide d’onde, pour pouvoir ensuite proposer des méthodes efficaces pour détecter et reconstruire avec précision d’éventuels défauts. Pour modéliser au mieux les dispositifs expérimentaux disponibles, on choisit ici d’utiliser des ondes se propageant à des fréquences variables et parfois voisines des fréquences de résonances. Si les fréquences sont éloignées des résonances, on montre que la reconstruction de défaut s’apparente à de l’inversion de Fourier avec données partielles, ce qui permet de reconstruire de manière stable la plupart des petits défauts présents dans les guides d’ondes. Si la fréquence est proche des résonances, les équations mathématiques sont très mal posées mais les ondes sont particulièrement sensibles aux défauts présents dans le guide. Des parallèles avec des travaux de physique quantique permettent une approximation asymptotique formelle de ces ondes sous forme de fonctions d’Airy lorsque le guide varie lentement. Grâce à ces approximations, on propose une méthode précise se basant sur le profil des fonctions d’Airy pour reconstruire entièrement les défauts de hauteur du guide.
- Published
- 2022
10. Partitionnement des paramètres d'entrée pour l'identification de modèles numériques probabilistes de structures dynamiques incertaines
- Author
-
Al Zeort, Darwish and STAR, ABES
- Subjects
Model updating ,Problèmes inverses ,Inverse problem ,Bayesian approach ,Analyse de sensibilité ,Recalage de modèles numériques ,Structural dynamics ,[PHYS.MECA] Physics [physics]/Mechanics [physics] ,Sensitivity analysis ,Dynamique des structures ,Modèle stochastique ,Stochastic modelling ,Approche bayésienne - Abstract
In the context of model validation, the model updating methods consist in calibrating the input parameters of the numerical model in order to reduce the distance between the experimental outputs and the numerical outputs. In stochastic numerical model, the parameters and hyperparameters (mean values, standard deviations, ...) are calibrated using experimental data collected on a family of structures nominally identical. In these methods, the number of parameters to be identified is often very large, and the updating of these parameters generally requires the solving of a non-convex probabilistic inverse problem in high dimension. This high dimension prohibits the direct exploration of the entire space of input parameters, and makes the global optimization methods and approaches proposed in this field, very expensive and difficult to be applied. Recently, in the context of deterministic model updating, a new method has been proposed to address the problem of the high dimension in model updating. This method enable to identify separately the input parameters by replacing the original inverse problem to be solved into a sequence of small dimension inverse problems (ideally of dimension one). More precisely, it constructs, for each input parameter, a new output so that this new output is only sensitive to this parameter and insensitive to the other parameters.Until now, this approach has been only validated on simple deterministic dynamical structures. Therefore, the work of this thesis focuses on the objective of extending this new method, in order to make it applicable on the complex industrial structures. In the first part, three methodologies are proposed to improve the efficiency of the new method in the deterministic field. The first methodology consists of introducing noise into the model to be updated or varying the value of the regularization term of the new method. The second methodology is based on the principle of constructing for each input parameter, several new outputs instead of a single one. The third methodology consists in decomposing the output of the model to be updated into groups of components. In addition, an extension for the new method is presented in this part, to make it applicable for cases where the input parameters are not fully separable. In the second part, the new method is extended on the probabilistic context, to take into account and identify separately the uncertainties of system-parameters and modelling errors. Finally an extension of the Bayesian model updating is proposed by combining it with the separation method developped in this thesis, Dans le cadre de la validation des modèles numériques, les méthodes de recalage consistent à calibrer les paramètres d'entrée du modèle numérique afin de réduire la distance entre ses réponses calculées et les réponses expérimentales. Lorsque le modèle numérique est probabiliste, les paramètres et hyperparamètres (moyennes, écarts-types,…) sont recalés en utilisant des données expérimentales recueillies sur une famille de structures nominalement identiques. Dans ces méthodes, le nombre de paramètres à identifier est souvent très important, conduisant à la résolution d'un problème inverse probabiliste non convexe en grande dimension. Cette grande dimension interdit l'exploration directe de tout le domaine des paramètres d'entrée, et rend les méthodes d'optimisation globale et les approches proposées dans ce cadre, très coûteuses et difficiles à appliquer. Récemment, dans le contexte du recalage des modèles déterministes, une nouvelle méthode a été proposée pour pallier la difficulté liée à la grande dimension de l'espace des paramètres d'entrée. Cette méthode permet d’identifier séparément les paramètres d’entrée en remplaçant le problème inverse à résoudre par une série de problèmes inverses de petite dimension. Plus précisément, elle construit, pour chaque paramètre d'entrée, une nouvelle sortie de sorte que cette dernière soit uniquement sensible à ce paramètre et insensible aux autres paramètres d'entrée. Jusqu'à présent, cette approche a été seulement validée pour le recalage des structures dynamiques déterministes très simples. Ainsi, les travaux de cette thèse se focalisent sur l’objectif d’étendre cette nouvelle méthode, afin de la rendre utilisable sur des structures plus complexes. Dans la première partie, trois méthodologies sont proposées pour améliorer l’efficacité de la nouvelle méthode dans un cadre déterministe. La première méthodologie consiste à introduire du bruit dans le modèle à recaler ou de faire varier la valeur de terme de régularisation de la nouvelle méthode. La deuxième méthodologie consiste à construire pour chaque paramètre d’entrée, plusieurs nouvelles sorties au lieu d’une seule sortie. La troisième méthodologie consiste à décomposer les réponses numériques du modèle à recaler en des sous-groupes de composantes. En outre, une extension est proposée pour rendre cette dernière méthode applicable sur les cas où les paramètres d’entrée ne sont pas totalement séparables. Dans la deuxième partie, la nouvelle méthode est étendue au cadre probabiliste, pour prendre en compte et identifier de manière séparée les incertitudes de paramètres du système et celles liées aux erreurs de modélisation. Enfin dans la dernière partie, nous combinons la méthode proposée dans les parties précédentes et la méthode de recalage Bayésien
- Published
- 2022
11. Contributions au traitement des images multivariées
- Author
-
Oberlin, Thomas and Institut Supérieur de l'Aéronautique et de l'Espace - ISAE-SUPAERO (FRANCE)
- Subjects
Problèmes inverses ,Imagerie hyperspectrale ,Imagerie multivariée ,Intelligence artificielle - Abstract
Ce mémoire résume mon activité pédagogique et scientifique en vue de l’obtention de l’habilitation à diriger des recherches.
- Published
- 2021
12. Inferring tropospheric radio refractivity using optimization methods
- Author
-
Karabaş, Uygar, Institut Supérieur de l'Aéronautique et de l'Espace, and Salaün, Michel
- Subjects
Inverse problems ,Adjoint model ,Inversion de la réfractivité ,Optimisation numérique ,Problèmes inverses ,Modèle adjoint ,Equation parabolique grand angle ,Numerical optimization ,Radio wave propagation ,Wide-Angle parabolic equation ,Propagation des ondes radio ,Refractivity inversion - Abstract
La réfraction troposphérique anormale entraîne une déviation des performances des systèmes radar marine par rapport à la normale. L'objectif principal de la thèse est de développer une technique d'inversion de la réfractivité pour prédire les anomalies de la couverture du radar avec précision et en temps réel. Dans cette étude, la réfractivité est supposée ne dépendre que de l'altitude et elle est prédite à partir de mesures d'ondes radio sans phase prises en configuration bistatique. Nous sommes intéressés par l'exploration des techniques d'inversion qui sont efficaces dans des scénarios réalistes à haute dimension pendant les opérations maritimes et qui peuvent maintenir la précision avec un minimum de besoin de connaissance a priori spécifiques au cas par cas. L'objectif à long terme est de transférer les techniques et les connaissances développées pour progresser vers un système de 'Refractivity-From-Clutter', qui est la technique d'inversion autosuffisant idéale pour améliorer l'autodéfense des navires, mais plus complexe à analyser et à développer correctement. Le problème inverse est formulé comme un problème d'optimisation non linéaire basé sur la simulation, qui est abordé à l'aide de méthodes Quasi-Newton. Les simulations sont modélisées par l'équation d'onde parabolique grand angle de Thomson et Chapman. Le gradient du problème d'optimisation est obtenu à l'aide de l'approche variationnelle adjointe et il est estimé de manière peu coûteuse au coût de deux simulations du modèle direct, quelle que soit la dimension des paramètres. Les dérivations sont validées numériquement en utilisant des mesures générées synthétiquement. Les tests numériques ont révélé la gravité de la non-linéarité et du caractère mal posé du problème inverse qui conduit souvent à des résultats d'inversion inexacts, même dans des conditions idéales lorsqu'il n'existe aucune erreur de modélisation ou de mesure. Des stratégies multi-échelles sont utilisées pour atténuer la non-linéarité du problème. Des résultats d'inversion précis sont obtenus en réduisant les espaces de paramètre et de mesures. Les avantages et les limites de la technique sont discutés dans des scénarios réalistes à haute dimension. Mots clés: propagation des ondes radio, optimisation numérique, problèmes inverses, inversion de la réfractivité, équation parabolique grand angle, modèle adjoint. Anomalous tropospheric refraction causes performance of naval radar systems to deviate from the normal. The main goal of thesis is to develop a refractivity inversion technique to predict the anomalies in radar coverage accurately in real-time. In this study, the refractivity is assumed to depend only on altitude and it is predicted from phaseless radio wave measurements taken in bistatic configuration. We are interested in exploring the inversion techniques which are efficient in high-dimensional realistic scenarios during maritime operations and which can maintain accuracy with minimum possible need for case-specific a priori information. The long-term goal is to transfer the developed techniques and knowledge to advance to a 'Refractivity-From-Clutter' system, which is the ideal self-contained inversion technique to upgrade ship self-defense, but more complex to analyze and develop properly. The inverse problem is formulated as a simulation-driven nonlinear optimization problem which is tackled using Quasi-Newton methods. The simulations are modeled with the 2D wide angle parabolic wave equation of Thomson and Chapman. The gradient of the optimization problem is obtained using variational adjoint approach and it is estimated cheaply at the cost of two forward model simulations regardless of parameter dimension. The derivations are validated numerically using synthetically-generated measurements. The numerical tests revealed the severity of nonlinearity and ill-posedness of the inverse problem which often leads to inaccurate inversion results, even in ideal conditions when no modeling or measurement errors exist. Multiscale strategies are used for mitigating the nonlinearity of the problem. Accurate inversion results are obtained using reduction in search and data spaces. The advantages and the limitations of the technique is discussed in realistic high-dimensional scenarios. Keywords: radio wave propagation, numerical optimization, inverse problems, refractivity inversion, wide-angle parabolic equation, adjoint model.
- Published
- 2021
13. Approches variationnelles régularisées pour la résolution de problèmes inverses et pour l'apprentissage machine : de la modéisation aux algorithmes à grande échelle
- Author
-
Pustelnik, Nelly, Laboratoire de Physique de l'ENS Lyon (Phys-ENS), École normale supérieure - Lyon (ENS Lyon)-Centre National de la Recherche Scientifique (CNRS)-Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Université de Lyon, École Normale Supérieure de Lyon, Jérôme Idier, École normale supérieure de Lyon (ENS de Lyon)-Université de Lyon-Centre National de la Recherche Scientifique (CNRS), and Pustelnik, Nelly
- Subjects
[INFO.INFO-LG]Computer Science [cs]/Machine Learning [cs.LG] ,Problèmes inverses ,Machine learning ,Optimisation ,[INFO.INFO-LG] Computer Science [cs]/Machine Learning [cs.LG] ,Algorithmes proximaux ,[SPI.SIGNAL]Engineering Sciences [physics]/Signal and Image processing ,[SPI.SIGNAL] Engineering Sciences [physics]/Signal and Image processing - Published
- 2021
14. Hyperparameter selection for high dimensional sparse learning : application to neuroimaging
- Author
-
Bertrand, Quentin, Inria Saclay - Ile de France, Institut National de Recherche en Informatique et en Automatique (Inria), IFR49 - Neurospin - CEA, Commissariat à l'énergie atomique et aux énergies alternatives (CEA), Modelling brain structure, function and variability based on high-field MRI data (PARIETAL), Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria)-Service NEUROSPIN (NEUROSPIN), Direction de Recherche Fondamentale (CEA) (DRF (CEA)), Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Université Paris-Saclay-Direction de Recherche Fondamentale (CEA) (DRF (CEA)), Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Université Paris-Saclay, Université Paris-Saclay, Alexandre Gramfort, Joseph Salmon, STAR, ABES, Service NEUROSPIN (NEUROSPIN), Université Paris-Saclay-Direction de Recherche Fondamentale (CEA) (DRF (CEA)), Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Inria Saclay - Ile de France, and Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria)
- Subjects
Coordinate descent ,Parcimonie ,Selection et optimisation d'hyperparamètre ,Hyperparameter selection and optimization ,Neuroimaging ,Descente par coordonnée ,Convex optimization ,Neuroimagerie ,Optimisation bi-niveaux ,Problèmes inverses ,[MATH.MATH-ST]Mathematics [math]/Statistics [math.ST] ,Inverse problem ,[MATH.MATH-ST] Mathematics [math]/Statistics [math.ST] ,Sparsity - Abstract
Due to non-invasiveness and excellent time resolution, magneto- and electroencephalography (M/EEG) have emerged as tools of choice to monitor brain activity. Reconstructing brain signals from M/EEG measurements can be cast as a high dimensional ill-posed inverse problem. Typical estimators of brain signals involve challenging optimization problems, composed of the sum of a data-fidelity term, and a sparsity promoting term. Because of their notoriously hard to tune regularization hyperparameters, sparsity-based estimators are currently not massively used by practitioners. The goal of this thesis is to provide a simple, fast, and automatic way to calibrate sparse linear models. We first study some properties of coordinate descent: model identification, local linear convergence, and acceleration. Relying on Anderson extrapolation schemes, we propose an effective way to speed up coordinate descent in theory and practice. We then explore a statistical approach to set the regularization parameter of Lasso-type problems. A closed-form formula can be derived for the optimal regularization parameter of L1 penalized linear regressions. Unfortunately, it relies on the true noise level, unknown in practice. To remove this dependency, one can resort to estimators for which the regularization parameter does not depend on the noise level. However, they require to solve challenging "nonsmooth + nonsmooth" optimization problems. We show that partial smoothing preserves their statistical properties and we propose an application to M/EEG source localization problems. Finally we investigate hyperparameter optimization, encompassing held-out or cross-validation hyperparameter selection. It requires tackling bilevel optimization with nonsmooth inner problems. Such problems are canonically solved using zeros order techniques, such as grid-search or random-search. We present an efficient technique to solve these challenging bilevel optimization problems using first-order methods., Grâce à leur caractère non invasif et leur excellente résolution temporelle, la magnéto- et l'électroencéphalographie (M/EEG) sont devenues des outils incontournables pour observer l'activité cérébrale. La reconstruction des signaux cérébraux à partir des enregistrements M/EEG peut être vue comme un problème inverse de grande dimension mal posé. Les estimateurs typiques des signaux cérébraux se basent sur des problèmes d'optimisation difficiles à résoudre, composés de la somme d'un terme d'attache aux données et d'un terme favorisant la parcimonie. À cause du paramètre de régularisation notoirement difficile à calibrer, les estimateurs basés sur la parcimonie ne sont actuellement pas massivement utilisés par les praticiens. L'objectif de cette thèse est de fournir un moyen simple, rapide et automatisé de calibrer des modèles linéaires parcimonieux. Nous étudions d'abord quelques propriétés de la descente par coordonnées : identification du modèle, convergence linéaire locale, et accélération. En nous appuyant sur les schémas d'extrapolation d'Anderson, nous proposons un moyen efficace d'accélérer la descente par coordonnées en théorie et en pratique. Nous explorons ensuite une approche statistique pour calibrer le paramètre de régularisation des problèmes de type Lasso. Il est possible de construire des estimateurs pour lesquels le paramètre de régularisation optimal ne dépend pas du niveau de bruit. Cependant, ces estimateurs nécessitent de résoudre des problèmes d'optimisation "non lisses + non lisses". Nous montrons que le lissage partiel préserve leurs propriétés statistiques et nous proposons une application aux problèmes de localisation de sources M/EEG. Enfin, nous étudions l'optimisation d'hyperparamètres, qui comprend notamment la validation croisée. Cela nécessite de résoudre des problèmes d'optimisation à deux niveaux avec des problèmes internes non lisses. De tels problèmes sont résolus de manière usuelle via des techniques d'ordre zéro, telles que la recherche sur grille ou la recherche aléatoire. Nous présentons une technique efficace pour résoudre ces problèmes d'optimisation à deux niveaux en utilisant des méthodes du premier ordre.
- Published
- 2021
15. Reproduction sonore 3D par surface émettrice de sons dans un véhicule
- Author
-
Benbara, Nassim and STAR, ABES
- Subjects
Inverse problems ,Digital Twin ,[SPI.ACOU] Engineering Sciences [physics]/Acoustics [physics.class-ph] ,Jumeau numérique ,Contrôle actif ,Advanced signal processing ,Problèmes inverses ,Bending wave focusing ,Spatial sound rendering ,Rendu sonore spatialisé ,Focalisation d'ondes de flexion ,Active control ,Traitement du signal - Abstract
The main objective of this thesis is to propose alternative solutions to classical electrodynamic loudspeakers used in the automobile industry being compliant with spatial sound rendering. The idea is to make indoor garnishments equipped with actuators (electrodynamic or piezoelectric) vibrating and radiating sound by focusing bending waves inside them. Firstly, three wave focusing methods have been formalized in a common framework and adapted to audio applications. A parametric study was conducted to compare them using dedicated key performance indexes. It turns out that the most efficient method in this context is the inversion of the spatio-temporal propagation operator which requires a prior experimental learning of the structure dynamics. An experimental validation of the focusing abilities of this method has been achieved on a car door. Learning through a numerical twin instead of time-consuming experimental data has also been validated. Then temperature variations between -10°C and 60°C existing car have been considered. The dynamic properties of the host structure (made of polypropylene in general) indeed vary widely in this temperature range. A temperature compensation strategy based on digital twins feeding neural networks has therefore been implemented. In addition, noise and vibrations due to the engine and the road can impact bending wave focusing. A closed loop strategy is therefore used to guarantee the performance of the focusing algorithm while eliminating those disturbances., L’objectif de cette thèse est de proposer et de valider des solutions alternatives aux haut-parleurs électrodynamiques classiquement utilisés dans l’automobile qui soient compatibles avec le rendu sonore spatialisé. L’idée directrice est de faire directement vibrer et rayonner des garnitures intérieures équipées d’actionneurs (électrodynamiques ou piézoélectriques) en y focalisant des ondes de flexion. Trois méthodes de focalisation de la littérature ont ainsi été formalisés dans un cadre commun et adaptées aux applications audio. Une étude paramétrique a été menée pour les comparer numériquement et expérimentalement à l’aide d’indicateurs de performances dédiés. La méthode de focalisation la plus efficace est l’inversion spatio-temporelle de l’opérateur de propagation. Elle nécessite un apprentissage préalable de la dynamique de la structure expérimentalement couteux. Une validation expérimentale des capacités de focalisation de cette méthode a été effectuée sur une portière de voiture. L’apprentissage par le biais d’un jumeau numérique au lieu de données expérimentales a de plus été validé. Les variations de température entre 10°C et 60°C existantes dans un habitacle de voiture ont ensuite été considérées. Les propriétés dynamiques de la structure hôte (constituée de polypropylène en général) varient en effet largement dans cette plage de température. Une stratégie de compensation de la température basée sur un jumeau numérique entrainant un réseau de neurones a été mise en place et validée numériquement. De plus, les bruits et vibrations dus au moteur et à la route perturbent également la focalisation. Une commande en boucle fermée a été mise en place afin de garantir les performances de l’algorithme de focalisation tout en éliminant ces perturbations.
- Published
- 2021
16. Single-pixel imaging : Compressed video acquisition and reconstruction using deep learning
- Author
-
Lorente Mur, Antonio, Lorente Mur, Antonio, Imagerie Tomographique et Radiothérapie, Centre de Recherche en Acquisition et Traitement de l'Image pour la Santé (CREATIS), Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Université de Lyon-Institut National des Sciences Appliquées de Lyon (INSA Lyon), Université de Lyon-Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA)-Hospices Civils de Lyon (HCL)-Université Jean Monnet - Saint-Étienne (UJM)-Institut National de la Santé et de la Recherche Médicale (INSERM)-Centre National de la Recherche Scientifique (CNRS)-Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA)-Hospices Civils de Lyon (HCL)-Université Jean Monnet - Saint-Étienne (UJM)-Institut National de la Santé et de la Recherche Médicale (INSERM)-Centre National de la Recherche Scientifique (CNRS), INSA Lyon, Nicolas Ducos, Françoise Peyrin, STAR, ABES, Université de Lyon, and Nicolas Ducros
- Subjects
Problème inverse linéaire ,Inverse problems ,Sous-Échantillonnage ,[INFO.INFO-TS] Computer Science [cs]/Signal and Image Processing ,Computational optics ,Single-Pixell imaging ,Imagerie mono-pixel ,Computational imaging ,Optique computationelle ,Single-pixel imaging ,[INFO.INFO-CV] Computer Science [cs]/Computer Vision and Pattern Recognition [cs.CV] ,video reconstruction ,Optique computationnelle ,[INFO.INFO-TS]Computer Science [cs]/Signal and Image Processing ,[INFO.INFO-LG]Computer Science [cs]/Machine Learning [cs.LG] ,[MATH.MATH-ST]Mathematics [math]/Statistics [math.ST] ,[MATH.MATH-ST] Mathematics [math]/Statistics [math.ST] ,Image Acquisition ,[SPI.SIGNAL] Engineering Sciences [physics]/Signal and Image processing ,Linear inverse problem ,[INFO.INFO-CV]Computer Science [cs]/Computer Vision and Pattern Recognition [cs.CV] ,Deep learning ,[MATH.MATH-OC] Mathematics [math]/Optimization and Control [math.OC] ,[INFO.INFO-LG] Computer Science [cs]/Machine Learning [cs.LG] ,image reconstruction ,Undesampling ,Réseaux neuronaux cellulaires ,Imagerie computationnelle ,Reconstruction de vidéos ,Problèmes inverses ,Reconstruction d'images ,Acquisition image ,Apprentissage Profond ,[MATH.MATH-OC]Mathematics [math]/Optimization and Control [math.OC] ,[SPI.SIGNAL]Engineering Sciences [physics]/Signal and Image processing ,Neural networks - Abstract
Single-pixel cameras allow acquisition of two-dimensional images using only a single-point detector. These use hardware to measure the inner product of the scene under view, along with the user-defined functions, and then the image is recovered using reconstruction algorithms. Single-pixel cameras are well suited for imaging problems where it might not be possible to apply traditional arrays of detectors. In particular, single-pixel cameras can be coupled with a spectrometer, to provide hyperspectral cameras. Such single-pixel hyperspectral cameras can be used, for instance, to analyze spectral signatures of certain molecules. The main limitations of single-pixel imaging are the speeds of acquisition and reconstruction, as these are both too slow for real-time imaging applications. The aim of this project was to design reconstruction algorithms and down-sampling strategies to enable high-frequency image acquisition and reconstruction for single-pixel cameras. The study described in this thesis investigated the use of deep-learning algorithms for single-pixel imaging. More precisely, we focused on introducing generalized Tikhonov-regularized solutions within deep-learned reconstructors for experimental data. Secondly, we worked on neural-network architectures that can combine neural networks, and the expectation-maximization algorithm to estimate the maximum a posteriori of our inverse problem. Finally, we investigated time-adaptive down-sampling algorithms based on projected variance estimates over time. To reconstruct a current frame, we combined these temporal down-sampling algorithms with reconstruction approaches that take into account previous reconstructed frames. With respect to classic approaches, our approach demonstrates real-time acquisition and reconstruction times that can provide videos with 10 frames per second. Finally, we demonstrate the applicability of these approaches to experimental data from a single-pixel hyperspectral camera., La caméra mono-pixel est une caméra qui permet de faire l'acquisition d'images bidimensionnelles à partir d'un capteur ponctuel. Elle mesure au niveau du détecteur le produit scalaire d'image de la scène avec des fonctions définies par l'utilisateur. L'image est alors récupérée par le biais d'algorithmes de reconstruction dédiés. La caméra mono-pixel peut être utilisée dans des problèmes d'imagerie où il serait impossible d'utiliser des méthodes d'imagerie conventionnelle par matrice de capteurs. En particulier, la caméra mono-pixel peut être couplée avec un spectromètre pour en faire une caméra hyperspectrale. De telles caméras mono-pixel permettent notamment de réaliser l'analyse de la signature spectrale de certaines molécules. La principale limitation de l'imagerie mono-pixel sont les temps d'acquisition et de reconstruction, qui sont trop lents pour l'application en temps réel. L'objectif de cette thèse est la réalisation d'algorithmes de reconstruction et de sous-échantillonage pour permettre l'acquisition et reconstruction d'images à hautes fréquences. Dans cette thèse nous avons étudié l'usage d'algorithmes d'apprentissage profond en imagerie mono-pixel. Plus concretement, nous avons introduit l'usage de solutions de régularisation généralisée de Tikhonov dans des reconstructeurs par réseaux de neurones dans le but de les appliquer à des données expérimentales. Dans un deuxième temps, nous avons développé des architectures de réseaux neuronaux qui combinent des réseaux neuronaux avec l'algorithme d'espérance-maximisation afin d'estimer le maximum à posteriori de notre problème inverse. Enfin, nous avons étudié des schémas de sous-échantillonage évoluant au cours du temps selon l'évolution prédite au cours du temps de la variance. Nous avons combiné ce sous-échantillonage avec des schémas de reconstruction prenant en compte les frames reconstruites précédemment pour estimer la frame actuelle. Par rapport aux approches classiques, notre approche permet l'acquisition et la reconstruction en temps réel, avec une cadence de 10 images par seconde. Enfin, nous avons montré l'application des méthodes proposées à des données issues d'une caméra mono-pixel hyperspectrale.
- Published
- 2021
17. Bayesian plug & play methods for inverse problems in imaging
- Author
-
González Olmedo, Mario, Almansa, Andrés, Musé, Pablo, and González Olmedo Mario, Universidad de la República (Uruguay). Facultad de Ingeniería.
- Subjects
Inverse problems ,Optimization ,Statistiques bayésiennes ,Image processing ,Problèmes inverses ,Traitement d’images ,Problemas inversos ,Optimisation ,Procesamiento de imágenes ,Bayesian statistics ,Estadística Bayesiana ,Optimización - Abstract
Thèse de Doctorat de Mathématiques Appliquées (Université de Paris) Tesis de Doctorado en Ingeniería Eléctrica (Universidad de la República) This thesis deals with Bayesian methods for solving ill-posed inverse problems in imaging with learnt image priors. The first part of this thesis (Chapter 3) concentrates on two particular problems, namely joint denoising and decompression and multi-image super-resolution. After an extensive study of the noise statistics for these problem in the transformed (wavelet or Fourier) domain, we derive two novel algorithms to solve this particular inverse problem. One of them is based on a multi-scale self-similarity prior and can be seen as a transform-domain generalization of the celebrated non-local bayes algorithm to the case of non-Gaussian noise. The second one uses a neural-network denoiser to implicitly encode the image prior, and a splitting scheme to incorporate this prior into an optimization algorithm to find a MAP-like estimator. The second part of this thesis concentrates on the Variational AutoEncoder (VAE) model and some of its variants that show its capabilities to explicitly capture the probability distribution of high-dimensional datasets such as images. Based on these VAE models, we propose two ways to incorporate them as priors for general inverse problems in imaging : • The first one (Chapter 4) computes a joint (space-latent) MAP estimator named Joint Posterior Maximization using an Autoencoding Prior (JPMAP). We show theoretical and experimental evidence that the proposed objective function satisfies a weak bi-convexity property which is sufficient to guarantee that our optimization scheme converges to a stationary point. Experimental results also show the higher quality of the solutions obtained by our JPMAP approach with respect to other non-convex MAP approaches which more often get stuck in spurious local optima. • The second one (Chapter 5) develops a Gibbs-like posterior sampling algorithm for the exploration of posterior distributions of inverse problems using multiple chains and a VAE as image prior. We showhowto use those samples to obtain MMSE estimates and their corresponding uncertainty. Cette thèse traite des méthodes bayésiennes pour résoudre des problèmes inverses mal posés en imagerie avec des distributions a priori d’images apprises. La première partie de cette thèse (Chapitre 3) se concentre sur deux problèmes partic-uliers, à savoir le débruitage et la décompression conjoints et la super-résolutionmulti-images. Après une étude approfondie des statistiques de bruit pour ces problèmes dans le domaine transformé (ondelettes ou Fourier), nous dérivons deuxnouveaux algorithmes pour résoudre ce problème inverse particulie. L’un d’euxest basé sur une distributions a priori d’auto-similarité multi-échelle et peut êtrevu comme une généralisation du célèbre algorithme de Non-Local Bayes au cas dubruit non gaussien. Le second utilise un débruiteur de réseau de neurones pourcoder implicitement la distribution a priori, et un schéma de division pour incor-porer cet distribution dans un algorithme d’optimisation pour trouver un estima-teur de type MAP. La deuxième partie de cette thèse se concentre sur le modèle Variational Auto Encoder (VAE) et certaines de ses variantes qui montrent ses capacités à capturer explicitement la distribution de probabilité d’ensembles de données de grande dimension tels que les images. Sur la base de ces modèles VAE, nous proposons deuxmanières de les incorporer comme distribution a priori pour les problèmes inverses généraux en imagerie: •Le premier (Chapitre 4) calcule un estimateur MAP conjoint (espace-latent) nommé Joint Posterior Maximization using an Autoencoding Prior (JPMAP). Nous montrons des preuves théoriques et expérimentales que la fonction objectif proposée satisfait une propriété de bi-convexité faible qui est suffisante pour garantir que notre schéma d’optimisation converge vers un pointstationnaire. Les résultats expérimentaux montrent également la meilleurequalité des solutions obtenues par notre approche JPMAP par rapport à d’autresapproches MAP non convexes qui restent le plus souvent bloquées dans desminima locaux. •Le second (Chapitre 5) développe un algorithme d’échantillonnage a poste-riori de type Gibbs pour l’exploration des distributions a posteriori de problèmes inverses utilisant des chaînes multiples et un VAE comme distribution a priori. Nous montrons comment utiliser ces échantillons pour obtenir desestimations MMSE et leur incertitude correspondante. En esta tesis se estudian métodos bayesianos para resolver problemas inversos mal condicionados en imágenes usando distribuciones a priori entrenadas. La primera parte de esta tesis (Capítulo 3) se concentra en dos problemas particulares, a saber, el de eliminación de ruido y descompresión conjuntos, y el de superresolución a partir de múltiples imágenes. Después de un extenso estudio de las estadísticas del ruido para estos problemas en el dominio transformado (wavelet o Fourier),derivamos dos algoritmos nuevos para resolver este problema inverso en particular. Uno de ellos se basa en una distribución a priori de autosimilitud multiescala y puede verse como una generalización al dominio wavelet del célebre algoritmo Non-Local Bayes para el caso de ruido no Gaussiano. El segundo utiliza un algoritmo de eliminación de ruido basado en una red neuronal para codificar implícitamente la distribución a priori de las imágenes y un esquema de relajación para incorporar esta distribución en un algoritmo de optimización y así encontrar un estimador similar al MAP. La segunda parte de esta tesis se concentra en el modelo Variational AutoEncoder (VAE) y algunas de sus variantes que han mostrado capacidad para capturar explícitamente la distribución de probabilidad de conjuntos de datos en alta dimensión como las imágenes. Basándonos en estos modelos VAE, proponemos dos formas de incorporarlos como distribución a priori para problemas inversos genéricos en imágenes : •El primero (Capítulo 4) calcula un estimador MAP conjunto (espacio imagen y latente) llamado Joint Posterior Maximization using an Autoencoding Prior (JPMAP). Mostramos evidencia teórica y experimental de que la función objetivo propuesta satisface una propiedad de biconvexidad débil que es suficiente para garantizar que nuestro esquema de optimización converge a un punto estacionario. Los resultados experimentales también muestran la mayor calidad de las soluciones obtenidas por nuestro enfoque JPMAP con respecto a otros enfoques MAP no convexos que a menudo se atascan en mínimos locales espurios. •El segundo (Capítulo 5) desarrolla un algoritmo de muestreo tipo Gibbs parala exploración de la distribución a posteriori de problemas inversos utilizando múltiples cadenas y un VAE como distribución a priori. Mostramos cómo usar esas muestras para obtener estimaciones de MMSE y su correspondiente incertidumbre
- Published
- 2021
18. Aberration correction and sound speed quantification in ultrafast ultrasound imaging
- Author
-
Bendjador, Hanna, Physique pour la médecine (UMR 8063, U1273), Ecole Superieure de Physique et de Chimie Industrielles de la Ville de Paris (ESPCI Paris), Université Paris sciences et lettres (PSL)-Université Paris sciences et lettres (PSL)-Institut National de la Santé et de la Recherche Médicale (INSERM)-Centre National de la Recherche Scientifique (CNRS), Université Paris sciences et lettres, Mickaël Tanter, and STAR, ABES
- Subjects
Inverse problems ,Correction d'aberrations ,Vitesse du son ,Problèmes inverses ,Adaptive imaging ,Speed of sound ,Imagerie ultrasonore ultrarapide ,[PHYS.MECA.ACOU] Physics [physics]/Mechanics [physics]/Acoustics [physics.class-ph] ,Ultrafast Ultrasound imaging ,Aberration correction ,Imagerie adaptative ,[PHYS.MECA.ACOU]Physics [physics]/Mechanics [physics]/Acoustics [physics.class-ph] - Abstract
Echography relies on the transmission of ultrasound signals through biological tissues, and the processing of backscattered echoes. The rise of ultrafast ultrasound imaging gave access to physiological events faster than 10 000 frames per second. It allowed therefore the development of high-end techniques such as organs elasticity imaging or sensitive quantification of blood flows. During its propagation through complex or heterogeneous media, the acoustic wavefront may still suffer strong distorsions; hindering both the image quality and the ensuing quantitative assessments. Correcting such aberrations is the ultimate goal of the research work conducted during this PhD. By studying statistical properties of interferences between scatterers, a matrix formalism has been developed to optimise the angular coherence of backscattered echoes. Importantly, we succeeded for the first time, in correcting images and quantifying locally the speed of sound at ultrafast frame rates. Sound speed was proven to be a unique biomarker in the example of hepatic steatosis, and possibly separation of brain white and black matter. The phase correction method will be an interesting contribution to motion correction in the case of 3D tomography and vascular imaging, offering thus new horizons to ultrasound imaging., L’imagerie échographique repose sur la transmission de signaux ultrasonores à travers les tissus biologiques et l’analyse des échos rétro-diffusés. Donnant accès à des phénomènes physiologiques au-delà de 10 000 images par seconde, l’échographie ultrarapide a permis le développement de techniques inédites telles que l’imagerie de l’élasticité des organes ou la quantification ultrasensible des flux sanguins. Le front d’onde acoustique, lors de sa propagation à travers des milieux complexes ou hétérogènes peut toutefois subir de fortes déformations ; affectant tant la qualité de l’image, que les informations quantitatives sur le milieu. Corriger de telles aberrations est l’enjeu majeur des travaux de recherche effectués au cours de cette thèse. En étudiant les propriétés statistiques des interférences entre les diffuseurs, un formalisme mathématique a été développé pour optimiser la cohérence angulaire des signaux rétro-diffusés. Ainsi parvient- on, pour la première fois en temps réel, à corriger les images et quantifier localement la vitesse du son. Cette dernière constitue un bio-marqueur inédit dans les exemples de la stéatose hépatique, et possiblement de la séparation des substances blanche et grise du cerveau. La méthode de correction de phase proposée va également être un apport intéressant aux corrections de mouvement dans le cas de la tomographie 3D et de l’imagerie vasculaire, offrant de nouvelles perspectives à l’imagerie ultrasonore.
- Published
- 2020
19. Eulerian methods for inverse problems using optimal transport
- Author
-
Heitz, Matthieu, Laboratoire d'InfoRmatique en Image et Systèmes d'information (LIRIS), Institut National des Sciences Appliquées de Lyon (INSA Lyon), Institut National des Sciences Appliquées (INSA)-Université de Lyon-Institut National des Sciences Appliquées (INSA)-Université de Lyon-Centre National de la Recherche Scientifique (CNRS)-Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-École Centrale de Lyon (ECL), Université de Lyon-Université Lumière - Lyon 2 (UL2), Université de Lyon, David Coeurjolly, Nicolas Bonneel, and STAR, ABES
- Subjects
Optimization ,Computer graphics ,[INFO.INFO-CV] Computer Science [cs]/Computer Vision and Pattern Recognition [cs.CV] ,Transport optimal ,Problèmes inverses ,Inverse Problems ,Vision par ordinateur ,Machine learning ,Optimal transport ,Informatique graphique ,[INFO.INFO-CV]Computer Science [cs]/Computer Vision and Pattern Recognition [cs.CV] ,Computer vision ,Optimisation - Abstract
The goal of this thesis is to develop new numerical methods to address inverse problems using optimal transport. Inverse problems appear in many disciplines such as astronomy, geophysics or medical imaging, but also in fields closer to the focus of this thesis, namely computer vision, computer graphics, and machine learning. They are difficult problems by nature as they are often not well posed (infinite number of solutions, instabilities), and those that involve non-linear models such as optimal transport yield additional challenges. However, they are important problems to solve since they give access to quantities that are not directly observable, which provides major insight in many cases. Existing techniques for inverse problems in signal/image processing and machine learning often treat histograms as Euclidean data, hence they fail to grasp the underlying relationships between the bins, defined by the geometry of the domain. Optimal transport addresses this issue by building on the distance between bins to produce a distance between histograms (and more generally probability distributions). In this thesis, we adapt two well-known machine learning tasks to the optimal transport framework: dictionary learning and metric learning. Our methods address these tasks as optimization problems and rely on the entropic regularization of optimal transport, and automatic differentiation. The regularization provides fast, robust and smooth approximations of the transport, which are essential features for efficient optimization schemes. Automatic differentiation provides a fast and reliable alternative to manual analytical derivation, resulting in flexible frameworks. We motivate our algorithms with applications in image processing and natural language processing, Cette thèse a pour but de développer de nouvelles méthodes numériques pour résoudre des problèmes inverses en transport optimal. On trouve les problèmes inverses dans divers disciplines telles que l’astronomie, la géophysique, ou l’imagerie médicale, mais aussi dans des domaines plus proches du sujet de cette thèse, à savoir la vision par ordinateur, l’informatique graphique, et l’apprentissage automatique. Les problèmes inverses sont en général difficiles à résoudre car ils sont souvent mal posés (nombre infini de solutions, instabilités), et les modèles non-linéaires du transport optimal apportent des défis supplémentaires. Cependant, ces problèmes sont importants à résoudre car ils nous permettent d’obtenir des résultats sur des quantités qui ne sont pas directement observables, ce qui peut apporter de précieuses informations dans de nombreux cas. Les techniques existantes pour résoudre les problèmes en traitement d’image et du signal et en apprentissage automatique considèrent souvent les histogrammes comme des vecteurs euclidiens. Elles ne parviennent donc pas à saisir et traiter correctement les relations sous-jacentes entre les bins des histogrammes, définies par la géométrie du domaine. Le transport optimal résout ce problème en définissant une distance entre histogrammes (et plus généralement entre distributions de probabilité) basée sur les distances entre les bins. Dans cette thèse, nous adaptons deux tâches classiques de l’apprentissage automatique à la géométrie du transport optimal : l’apprentissage de dictionnaire et l’apprentissage de métrique. Nos méthodes résolvent ces tâches en tant que problèmes d’optimisation et sont fondées sur la régularisation entropique du transport optimal, et la différentiation automatique. La régularisation fournit des approximations rapides, robustes et régulières (lisses) du transport, ce qui est essentiel pour obtenir des algorithmes d’optimisation efficaces. La différentiation automatique apporte une alternative rapide et fiable à la dérivation analytique manuelle, ce qui conduit à des méthodes flexibles. Nous illustrons nos deux algorithmes sur des applications en traitement d’image et en traitement du langage naturel
- Published
- 2020
20. Emerging crack front identification from tangential surface displacements
- Author
-
Andrieux, Stéphane and Baranger, Thouraya Nouri
- Subjects
- *
CRACK propagation (Fracture mechanics) , *ELASTIC solids , *CAUCHY problem , *MECHANICAL loads , *DISPLACEMENT (Mechanics) , *FRACTURE mechanics , *PROBLEM solving - Abstract
Abstract: We present in this Note an identification method for the crack front of a crack emerging at the surface of an elastic solid, provided displacements field or its tangential components are given on a part free of loading of the external surface. The method is based on two steps. The first one is the solution of a Cauchy problem in order to expand the displacement field within the solid up to a surface enclosing the unknown crack. Then the reciprocity gap method is used in order to determine the displacement jump on the crack and then the crack itself. We prove then an identifiability result. The method is illustrated with two synthetic examples: a crossing crack with linear crack front and an elliptic emerging crack. [Copyright &y& Elsevier]
- Published
- 2012
- Full Text
- View/download PDF
21. On lack-of-knowledge theory in structural mechanics
- Author
-
Louf, François, Enjalbert, Paul, Ladevèze, Pierre, and Romeuf, Thierry
- Subjects
- *
STRUCTURAL analysis (Engineering) , *INVERSE problems , *STOCHASTIC analysis , *UNCERTAINTY (Information theory) , *MATHEMATICAL models , *MODEL validation - Abstract
Abstract: Today, the validation of complex structural models – i.e. the assessment of their quality compared to an experimental reference – remains a major issue. Strictly speaking, the validation problem consists in comparing the response of the numerical model (whether deterministic or stochastic) with complete reality. A first answer to this problem, using Lack-Of-Knowledge (LOK) theory, was introduced at LMT-Cachan. This theory is an attempt to “model the unknown” by taking all the sources of uncertainties, including modeling errors, into account through the concept of basic LOKs. In this article, we introduce basic LOKs associated with both the amplitudes and directions of excitations. These basic LOKs are propagated rigorously throughout the mechanical model in order to determine intervals (with stochastic bounds) within which lies a given quantity of interest (stress or displacement). Then, we introduce a strategy for the reduction of lack of knowledge, which we illustrate through an academic example. [Copyright &y& Elsevier]
- Published
- 2010
- Full Text
- View/download PDF
22. An adaptive procedure for defect identification problems in elasticity
- Author
-
Gutiérrez, Sergio and Mura, J.
- Subjects
- *
ELASTICITY , *INVERSE problems , *ANALYTICAL mechanics , *ASYMPTOTIC homogenization , *CONTINUUM mechanics , *MATHEMATICAL optimization - Abstract
Abstract: In the context of inverse problems in mechanics, it is well known that the most typical situation is that neither the interior nor all the boundary is available to obtain data to detect the presence of inclusions or defects. We propose here an adaptive method that uses loads and measures of displacements only on part of the surface of the body, to detect defects in the interior of an elastic body. The method is based on Small Amplitude Homogenization, that is, we work under the assumption that the contrast on the values of the Lamé elastic coefficients between the defect and the matrix is not very large. The idea is that given the data for one loading state and one location of the displacement sensors, we use an optimization method to obtain a guess for the location of the inclusion and then, using this guess, we adapt the position of the sensors and the loading zone, hoping to refine the current guess. Numerical results show that the method is quite efficient in some cases, using in those cases no more than three loading positions and three different positions of the sensors. [Copyright &y& Elsevier]
- Published
- 2010
- Full Text
- View/download PDF
23. An inverse hyper-spherical harmonics-based formulation for reconstructing 3D volumetric lung deformations
- Author
-
Santhanam, Anand P., Min, Yugang, Mudur, Sudhir P., Rastogi, Abhinav, Ruddy, Bari H., Shah, Amish, Divo, Eduardo, Kassab, Alain, Rolland, Jannick P., and Kupelian, Patrick
- Subjects
- *
HARMONIC analysis (Mathematics) , *BIOMECHANICS , *INVERSE problems , *SPIROMETRY , *ELASTICITY , *DEFORMATIONS (Mechanics) , *LUNG physiology - Abstract
Abstract: A method to estimate the deformation operator for the 3D volumetric lung dynamics of human subjects is described in this paper. For known values of air flow and volumetric displacement, the deformation operator and subsequently the elastic properties of the lung are estimated in terms of a Green''s function. A Hyper-Spherical Harmonic (HSH) transformation is employed to compute the deformation operator. The hyper-spherical coordinate transformation method discussed in this paper facilitates accounting for the heterogeneity of the deformation operator using a finite number of frequency coefficients. Spirometry measurements are used to provide values for the airflow inside the lung. Using a 3D optical flow-based method, the 3D volumetric displacement of the left and right lungs, which represents the local anatomy and deformation of a human subject, was estimated from 4D-CT dataset. Results from an implementation of the method show the estimation of the deformation operator for the left and right lungs of a human subject with non-small cell lung cancer. Validation of the proposed method shows that we can estimate the Young''s modulus of each voxel within a 2% error level. [Copyright &y& Elsevier]
- Published
- 2010
- Full Text
- View/download PDF
24. Unique determination of unknown boundaries in an elastic plate by one measurement
- Author
-
Morassi, Antonino and Rosset, Edi
- Subjects
- *
INVERSE problems , *ELASTIC plates & shells , *NEUMANN problem , *DIFFERENTIAL equations , *BOUNDARY element methods , *ISOTROPY subgroups - Abstract
Abstract: In this article we study two inverse problems for a thin elastic plate subjected to a given couple field applied at its boundary. One problem consists in determining an unknown portion of the exterior boundary of the plate subjected to homogeneous Neumann conditions, while the other problem concerns with the determination of a rigid inclusion inside the plate. In both cases, under the assumption that the plate is made by isotropic material, we prove uniqueness with one measurement. [Copyright &y& Elsevier]
- Published
- 2010
- Full Text
- View/download PDF
25. Nodal predictive error model and Bayesian approach for thermal diffusivity and heat source mapping
- Author
-
Massard, H., Fudym, Olivier, Orlande, H.R.B., and Batsale, J.C.
- Subjects
- *
PREDICTION models , *BAYES' estimation , *THERMAL diffusivity , *HEAT transfer , *IMAGE processing , *INVERSE problems , *ERROR analysis in mathematics - Abstract
Abstract: This article aims at solving a two-dimensional inverse heat conduction problem in order to retrieve both the thermal diffusivity and heat source field in a thin plate. A spatial random heat pulse is applied to the plate and the thermal response is analysed. The inverse approach is based on the minimisation of a nodal predictive error model, which yields a linear estimation problem. As a result of this approach, the sensitivity matrix is directly filled with experimental data, and thus is partially noisy. Bayesian estimators, such as the Maximum A Posteriori and a Markov Chain Monte Carlo approach (Metropolis–Hastings), are implemented and compared with the Ordinary Least Squares solution. Simulated temperature measurements are used in the inverse analysis. The nodal strategy relies on the availability of temperature measurements with fine spatial resolution and high frequency, typical of nowadays infrared cameras. The effects of both the measurement errors and of the model errors on the inverse problem solution are also analysed. [Copyright &y& Elsevier]
- Published
- 2010
- Full Text
- View/download PDF
26. An inverse problem in the economic theory of demand
- Author
-
Ekeland, Ivar and Djitté, Ngalla
- Subjects
- *
PARTIAL differential equations , *LORENZ curve , *SYSTEMS theory , *BESSEL functions - Abstract
Abstract: Given an exchange economy consisting of k consumers, there is an associated collective demand function, which is the sum of the individual demand functions. It maps the price system p to a goods bundle . Conversely, given a map , it is natural to ask whether it is the collective demand function of a market economy. We answer that question in the case when k is less than the number of goods n. The proof relies on finding convex solutions to a strongly nonlinear system of partial differential equations. [Copyright &y& Elsevier]
- Published
- 2006
- Full Text
- View/download PDF
27. Shape reconstruction of deposits inside a steam generator using eddy current measurements
- Author
-
Girardon, Hugo, STAR, ABES, Centre de Mathématiques Appliquées - Ecole Polytechnique (CMAP), École polytechnique (X)-Centre National de la Recherche Scientifique (CNRS), Institut Polytechnique de Paris, and Houssem Haddar
- Subjects
Courants de Foucault ,[INFO.INFO-TS] Computer Science [cs]/Signal and Image Processing ,Inverse Problems ,[SPI.ELEC] Engineering Sciences [physics]/Electromagnetism ,Méthode des Level Set ,Shape Optimization ,Eddy Currents ,Optimisation de forme ,Level Set method ,[INFO.INFO-MO]Computer Science [cs]/Modeling and Simulation ,Asymptotic models ,[SPI.ELEC]Engineering Sciences [physics]/Electromagnetism ,[INFO.INFO-TS]Computer Science [cs]/Signal and Image Processing ,Problèmes inverses ,Modèles asymptotiques ,[MATH.MATH-AP]Mathematics [math]/Analysis of PDEs [math.AP] ,[INFO.INFO-MO] Computer Science [cs]/Modeling and Simulation ,[MATH.MATH-AP] Mathematics [math]/Analysis of PDEs [math.AP] - Abstract
Non-destructive testing is an essential tool to assess the safety of the facilities within nuclear power plants. In particular, conductive deposits on U-tubes in steam generators constitute a safety issue as they may block the cooling loop. To detect these deposits, eddy-current probes are introduced inside the U-tubes to generate currents and measuring back an impedance signal. We develop a shape optimization technique with regularized gradient descent to invert these measurements and recover the deposit shape. To deal with the unknown geometry, and its possibly complex topological nature, we propose to model it using a level set function.The methodology is first validated on synthetic axisymmetric configurations and fast convergence is ensured by careful adaptation of the gradient steps and regularization parameters. Using the actual domain, from which the acquisitions are made, we then consider a more realistic modeling that incorporates the support plate and the presence of imperfections on the tube interior section. We employ in particular an asymptotic model to take into account these imperfections and treat them as additional unknowns in our inverse problem. A multi-objective optimization strategy, based on the use of different operating frequencies, is then developed to solve this problem. We present various numerical examples with synthetic and experimental data showing the viability of our approach.The focus is then placed on the transposition of the 2D-axisymmetric work to more generic 3D configurations. Solving Maxwell eddy-current equations in 3D raises modeling issues related to the choice of the problem formulation as well as high computational costs that need to be reduced before discussing the reconstruction algorithm. Using the knowledge acquired with 2D-axisymmetric reconstruction, an efficient inversion strategy is then proposed and implemented on 3D synthetic data. Validating numerical examples demonstrate the feasibility of the inversion even for large data at a relatively moderate cost and with good accuracy and robustness with respect to noise and modeling errors., Le contrôle non destructif est un outil essentiel pour évaluer la sûreté des infrastructures dans les centrales nucléaires. En particulier, la présence de dépôts conducteurs dans les tubes en U des générateurs de vapeur constitue un enjeu de la sûreté en bloquant le circuit d'eau secondaire. Pour détecter ces dépôts, des sondes à courants de Foucault sont insérées dans les tubes en U pour générer des courants et mesurer en retour un signal d'impédance. Pour inverser ces mesures et reconstruire la forme du dépôt, nous développons une méthode d'optimisation de forme avec descente de gradient régularisée. Du fait du caractère inconnu et possiblement complexe de la géométrie et de la topologie du dépôt, nous nous proposons de le modéliser par le biais d'une fonction level-set. La méthodologie est validée dans un premier temps sur des configurations axisymétriques artificielles et une rapide convergence est assurée par un choix réfléchi des paramètres de régularisation ainsi qu'une adaptation fine des pas de descente. En nous appuyant sur la configuration réelle dans laquelle sont réalisées les mesures expérimentales, nous considérons ensuite une modélisation plus réaliste incorporant la plaque entretoise ainsi que la présence d'imperfections sur la paroi intérieure du tube. Plus précisément, nous utilisons un modèle asymptotique pour prendre en compte ces imperfections et nous les traitons comme de nouvelles inconnues dans notre problème inverse. Une stratégie d'optimisation multi-critères se basant sur l'utilisation de différentes fréquences est ensuite développée pour résoudre le problème. Nous présentons différents résultats numériques sur des tests artificiels ou réels pour montrer la validité de note approche. Nous nous focalisons ensuite sur la transposition du modèle 2D-axisymétrique à des configurations 3D plus génériques. La résolution des équations de Maxwell en présence de courants de Foucault en 3D pose plusieurs problèmes de modélisation de part le choix de la formulation du problème ainsi que des coûts de calculs conséquents à réduire avant de pouvoir élaborer l'algorithme de reconstruction. Avec l'expérience acquise dans la reconstruction en 2D-axisymétrique, nous proposons ensuite une stratégie d'inversion efficace que nous mettons en œuvre sur des données artificielles 3D. La validation des exemples numériques prouve ainsi la faisabilité de l'inversion pour des problèmes de taille conséquente pour des coûts modérés et avec une bonne précision et robustesse par rapport au bruit et aux erreurs de modélisation.
- Published
- 2020
28. Contraintes géométriques et approches variationnelles pour l'analyse d'image
- Author
-
Martins Antunes, Daniel and STAR, ABES
- Subjects
Graph theory ,Inverse problems ,[INFO.INFO-DM] Computer Science [cs]/Discrete Mathematics [cs.DM] ,Problèmes inverses ,Partial Differential Equations ,Théorie des graphes ,Calcul discret ,Discrete calculus ,Equations aux dérivées Partielles - Abstract
Several problems in image processing belong to the class of inverse problems, and hypotheses should be made to have a well-defined formulation, i.e., a formulation in which a solution exists and it is unique. A possibility is to use geometric criteria to regularize the problem, e.g., to favor solutions with smooth contours or short perimeters. This process is called regularization.However, it is likely the case that the objects in the scene have unknown mathematical representations and that such geometric measurements should be computed in place, considering only their visual representation: In the case of image processing, a digital image. Usually, such measurements are computed without considering the nature of the digital domain, and consequently, are not guaranteed to converge neither approximate the expected Euclidean quantity. The regularization is thus incorrect or not precise, and the solutions biased.Recently, several digital estimators of geometric properties such as tangent and curvature were proven multigrid convergent. In other words, the estimated values computed in the digital representation of a shape converges towards the values computed in its Euclidean representation as the digital mesh becomes finer and finer. However, there exist few models in the image processing literature that make use of them. That is because such estimators are more difficult to integrate in an optimization framework.In this thesis, we investigate the use of multigrid convergent estimators and their applications in image processing. In particular, we aim to integrate regularizers based on convergent estimators of curvature in image segmentation problems. We present four combinatorial models based on the elastica energy (a classical geometric regularization term combining perimeter and curvature) with applications in image segmentation. Next, we evaluate our results and compare with similar methods. The results have shown to be very competitive with the state of art., Beaucoup de problèmes en analyse d’images sont caractérisés comme des problèmes inverses, et des hypothèses s'avèrent nécessaire pour obtenir un formulation bien posée, c’est-à-dire que le problème ait une solution et que celle-ci soit unique. Une approche possible consiste à utiliser des critères géométriques pour régulariser le problème, par exemple pour favoriser des solutions avec des contours lisses ou de faible périmètre.Cependant, dans le cadre de l’analyse d’image; nous ne disposons pas de la représentation mathématique des objets dans une scène observée. Nous devons utiliser les seules données discrètes (les couleurs des pixels de l’image) qui approchent ces objets et les mesures géométriques sont alors délicates. Les méthodes classiques prennent peu en compte la nature discrète des données dans leur mesure. En conséquence, nous n’avons pas de garanties de convergence ou même d’approximation des mesures effectuées par rapport aux mesures euclidiennes attendues. La régularisation dans le processus de traitement d’image est alors incorrecte ou peu précise, et les solutions trouvées sont alors biaisées.Récemment, plusieurs estimateurs discrets de propriétés géométriques, notamment liés à la longueur, à la tangente et à la courbure, ont été prouvé convergents multigrilles. Autrement dit la valeur mesurée par ces estimateurs sur la représentation discrète d’une forme converge vers la valeur mesurée sur sa forme euclidienne quand on utilise des grilles de discrétisations de plus en plus fines. Néanmoins, on constate que la littérature d’analyse d’image comporte peu de modèles qui utilisent des estimateurs convergents multigrille. Cela vient du fait qu’il est plus difficile des les intégrer dans les algorithmes de résolution.Dans cette thèse, nous explorons l’utilisation d’estimateurs convergents multigrille dans des applications en analyse d’image. Plus spécifiquement nous cherchons à intégrer des régularisations basées sur des estimateurs convergents de courbure dans des processus de segmentation d’image. Nous présentons quatre modèles variationnels combinatoires basés sur l’énergie dite “Elastica” (combinaison classique de régularisation géométrique utilisant la longueur et la courbure) avec application en segmentation d’image. Nos résultats sont ensuite évaluées et comparées avec des méthodes similaires, et nos modèles s’avèrent très compétitifs avec l’état de l’art.
- Published
- 2020
29. On the use of sampling methods and spectral signatures to identify defects in inhomogeneous media
- Author
-
Napal, Kevish, Centre de Mathématiques Appliquées - Ecole Polytechnique (CMAP), École polytechnique (X)-Centre National de la Recherche Scientifique (CNRS), Université Paris Saclay (COmUE), Houssem Haddar, and STAR, ABES
- Subjects
Inverse problems ,Analyse fonctionnelle ,Functional analysis ,Scattering theory ,Spectral analysis ,[INFO.INFO-NA]Computer Science [cs]/Numerical Analysis [cs.NA] ,Analyse numérique ,Problèmes inverses ,[MATH.MATH-MP]Mathematics [math]/Mathematical Physics [math-ph] ,[INFO.INFO-NA] Computer Science [cs]/Numerical Analysis [cs.NA] ,[MATH.MATH-AP]Mathematics [math]/Analysis of PDEs [math.AP] ,[MATH.MATH-AP] Mathematics [math]/Analysis of PDEs [math.AP] ,[MATH.MATH-MP] Mathematics [math]/Mathematical Physics [math-ph] ,Diffraction ,Numerical analysis ,Analyse spectrale - Abstract
This thesis is a contribution to inverse scattering theory. We are more specifically interested in the non-destructive testing of heterogeneous materials such as composite materials by using acoustic waves. Monitoring this type of materials in an industrial environment is of major importance, but their complex structure makes this task difficult. The so-called sampling methods seem very promising to address this issue. We develop these techniques to detect the appearance of defects from far field data. The defects considered are impenetrable Neumann obstacles. We distinguish two categories of them, each requiring a specific treatment: cracks and obstacles with non empty interior.Thanks to the two complementary factorizations of the far field operator that we establish, we show that it is possible to approach the solution of the Interior Transmission Problem (ITP) from the data. The ITP is a system of partial differential equations that takes into account the physical parameters of the material being surveyed. We show that it is then possible to detect an anomaly by comparing the solutions of two different ITPs, one associated with measurements made before the defect appeared and the other one associated with measurements made after. The validity of the described method requires avoiding particular frequencies, which are the elements of the ITP spectrum for which this problem is not well posed. We show that this spectrum is an infinite set, countable and without finite accumulation points.In the last chapter, we use the recent notion of artificial backgrounds to image crack networks embedded in a homogeneous background. This approach allows us to design a transmission problem with the choice of the artificial background, for instance made of an obstacle. The associated spectrum is then sensitive to the presence of cracks inside the artificial obstacle. This allows to quantify locally the crack density. However, the computation of the spectrum requires data at several frequencies and is expensive in terms of calculations. We propose an alternative method using only data at fixed frequency and which consists in working with the solutions of the ITP instead of it's spectrum., Cette thèse est une contribution aux problèmes inverses en diffraction acoustique. Nous nous intéressons plus précisément au contrôle non destructif de matériaux hétérogènes tels que les matériaux composites. Surveiller l'état de ce type de matériaux en milieu industriel présente un enjeu majeur. Cependant leurs structures complexes rendent cette tâche difficile. Les méthodes dites d'échantillonnage semblent très prometteuses pour répondre à cette problématique. Nous développons ces techniques pour détecter l'apparition de défauts à partir de données de champs lointains. Les défauts considérés sont des obstacles impénétrables de type Neumann. Nous en distinguons deux catégories qui nécessitent chacune un traitement particulier : les fissures et les obstacles d'intérieur non vide.Grâce à deux factorisations complémentaires de l'opérateur de champ lointain que nous établissons, nous montrons qu'il est possible d'approcher la solution du Problème de Transmission Intérieur (PTI) à partir des données. Le PTI est un système d'équations différentielles qui met en jeu les paramètres physiques du matériau sondé. Nous montrons qu'il est alors possible de détecter une anomalie en comparant les solutions de deux PTI différents, l'un associé aux mesures faites avant l'apparition du défaut et l'autre associé aux mesures faites après. La validité de la méthode décrite nécessite d'éviter des fréquences particulières correspondant au spectre du PTI pour lequel ce problème est mal posé. Nous montrons que ce spectre est un ensemble infini, dénombrable et sans point fini d'accumulation.Dans le dernier chapitre, nous utilisons la notion récente de milieux artificiels pour imager des réseaux de fissures au sein d'un milieu homogène. Cette approche permet le design du problème de transmission intérieur par le choix du milieu artificiel, par exemple composé d'obstacle impénétrables. Le spectre associé est alors sensible à la présence de fissures à l'intérieur de l'obstacle artificiel. Ceci permet de quantifier localement la densité de fissure. Cependant, le calcul du spectre nécessite des données pour un intervalle de fréquence et est très coûteux en temps de calcul. Nous proposons une alternative n'utilisant qu'une seule fréquence et qui consiste à travailler avec les solutions du PTI plutôt qu'avec son spectre.
- Published
- 2019
30. Non-linear decomposition method for spectral CT
- Author
-
Hohweiller, Tom, Imagerie Tomographique et Radiothérapie, Centre de Recherche en Acquisition et Traitement de l'Image pour la Santé (CREATIS), Université Jean Monnet [Saint-Étienne] (UJM)-Hospices Civils de Lyon (HCL)-Institut National des Sciences Appliquées de Lyon (INSA Lyon), Université de Lyon-Institut National des Sciences Appliquées (INSA)-Université de Lyon-Institut National des Sciences Appliquées (INSA)-Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Centre National de la Recherche Scientifique (CNRS)-Institut National de la Santé et de la Recherche Médicale (INSERM)-Université Jean Monnet [Saint-Étienne] (UJM)-Hospices Civils de Lyon (HCL)-Institut National des Sciences Appliquées de Lyon (INSA Lyon), Université de Lyon-Centre National de la Recherche Scientifique (CNRS)-Institut National de la Santé et de la Recherche Médicale (INSERM), Université de Lyon, INSA de Lyon, Bruno Sixou, Nicolas Ducros, Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Université de Lyon-Institut National des Sciences Appliquées de Lyon (INSA Lyon), Université de Lyon-Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA)-Hospices Civils de Lyon (HCL)-Université Jean Monnet - Saint-Étienne (UJM)-Institut National de la Santé et de la Recherche Médicale (INSERM)-Centre National de la Recherche Scientifique (CNRS)-Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA)-Hospices Civils de Lyon (HCL)-Université Jean Monnet - Saint-Étienne (UJM)-Institut National de la Santé et de la Recherche Médicale (INSERM)-Centre National de la Recherche Scientifique (CNRS), and Hohweiller, Tom
- Subjects
régularisation ,[SDV.IB.IMA]Life Sciences [q-bio]/Bioengineering/Imaging ,X-ray imaging ,[INFO.INFO-IM] Computer Science [cs]/Medical Imaging ,material decomposition ,spectral imaging ,constrained optimization ,regularization ,problèmes inverses ,Imagerie par rayons X ,décomposition en matériaux ,[SDV.IB.IMA] Life Sciences [q-bio]/Bioengineering/Imaging ,imagerie spectrale ,[INFO.INFO-IM]Computer Science [cs]/Medical Imaging ,inverse problem ,optimisation sous contrainte - Abstract
Spectral tomodensitometry is a new emerging x-ray imaging modality. If the dual-energy principle was already known for quite some time, new developments on photon-counting detectors now allowing acquiring more energy bins than before. This modality allows reducing some artifacts presents in x-ray imaging, such as beam hardening, but mostly to decompose the data into the chemical composition of the imaged tissue. It also enables the use of new markers (i.e. gold) with an energic discontinuity. The use of these markers also allows to locate and quantify them in the patient, granting great potential for medical imaging. Decomposition in the projection domain followed by a tomographic reconstruction is a classical processing for those spectral data. However, decomposition methods in the projection domain are unstable for a high number of energy bins. Classical calibration technic is numerically unstable for more than two energy bins. This thesis aims to developed new material decomposition methods in the projections domains. After expressing the spectral forward model, the decomposition problem is expressed and dealt as a non-linear inverse problem. It will be solved by minimizing a cost function composed by a term characterizing the fidelity of the decomposition regarding the data and an a priori of the decomposed material maps. We will firstly present an adaptation of the cost function that takes into account the Poissonian noise on the data. This formulation allows having better decomposed maps for a high level of noise than classical formulation. Then, two constrained algorithms will be presented. The first one, a projected Gauss-Newton algorithm, that enforces positivity on the decomposed maps, allows having better decomposed maps than an unconstrained algorithm. To improve the first algorithm, another one was developed that also used an egality constrain. The equality allows having images with fewer artifacts than before. These methods are tested on a numerical phantom of a mouse and thorax. To speed up the decomposition process, an automatic choice of parameters is presented, which allow faster decomposition while keeping good maps. Finally, the methods are tested on experimental data that are coming from a spectral scanner prototype., La tomodensitométrie spectrale est une modalité d’imagerie par rayons X émergente. Si le principe de la double énergie est plus ancien, des développements récents sur des détecteurs à comptage de photons permettent d’acquérir des données résolues en énergie sur plusieurs plages. Cette modalité permet de réduire un certain nombre d’artéfacts classiques dont ceux liés au durcissement de spectre, mais surtout de remonter à la composition chimique des tissus. Les données spectrales permettent également d’utiliser de nouveaux agents de contraste (comme l’or par exemple) qui présentent des discontinuités énergétiques. La possibilité d’utiliser d’autres marqueurs et de quantifier leurs présences dans le patient donne à cette modalité un fort potentiel dans le domaine de l’imagerie médicale. Une approche classique pour le traitement des données spectrales est d’effectuer une décomposition en base de matériaux préalables à la reconstruction tomographique. Cependant, les méthodes de décomposition dans le domaine des projections avec un grand nombre de plages d’énergies n’en sont qu’à leurs débuts. Les techniques classiques par calibration, ne sont plus numériquement stables lorsqu’il y a plus de deux plages disponibles.Le but de cette thèse est de développer de nouvelles méthodes de décomposition des données spectrales dans le domaine des projections. Après avoir formalisé le problème direct de la tomodensitométrie spectrale, le problème de décomposition en base de matériaux sera exprimé et traité comme un problème inverse non linéaire. Il sera résolu en minimisant une fonction de coût incluant un terme caractérisant la fidélité de la décomposition par rapport aux données et un a priori sur les cartes de matériaux projetées. Ces travaux présenteront tout d’abord une adaptation de la fonctionnelle prenant en compte la nature Poissonienne du bruit. Cette formulation permet d’obtenir de meilleures décompositions pour de forts niveaux de bruit par rapport à la formulation classique. Ensuite, deux algorithmes de minimisation incluant une contrainte de positivité additionnelle seront proposés. Le premier, un algorithme de Gauss-Newton projeté, permet d’obtenir des cartes rapidement et de meilleure qualité que des méthodes non contraintes. Pour améliorer les résultats du premier algorithme, une seconde méthode, de type ADMM, ajoute une contrainte d’égalité. Cette contrainte a permis de diminuer les artefacts présents dans l’image. Ces méthodes ont été évaluées sur des données numériques de souris et de thorax humain. Afin d’accélérer et de simplifier les méthodes, un choix automatique des hyperparamètres est proposé qui permet de diminuer fortement le temps de calcul tout en gardant de bonnes décompositions. Finalement, ces méthodes sont testées sur des données expérimentales provenant d’un prototype de scanner spectral.
- Published
- 2019
31. Probabilistic reconstruction of truncated particle trajectories on a closed surface
- Author
-
Alain Trubuil, Yunjiao Lu, Charles Kervrann, Pierre Hodara, Space-timE RePresentation, Imaging and cellular dynamics of molecular COmplexes (SERPICO), Inria Rennes – Bretagne Atlantique, Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria), Mathématiques et Informatique Appliquées du Génome à l'Environnement [Jouy-En-Josas] (MaIAGE), Institut National de Recherche pour l’Agriculture, l’Alimentation et l’Environnement (INRAE), and ANR-16-CE23-0005,DALLISH,Assimilation de Données et Microscopie à Feuille de Lumière Structurée pour la Modélisation des Voies d'Endocytose et d'Exocytose en Cellule Unique(2016)
- Subjects
Surface (mathematics) ,FOS: Computer and information sciences ,microscopie ,reconstruction ,General Physics and Astronomy ,suivi de particles ,010103 numerical & computational mathematics ,01 natural sciences ,Statistics - Applications ,Time-lapse microscopy ,problèmes inverses ,Parametric estimation ,[INFO.INFO-IM]Computer Science [cs]/Medical Imaging ,MESH: microscopy, inverse problems, reconstruction, motion analysis, particle tracking ,Applications (stat.AP) ,0101 mathematics ,[MATH]Mathematics [math] ,Ecological Modeling ,Probabilistic logic ,[INFO.INFO-CV]Computer Science [cs]/Computer Vision and Pattern Recognition [cs.CV] ,General Chemistry ,Computer Science Applications ,010101 applied mathematics ,Modeling and Simulation ,analyse de mouvement ,[INFO.INFO-TI]Computer Science [cs]/Image Processing [eess.IV] ,Particle ,Biological system ,[SPI.SIGNAL]Engineering Sciences [physics]/Signal and Image processing - Abstract
International audience; nvestigation of dynamic processes in cell biology very often relies on the observation in two dimensions of three-dimensional (3D) biological processes. Consequently, the data are partial and statistical methods and models are required to recover the parameters describing the dynamical processes. In the case of molecules moving over the 3D surface, such as proteins on walls of bacteria cell, a large portion of the 3D surface is not observed in two-dimensional (2D)-time microscopy. It follows that biomolecules may disappear for a period of time in a region of interest, and then reappear later. Assuming Brownian motion with drift, we address the mathematical problem of the reconstruction of biomolecules trajectories on a cylindrical surface. A subregion of the cylinder is typically recorded during the observation period, and biomolecules may appear or disappear in any place of the 3D surface. The performance of the method is demonstrated on simulated particle trajectories that mimic MreB protein dynamics observed in 2D time-lapse fluorescence microscopy in rod-shaped bacteria.
- Published
- 2019
- Full Text
- View/download PDF
32. Numerical resolution strategies for cracks and boundary conditions identification problems
- Author
-
Ferrier, Renaud, Laboratoire de Mécanique et Technologie (LMT), École normale supérieure - Cachan (ENS Cachan)-Université Pierre et Marie Curie - Paris 6 (UPMC)-Centre National de la Recherche Scientifique (CNRS), Université Paris-Saclay, Pierre Gosselet, and STAR, ABES
- Subjects
[PHYS.MECA.SOLID] Physics [physics]/Mechanics [physics]/Solid mechanics [physics.class-ph] ,Inverse problems ,Cauchy problem ,Steklov-Poincaré approach ,Identification de fissures ,Problèmes inverses ,Problème de Cauchy ,Méthode de l'écart à la réciprocité ,[PHYS.MECA.SOLID]Physics [physics]/Mechanics [physics]/Solid mechanics [physics.class-ph] ,Reciprocity gap method ,Approche de Steklov-Poincaré ,Crack identification - Abstract
The goal of this thesis is to study and to develop some methods in order to solve two types of identification problems in the framework of elliptical equations. As those problems are known to be particularly unstable, the proposed methods are accompanied with regularization procedures, that ensure that the obtained solutions keep a physical meaning.Firstly, we study the resolution of the Cauchy problem (boundary conditions identification) by the Steklov-Poincaré method. We start by proposing some improvements based on the used Krylov solver, especially by introducing a regularization method that consists in truncating the Ritz values decomposition of the operator in question. We study afterwards the estimation of uncertainties by the mean of techniques stemming from Bayesian inversion. Finally, we aim at solving more demanding problems, namely a time-transient problem, a non-linear case, and we give some elements to carry out resolutions on geometries that have a very high number of degrees of freedom, with help of domain decomposition.As for the problem of crack identification by the reciprocity gap method, we firstly propose and numerically test some ways to stabilize the resolution (use of different test-functions, a posteriori minimization of the gradients or Tikhonov regularization). Then we present an other variant of the reciprocity gap method, that is applicable on cases for which the measurements are incomplete. This method, based on a Petrov-Galerkin approach, is confronted, among others, with an experimental case. Finally, we investigate some ideas that allow to extend the reciprocity gap method for the identification of non-plane cracks., Le but de cette thèse est d'étudier et de développer des méthodes permettant de résoudre deux types de problèmes d'identification portant sur des équations elliptiques. Ces problèmes étant connus pour leur caractère fortement instable, les méthodes proposées s'accompagnent de procédures de régularisation, qui permettent d'assurer que la solution obtenue conserve un sens physique.Dans un premier temps, on étudie la résolution du problème de Cauchy (identification de conditions aux limites) par la méthode de Steklov-Poincaré. On commence par proposer quelques améliorations basées sur le solveur de Krylov utilisé, en introduisant notamment une méthode de régularisation consistant à tronquer la décomposition de Ritz de l'opérateur concerné. Par la suite, on s'intéresse à l'estimation d'incertitude en utilisant des techniques issues de l'inversion Bayésienne. Enfin, on cherche à résoudre des problèmes plus exigeants, à savoir un problème transitoire en temps, un cas non-linéaire, et on donne des éléments pour effectuer des résolutions sur des géométries ayant un très grand nombre de degrés de liberté en s'aidant de la décomposition de domaine.Pour ce qui est du problème d'identification de fissures par la méthode de l'écart à la réciprocité, on commence par proposer et tester numériquement différents moyens de stabiliser la résolution (utilisation de fonctions-tests différentes, minimisation des gradients a posteriori ou régularisation de Tikhonov). Puis on présente une autre variante de la méthode de l'écart à la réciprocité, qui est applicable aux cas pour lesquels les mesures sont incomplètes. Cette méthode, basée sur une approche de Petrov-Galerkine, est confrontée entre autres à un cas expérimental. Enfin, on s'intéresse à certaines idées permettant d'étendre la méthode de l'écart à la réciprocité à l'identification de fissures non planes.
- Published
- 2019
33. Reconstruction tomographique et application en imagerie caméra Compton et en microscopie électronique
- Author
-
Maxim, Voichita, Centre de Recherche en Acquisition et Traitement de l'Image pour la Santé (CREATIS), Université Jean Monnet [Saint-Étienne] (UJM)-Hospices Civils de Lyon (HCL)-Institut National des Sciences Appliquées de Lyon (INSA Lyon), Institut National des Sciences Appliquées (INSA)-Université de Lyon-Institut National des Sciences Appliquées (INSA)-Université de Lyon-Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Centre National de la Recherche Scientifique (CNRS)-Institut National de la Santé et de la Recherche Médicale (INSERM), Institut National des Sciences Appliquées de Lyon, Françoise Peyrin, Voichita, Maxim, Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Université de Lyon-Institut National des Sciences Appliquées de Lyon (INSA Lyon), and Université de Lyon-Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA)-Hospices Civils de Lyon (HCL)-Université Jean Monnet - Saint-Étienne (UJM)-Institut National de la Santé et de la Recherche Médicale (INSERM)-Centre National de la Recherche Scientifique (CNRS)
- Subjects
problèmes inverses ,[SDV.IB.IMA] Life Sciences [q-bio]/Bioengineering/Imaging ,[SDV.IB.IMA]Life Sciences [q-bio]/Bioengineering/Imaging ,SPECT ,proton therapy ,caméra Compton ,tomography ,reconstruction tomographiqie ,image reconstruction ,[SPI.SIGNAL]Engineering Sciences [physics]/Signal and Image processing ,tomographie ,[SPI.SIGNAL] Engineering Sciences [physics]/Signal and Image processing ,Compton camera - Published
- 2019
34. Structural Approaches for SAR tomography over dense urban areas
- Author
-
Rambour, Clément, Laboratoire Traitement et Communication de l'Information (LTCI), Institut Mines-Télécom [Paris] (IMT)-Télécom Paris, DEMR, ONERA, Université Paris Saclay (COmUE) [Palaiseau], ONERA-Université Paris Saclay (COmUE), Université Paris-Saclay, Florence Tupin, and STAR, ABES
- Subjects
Inverse problems ,Imagerie SAR ,Reconstruction tomographique SAR ,Graph-cut ,Parcimonie ,Patch-Based approaches ,Coupe de graphe ,Approches par ``patchs'' ,Problèmes inverses ,SAR imagery ,SAR tomography ,Sparsity ,[SPI.SIGNAL]Engineering Sciences [physics]/Signal and Image processing ,[SPI.SIGNAL] Engineering Sciences [physics]/Signal and Image processing - Abstract
SAR tomography consists in exploiting multiple images from the same area acquired from a slightly different angle to retrieve the 3-D distribution of the complex reflectivity on the ground. As the transmitted waves are coherent, the desired spatial information (along with the vertical axis) is coded in the phase of the pixels. Many methods have been proposed to retrieve this information in the past years. However, the natural redundancies of the scene are generally not exploited to improve the tomographic estimation step. This Ph.D. presents new approaches to regularize the estimated reflectivity density obtained through SAR tomography by exploiting the urban geometrical structures., La tomographie SAR exploite plusieurs acquisitions d'une même zone acquises d'un point de vue légerement différent pour reconstruire la densité complexe de réflectivité au sol. Cette technique d'imagerie s'appuyant sur l'émission et la réception d'ondes électromagnétiques cohérentes, les données analysées sont complexes et l'information spatiale manquante (selon la verticale) est codée dans la phase. De nombreuse méthodes ont pu être proposées pour retrouver cette information. L'utilisation des redondances naturelles à certains milieux n'est toutefois généralement pas exploitée pour améliorer l'estimation tomographique. Cette thèse propose d'utiliser l'information structurelle propre aux structures urbaines pour régulariser les densités de réflecteurs obtenues par cette technique.
- Published
- 2019
35. De l'identification des sources mécaniques au contrôle vibratoire des structures
- Author
-
Mathieu AUCEJO, Laboratoire de Mécanique des Structures et des Systèmes Couplés (LMSSC), Conservatoire National des Arts et Métiers [CNAM] (CNAM), Conservatoire national des arts et métiers (CNAM), Franck Delvare, and Aucejo, Mathieu
- Subjects
Inverse problems ,Mécanique des structures ,Vibration control ,contrôle vibratoire ,Problèmes inverses ,[SPI.MECA.VIBR]Engineering Sciences [physics]/Mechanics [physics.med-ph]/Vibrations [physics.class-ph] ,[SPI.MECA.VIBR] Engineering Sciences [physics]/Mechanics [physics.med-ph]/Vibrations [physics.class-ph] ,[SPI.MECA.STRU] Engineering Sciences [physics]/Mechanics [physics.med-ph]/Structural mechanics [physics.class-ph] ,Structural mechanics ,[SPI.MECA.STRU]Engineering Sciences [physics]/Mechanics [physics.med-ph]/Mechanics of the structures [physics.class-ph] - Published
- 2019
- Full Text
- View/download PDF
36. Towards Reducing Structural Interpretation Uncertainties Using Seismic Data
- Author
-
Irakarama, Modeste, UL, Thèses, GeoRessources, Centre National de la Recherche Scientifique (CNRS)-Université de Lorraine (UL)-Centre de recherches sur la géologie des matières premières minérales et énergétiques (CREGU)-Institut national des sciences de l'Univers (INSU - CNRS), Université de Lorraine, Guillaume Caumon, and Paul Cupillard [Membre invité ]
- Subjects
Inverse problems ,Structural uncertainties ,[SDU.STU.GP]Sciences of the Universe [physics]/Earth Sciences/Geophysics [physics.geo-ph] ,Seismic imaging ,Imagerie sismique ,[INFO.INFO-MO]Computer Science [cs]/Modeling and Simulation ,Interprétation sismique ,Seismic interpretation ,Problèmes inverses ,[SDU.STU.AG] Sciences of the Universe [physics]/Earth Sciences/Applied geology ,Structural modeling ,[SDU.STU.GP] Sciences of the Universe [physics]/Earth Sciences/Geophysics [physics.geo-ph] ,[INFO.INFO-MO] Computer Science [cs]/Modeling and Simulation ,[SDU.STU.AG]Sciences of the Universe [physics]/Earth Sciences/Applied geology ,Modélisation structurale ,Incertitudes structurales - Abstract
Subsurface structural models are routinely used for resource estimation, numerical simulations, and risk management; it is therefore important that subsurface models represent the geometry of geological objects accurately. The first step in building a subsurface model is usually to interpret structural features, such as faults and horizons, from a seismic image; the identified structural features are then used to build a subsurface model using interpolation methods. Subsurface models built this way therefore inherit interpretation uncertainties since a single seismic image often supports multiple structural interpretations. In this manuscript, I study the problem of reducing interpretation uncertainties using seismic data. In particular, I study the problem of using seismic data to determine which structural models are more likely than others in an ensemble of geologically plausible structural models. I refer to this problem as "appraising structural models using seismic data". I introduce and formalize the problem of appraising structural interpretations using seismic data. I propose to solve the problem by generating synthetic data for each structural interpretation and then to compute misfit values for each interpretation; this allows us to rank the different structural interpretations. The main challenge of appraising structural models using seismic data is to propose appropriate data misfit functions. I derive a set of conditions that have to be satisfied by the data misfit function for a successful appraisal of structural models. I argue that since it is not possible to satisfy these conditions using vertical seismic profile (VSP) data, it is not possible to appraise structural interpretations using VSP data in the most general case. The conditions imposed on the data misfit function can in principle be satisfied for surface seismic data. In practice, however, it remains a challenge to propose and compute data misfit functions that satisfy those conditions. I conclude the manuscript by highlighting practical issues of appraising structural interpretations using surface seismic data. I propose a general data misfit function that is made of two main components: (1) a residual operator that computes data residuals, and (2) a projection operator that projects the data residuals from the data-space into the image-domain. This misfit function is therefore localized in space, as it outputs data misfit values in the image-domain. However, I am still unable to propose a practical implementation of this misfit function that satisfies the conditions imposed for a successful appraisal of structural interpretations; this is a subject for further research., Les modèles géologiques sont couramment utilisés pour estimer les ressources souterraines, pour faire des simulations numériques, et pour évaluer les risques naturels ; il est donc important que les modèles géologiques représentent la géométrie des objets géologiques de façon précise. La première étape pour construire un modèle géologique consiste souvent à interpréter des surfaces structurales, telles que les failles et horizons, à partir d'une image sismique ; les objets géologiques identifiés sont ensuite utilisés pour construire le modèle géologique par des méthodes d'interpolation. Les modèles géologiques construits de cette façon héritent donc les incertitudes d'interprétation car une image sismique peut souvent supporter plusieurs interprétations structurales. Dans ce manuscrit, j'étudie le problème de réduire les incertitudes d'interprétation à l'aide des données sismiques. Particulièrement, j'étudie le problème de déterminer, à l'aide des données sismiques, quels modèles sont plus probables que d'autres dans un ensemble des modèles géologiques cohérents. Ce problème sera connu par la suite comme "le problème d'évaluation des modèles géologiques par données sismiques". J'introduis et formalise ce problème. Je propose de le résoudre par génération des données sismiques synthétiques pour chaque interprétation structurale dans un premier temps, ensuite d'utiliser ces données synthétiques pour calculer la fonction-objectif pour chaque interprétation ; cela permet de classer les différentes interprétations structurales. La difficulté majeure d'évaluer les modèles structuraux à l'aide des données sismiques consiste à proposer des fonctions-objectifs adéquates. Je propose un ensemble de conditions qui doivent être satisfaites par la fonction-objectif pour une évaluation réussie des modèles structuraux à l'aide des données sismiques. Ces conditions imposées à la fonction-objectif peuvent, en principe, être satisfaites en utilisant les données sismiques de surface (« surface seismic data »). Cependant, en pratique il reste tout de même difficile de proposer et de calculer des fonctions-objectifs qui satisfassent ces conditions. Je termine le manuscrit en illustrant les difficultés rencontrées en pratique lorsque nous cherchons à évaluer les interprétations structurales à l'aide des données sismiques de surface. Je propose une fonction-objectif générale faite de deux composants principaux : (1) un opérateur de résidus qui calcule les résidus des données, et (2) un opérateur de projection qui projette les résidus de données depuis l'espace de données vers l'espace physique (le sous-sol). Cette fonction-objectif est donc localisée dans l'espace car elle génère des valeurs en fonction de l'espace. Cependant, je ne suis toujours pas en mesure de proposer une implémentation pratique de cette fonction-objectif qui satisfasse les conditions imposées pour une évaluation réussie des interprétations structurales ; cela reste un sujet de recherche.
- Published
- 2019
37. Controllability and inverse problems for some partial differential equations. Theoretic and numerical aspects
- Author
-
Cindea, Nicolae, Cindea, Nicolae, Laboratoire de Mathématiques Blaise Pascal (LMBP), Université Clermont Auvergne [2017-2020] (UCA [2017-2020])-Centre National de la Recherche Scientifique (CNRS), Université Clermont Auvergne, and Hasnaa Zidani
- Subjects
numerical analysis ,inverse problems ,simulations numériques ,équations aux dérivées partielles ,[MATH.MATH-OC] Mathematics [math]/Optimization and Control [math.OC] ,analyse numérique ,[MATH.MATH-NA] Mathematics [math]/Numerical Analysis [math.NA] ,controllability ,contrôlabilité ,problèmes inverses ,partial differential equations ,[MATH.MATH-OC]Mathematics [math]/Optimization and Control [math.OC] ,simulations ,[MATH.MATH-NA]Mathematics [math]/Numerical Analysis [math.NA] - Published
- 2019
38. Contributions in Audio Modeling for Solving Inverse Problems: Source Separation, Compression and Inpainting
- Author
-
Ozerov, Alexey, Ozerov, Alexey, InterDigital Communications, Université Rennes 1, and Jérôme Idier
- Subjects
factorisation en tenseurs non-négatives ,audio modeling ,inverse problems ,audio inpainting ,Gaussian modeling ,[INFO.INFO-TS] Computer Science [cs]/Signal and Image Processing ,nonnegative tensor factorization ,modélisation gaussienne ,modélisation audio ,nonnegative matrix factorization ,audio source separation ,inpainting audio ,séparation de sources audio ,problèmes inverses ,audio compression ,factorisation en matrices non-négatives ,[INFO.INFO-TS]Computer Science [cs]/Signal and Image Processing ,compression audio - Published
- 2019
39. Development and implementation of compressed sensing-based denoising and acquisition strategies for fluorescence microscopy and optical coherence tomography
- Author
-
Meiniel, William, Laboratoire Traitement et Communication de l'Information (LTCI), Institut Mines-Télécom [Paris] (IMT)-Télécom Paris, Télécom ParisTech, Elsa Angelini, Jean-Christophe Olivo-Marin, and STAR, ABES
- Subjects
Inverse problems ,Fluorescence microscopy ,Imagerie biologique ,Total variation ,Denoising ,Structured illumination microscopy ,Optical coherence tomography ,Parcimonie ,Microscopie à fluorescence ,Microscopie à illumination structurée ,Transformée de Fourier ,Échantillonnage comprimé ,[INFO.INFO-TI] Computer Science [cs]/Image Processing [eess.IV] ,Biological imaging ,Variation totale ,Tomographie en cohérence optique ,Problèmes inverses ,[INFO.INFO-TI]Computer Science [cs]/Image Processing [eess.IV] ,Fourier transform ,Compressed sensing ,Débruitage ,Sparsity - Abstract
The mathematical theory of Compressed Sensing (CS) is a recently developed framework that enables the reconstruction of a signal or an image from very few measurements. In this thesis, we investigate how this theory can be implemented in the context of two optical microscopy techniques : fluorescence microscopy, and optical coherence tomography. Both technologies present different limitations which we prove can be tackled by the embedding of CS driven strategies. The latter can be divided into two categories : image processing algorithmic solutions, and optical acquisition techniques., Dans le cadre de la théorie mathématique de l’échantillonnage comprimé (Compressed Sensing, CS), développée récemment, il est possible de reconstruire un signal ou une image à partir de très peu d’acquisitions. Dans cette thèse, nous étudions comment cette théorie peut être adaptée à deux techniques de microscopie optique : la microscopie à fluorescence, et la tomographie en cohérence optique. Ces deux technologies présentent chacune des limitations, qui peuvent être corrigées par prise en compte de stratégies d’échantillonnage comprimé, que l’on peut diviser en deux catégories : des solutions algorithmiques propres au traitement d’image, et des techniques d’acquisition optique.
- Published
- 2018
40. Simulation-inversion des diagraphies
- Author
-
Vandamme, Thibaud and Institut National Polytechnique de Toulouse - Toulouse INP (FRANCE)
- Subjects
Problèmes inverses ,Diagraphies ,Assimilation de données - Abstract
L’évaluation des formations géologiques consiste en l’analyse et la synthèse de données de différentes sources, de différentes échelles (microscopique à kilométrique) et acquises à des dates très variables. Le processus conventionnel de caractérisation des formations relève alors de l’interprétation physique spécialisée de chacune de ces sources de données et leur mise en cohérence par des processus de synthèse essentiellement d’ordre statistique (corrélation, apprentissage, up-scaling…). Il s’avère cependant qu’une source de données présente un caractère central : les diagraphies. Ces mesures physiques de différentes natures (nucléaires, acoustiques, électromagnétiques…) sont réalisées le long de la paroi d’un puits à l’aide de différentes sondes. Elles sont sensibles aux propriétés in situ des roches, et ce, sur une gamme d’échelle centimétrique à métrique intermédiaire aux carottes et données de test de production. De par leur profondeur d’investigation, les données diagraphiques sont particulièrement sensibles au phénomène d’invasion de boue se produisant lors du forage dans l’abord puits. Traditionnellement, l’invasion est modélisée de façon frustre au moment de l’interprétation diagraphiques par un simple effet piston. Ce modèle simple permet d’honorer le bilan de volume mais ne prend aucunement en compte la physique réelle d’invasion et prive, de fait, les diagraphies de toute portée dynamique. Des essais de modélisation de l’historique d’invasion couplés aux données diagraphiques ont déjà été élaborés par différents laboratoires et une abondante littérature sur le sujet est disponible. Les limitations majeures de ces approches résident dans le caractère sous déterminé des problèmes inverses issus de ces modèles physiques et dans le fait que la donnée diagraphique est réalisée en général sur un intervalle de temps inadaptée au regard du développement de l’invasion. Nous proposons une approche différente qui s’attèle non pas à décrire la physique de l’écoulement mais celle de l’équilibre radial des fluides dans le domaine envahi lorsque les diagraphies sont acquises. Nous montrons qu’en introduisant quelques contraintes pétrophysiques supplémentaires, il est possible d’inverser efficacement la distribution des propriétés dynamiques pour chaque faciès géologique. L’inversion prend en compte le phénomène d’invasion radial dans la zone à eau ainsi que l’équilibre capillaire vertical caractérisant le profil de saturation dans le réservoir pour chaque facies. A chaque profondeur du puits, sont ainsi obtenues perméabilités, pressions capillaires et facteurs de cimentation avec leurs incertitudes ainsi que les lois pétrophysiques propres à chaque faciès. Cette méthode a été appliquée à deux puits réels. En guise de validation, les résultats d’inversion ont été comparés aux mesures laboratoire faites sur carotte. De plus, les perméabilités inversées ont été comparées aux transitoires de pression de mini-tests. La cohérence des résultats montre que, d’une part, les hypothèses de base du modèle sont validées et que, d’autre part, l’approche fournit une estimation fiable de grandeurs dynamiques à toute échelle pour chaque faciès réservoir, et ce, dès l’acquisition des données diagraphiques. L’approche d’inversion proposée a permis de lever une limitation majeure des précédentes tentatives de prédiction des propriétés dynamiques par les diagraphies en reconsidérant la problématique non pas sous l’angle d’une modélisation phénoménologique exacte mais en l’abordant de manière globale à l’échelle d’une chaîne d’étude complète. Cette approche permet de fait une mise en cohérence très précoce des données, d’identifier les faciès d’intérêt et de qualifier les besoins véritables en données. Cet outil s’avère très puissant pour qualifier et caractériser les hétérogénéités pétrophysiques des formations et aider ainsi à résoudre le problème de mise à l’échelle des grandeurs dynamiques
- Published
- 2018
41. Fading regularization methods for data completion
- Author
-
Caille, Laetitia, Laboratoire de Mathématiques Nicolas Oresme (LMNO), Centre National de la Recherche Scientifique (CNRS)-Université de Caen Normandie (UNICAEN), Normandie Université (NU)-Normandie Université (NU), Normandie Université, Franck Delvare, Université de Caen Normandie, Caillé, Laëtitia, and STAR, ABES
- Subjects
Méthode des éléments finis ,Inverse problems ,Identification ,Finite element method ,Data completion problems ,Corrélation d’images numériques ,[SPI.MECA.VIBR]Engineering Sciences [physics]/Mechanics [physics.med-ph]/Vibrations [physics.class-ph] ,[SPI.MECA.MSMECA]Engineering Sciences [physics]/Mechanics [physics.med-ph]/Materials and structures in mechanics [physics.class-ph] ,Problèmes de complétion de donnée ,[SPI.MECA.SOLID]Engineering Sciences [physics]/Mechanics [physics.med-ph]/Solid mechanics [physics.class-ph] ,Problèmes de Cauchy ,Problèmes inverses ,[SPI.MECA.STRU]Engineering Sciences [physics]/Mechanics [physics.med-ph]/Structural mechanics [physics.class-ph] ,Digital Image Correlation ,Regularization ,[SPI.MECA.MSMECA] Engineering Sciences [physics]/Mechanics [physics.med-ph]/Materials and structures in mechanics [physics.class-ph] ,[SPI.MECA.SOLID] Engineering Sciences [physics]/Mechanics [physics.med-ph]/Solid mechanics [physics.class-ph] ,[SPI.MECA.VIBR] Engineering Sciences [physics]/Mechanics [physics.med-ph]/Vibrations [physics.class-ph] ,Problèmes de complétion de données ,Method of fundamental solutions ,Régularisation ,[SPI.MECA.STRU] Engineering Sciences [physics]/Mechanics [physics.med-ph]/Structural mechanics [physics.class-ph] ,Finite Elements Méthod ,Méthode des solutions fondamentales ,Cauchy problems - Abstract
Data completion problems occur in many engineering fields, such as mechanical, acoustical and thermal sciences. Direct measurement of boundary conditions is often confronting with the impossibility of placing the appropriate instrumentation. The determination of these data is then possible only through additional informations. Overprescribed measurements on an accessible part of the boundary lead to the resolution of an inverse Cauchy problem. However, in some cases, direct measurements on the boundary are inaccessible, to overcome this problem field measurements are more easily accessible. This thesis presents fading regularization methods that allow to find, among all the solutions of the equilibrium equation, the solution of the data completion problem which fits at best Cauchy or partial fields data. These iterative processesdo not depend on a regularization coefficient and are robust with respect to the noise on the data, which are recomputed and therefore denoised. We are interested initially in solving Cauchy problems associated with the Helmholtz equation. A complete numerical study is made, usingthe method of fundamental solutions as a numerical method for discretizing the space of the Helmholtz equation solutions. Accurate reconstructions attest to the efficiency and the robustness of the method. We present, in a second time, the generalization of the fading regularization method to the data completion problems from partial full-field measurements. Numerical simulations, for the Lamé operator, using the finite element method or the method of fundamental solutions, show the ability of the iterative process to complete and denoise partial displacements fields data and to identify the boundary conditions at any point. We find precise reconstructions and efficient denoising of the data when the algorithm is applied to real measurements from digital image correlation. A possible change in the material behavior is detected thanks to the analysis of the displacements residuals., Les problèmes de complétion de données interviennent dans divers domaines de la physique, tels que la mécanique, l'acoustique ou la thermique. La mesure directe des conditions aux limites se heurte souvent à l'impossibilité de placer l'instrumentation adéquate. La détermination de ces données n'est alors possible que grâce à des informations complémentaires. Des mesures surabondantes sur une partie accessible de la frontière mènent à la résolution d'un problème inverse de type Cauchy. Cependant, dans certains cas, des mesures directes sur la frontière sont irréalisables, des mesures de champs plus facilement accessibles permettent de pallier ce problème. Cette thèse présente des méthodes de régularisation évanescente qui permettent de trouver, parmi toutes les solutions de l'équation d'équilibre, la solution du problème de complétion de données qui s'approche au mieux des données de type Cauchy ou de champs partiels. Ces processus itératifs ne dépendent pas d'un coefficient de régularisation et sont robustes vis à vis du bruit sur les données, qui sont recalculées et de ce fait débruitées. Nous nous intéressons, dans un premier temps, à la résolution de problèmes de Cauchy associés à l'équation d'Helmholtz. Une étude numérique complète est menée, en utilisant la méthode des solutions fondamentales en tant que méthode numérique pour discrétiser l'espace des solutions de l'équation d'Helmholtz. Des reconstructions précises attestent de l'efficacité et de la robustesse de la méthode. Nous présentons, dans un second temps, la généralisation de la méthode de régularisation évanescente aux problèmes de complétion de données à partir de mesures de champs partielles. Des simulations numériques, pour l'opérateur de Lamé, dans le cadre des éléments finis et des solutions fondamentales, montrent la capacité de la méthode à compléter et débruiter des données partielles de champs de déplacements et à identifier les conditions aux limites en tout point de la frontière. Nous retrouvons des reconstructions précises et un débruitage efficace des données lorsque l'algorithme est appliqué à des mesures réelles issues de corrélation d'images numériques. Un éventuel changement de comportement du matériau est détecté grâce à l'analyse des résidus de déplacements.
- Published
- 2018
42. Methodology for characterization and modelling of an adhesive joint under dynamic multiaxial loadings
- Author
-
Janin, Anthony, Laboratoire de mécanique des solides (LMS), École polytechnique (X)-MINES ParisTech - École nationale supérieure des mines de Paris, Université Paris sciences et lettres (PSL)-Université Paris sciences et lettres (PSL)-Centre National de la Recherche Scientifique (CNRS), Université Paris-Saclay, Andrei Constantinescu, and STAR, ABES
- Subjects
[PHYS.MECA.SOLID] Physics [physics]/Mechanics [physics]/Solid mechanics [physics.class-ph] ,Inverse problems ,Dynamique ,Joint adhésif ,Digital image correlation ,High strain rate ,Mécanique ,Mechanics ,[PHYS.MECA.MEMA]Physics [physics]/Mechanics [physics]/Mechanics of materials [physics.class-ph] ,Adhesive joint ,[PHYS.MECA.MEMA] Physics [physics]/Mechanics [physics]/Mechanics of materials [physics.class-ph] ,Problèmes inverses ,Corrélation d’images ,[PHYS.MECA.SOLID]Physics [physics]/Mechanics [physics]/Solid mechanics [physics.class-ph] - Abstract
Adhesive joints are increasingly employed for bonding critical parts of industrial structures. Therefore, they are subject to complex dynamic loadings. Existing dynamic characterization techniques do not characterize only the adhesive joint, but the complete assembly. This thesis proposes an innovative experimental technique for the characterization of adhesive joints under dynamic multiaxial loadings. The experimental method relies on three main components: i) a conventional split Hopkinson pressure bar (SHPB) apparatus, ii) a novel specimen, denoted as DODECA, which enables testing of three distinct multiaxial loadings using the same method and iii) local strain and stress measurements performed by digital image correlation (DIC). The stress and strain in the adhesive joint are estimated directly from the experimental data both during loading and at the failure point. Another approach based on the Finite Element Model Updating method (FEMU) has been used to complete the adhesive joint model. A numerical inverse method has been developed to obtain elastic, plastic and fracture parameters. Besides, qualitative tools have been proposed to estimate uncertainties on identified parameters. This work has proven the value of local high-speed imaging to characterize adhesive joints.This innovative method has been validated on another specimen denoted as BIADH45. This last study has also emphasized new research interests : in particular, the role of the interfaces in the adhesive joint failure and the benefit of substrates in CMO in dynamic characterization of adhesive joints., Les joints adhésifs sont de plus en plus utilisés dans des structures industrielles critiques. Ils sont donc susceptibles de subir des chargements dynamiques complexes. Les méthodes de caractérisation dynamiques existantes ne caractérisent pas seulement le joint adhésif, mais l'assemblage collé tout entier. Cette thèse propose une méthode innovante pour caractériser un joint adhésif sous sollicitations dynamiques multiaxiales. La méthode expérimentale repose sur trois éléments principaux: i) un système de barres d'Hopkinson conventionnel (SHPB), ii) une nouvelle géométrie d'éprouvette, nommée DODECA, qui permet d'appliquer trois chargements multiaxiaux différents et iii) des mesures locales de déformation et de contrainte par corrélation d'images. La contrainte et la déformation dans le joint adhésif sont estimées directement à partir des données expérimentales pendant le chargement jusqu'au point de rupture. Une autre approche basée sur la méthode FEMU (Finite Element Model Updating) a été utilisée pour compléter le modèle du joint adhésif. Une méthode inverse numérique a été développée pour obtenir les paramètres élastiques, plastiques et de rupture du joint adhésif. De plus, des outils qualitatifs ont été proposés pour estimer les incertitudes sur les paramètres identifiés. Ce travail a prouvé l'intérêt de l'imagerie rapide locale pour caractériser les joints adhésifs.Cette méthode innovante a été validée sur une autre éprouvette nommée BIADH45. Cette dernière étude a aussi mis l'accent sur de nouveaux domaines de recherche : en particulier, le rôle des interfaces dans la rupture du joint adhésif et l'intérêt des substrats en CMO dans la caractérisation dynamique des joints adhésifs.
- Published
- 2018
43. A new decomposition of Gaussian random elements in Banach spaces with application to Bayesian inversion
- Author
-
Croix, Jean-Charles, Department of Applied physics [Ghent], Universiteit Gent = Ghent University [Belgium] (UGENT), FAYOL-ENSMSE - Département Génie mathématique et industriel, Université de Lyon, Mireille Batton-Hubert, and STAR, ABES
- Subjects
Methodes Bayesiennes ,Processus gaussiens continus ,Espace de Hilbert a noyaux auto-reproduisants ,[MATH.MATH-GM]Mathematics [math]/General Mathematics [math.GM] ,Problèmes inverses ,Bayesian approach ,[MATH.MATH-GM] Mathematics [math]/General Mathematics [math.GM] ,Elements aléatoires gaussiens ,Equation aux derivees partielles - Abstract
Nferring is a fundamental task in science and engineering: it gives the opportunity to compare theory to experimental data. Since measurements are finite by nature whereas parameters are often functional, it is necessary to offset this loss of information with external constraints, by regularization.The obtained solution then realizes a trade-off between proximity to data on one side and regularity on the other.For more than fifteen years, these methods include a probabilistic thinking, taking uncertainty into account. Regularization now consists in choosing a prior probability measure on the parameter space and explicit a link between data and parameters to deduce an update of the initial belief. This posterior distribution informs on how likely is a set of parameters, even in infinite dimension.In this thesis, approximation of such methods is studied. Indeed, infinite dimensional probability measures, while being attractive theoretically, often require a discretization to actually extract information (estimation, sampling). When they are Gaussian, the Karhunen-Loève decomposition gives a practical method to do so, and the main result of this thesis is to provide a generalization to Banach spaces, much more natural and less restrictive. The other contributions are related to its practical use with in a real-world example., L'inférence est une activité fondamentale en sciences et en ingénierie: elle permet de confronter et d'ajuster des modèles théoriques aux données issues de l'expérience. Ces mesures étant finies par nature et les paramètres des modèles souvent fonctionnels, ilest nécessaire de compenser cette perte d'information par l'ajout de contraintes externes au problème, via les méthodes de régularisation. La solution ainsi associée satisfait alors un compromis entre d'une part sa proximité aux données, et d'autre part une forme de régularité.Depuis une quinzaine d'années, ces méthodes intègrent un formalisme probabiliste, ce qui permet la prise en compte d'incertitudes. La régularisation consiste alors à choisir uµe mesure de probabilité sur les paramètres du modèle, expliciter le lien entre données et paramètres et déduire une mise-à-jour de la mesure initiale. Cette probabilité a posteriori, permet alors de déterminer un ensemble de paramètres compatibles avec les données tou en précisant leurs vraisemblances respectives, même en dimension infinie.Dans le cadre de cette thèse, la question de l'approximation de tels problèmes est abordée. En effet, l'utilisation dt lois infini-dimensionnelles, bien que théoriquement attrayante, nécessite souvent une discrétisation pour l'extraction d'information (calcul d'estimateurs, échantillonnage). Lorsque la mesure a priori est Gaussienne, la décomposition de Karhunen-Loève est une réponse à cette question. Le résultat principal de cette thèse est sa généralisation aux espaces de Banach, beaucoup plus naturels et moins restrictifs que les espaces de Hilbert. Les autres travaux déveloonés concernent son utilisation dans des applications avec données réelles.
- Published
- 2018
44. Reconstruction tridimensionnelle des objets plats du patrimoine à partir du signal de diffusion inélastique
- Author
-
Guerrero Prado, Patricio, Laboratoire de Mathématiques de Versailles (LMV), Université de Versailles Saint-Quentin-en-Yvelines (UVSQ)-Université Paris-Saclay-Centre National de la Recherche Scientifique (CNRS), Université Paris Saclay (COmUE), Laurent Dumas, Maï Khong Nguyen-Verger, Serge Cohen, and STAR, ABES
- Subjects
Inverse problems ,Imagérie ,Problèmes inverses ,[MATH.MATH-MP]Mathematics [math]/Mathematical Physics [math-ph] ,Reconstruction 3D ,3D reconstruction ,[MATH.MATH-MP] Mathematics [math]/Mathematical Physics [math-ph] ,Compton scattering ,Diffusion Compton ,Imaging ,Radon transform ,Transformée de Radon - Abstract
Three-dimensional characterization of flat ancient material objects has remained a challenging activity to accomplish by conventional X-ray tomography methods due to their anisotropic morphology and flattened geometry.To overcome the limitations of such methodologies, an imaging modality based on Compton scattering is studied in this work. Classical X-ray tomography treats Compton scattering data as noise in the image formation process, while in Compton scattering tomography the conditions are set such that Compton data become the principal image contrasting agent. Under these conditions, we are able to avoid relative rotations between the sample and the imaging setup. Mathematically this problem is addressed by means of the conical Radon transform. A model of the direct problem is presented where the output of the system is the spectral image obtained from an input object. The inverse problem is addressed to estimate the 3D distribution of the electronic density of the input object from the spectral image. The feasibility of this methodology is supported by numerical simulations., La caractérisation tridimensionnelle de matériaux anciens plats est restée une activité non évidente à accomplir par des méthodes classiques de tomographie à rayons X en raison de leur morphologie anisotrope et de leur géométrie aplatie.Pour surmonter les limites de ces méthodologies, une modalité d'imagerie basée sur le rayonnement diffusé Compton est étudiée dans ce travail. La tomographie classique aux rayons X traite les données de diffusion Compton comme du bruit ajouté au processus de formation d'image, tandis que dans la tomographie du rayonnement diffusé, les conditions sont définies de sorte que la diffusion inélastique devienne le phénomène dominant dans la formation d'image. Dans ces conditions, les rotations relatives entre l'échantillon et la configuration d'imagerie ne sont plus nécessaires. Mathématiquement, ce problème est résolu par la transformée de Radon conique. Le problème direct où la sortie du système est l'image spectrale obtenue à partir d'un objet d'entrée est modélisé. Dans le problème inverse une estimation de la distribution tridimensionnelle de la densité électronique de l'objet d'entrée à partir de l'image spectrale est proposée. La faisabilité de cette méthodologie est supportée par des simulations numériques.
- Published
- 2018
45. Automatic noise-based detection of splicing in digital images
- Author
-
Julliand, Thibault, Laboratoire d'Informatique Gaspard-Monge (LIGM), Centre National de la Recherche Scientifique (CNRS)-Fédération de Recherche Bézout-ESIEE Paris-École des Ponts ParisTech (ENPC)-Université Paris-Est Marne-la-Vallée (UPEM), Université Paris-Est, Hugues Talbot, and STAR, ABES
- Subjects
Inverse problems ,Forensique ,Capteurs ,[INFO.INFO-CV] Computer Science [cs]/Computer Vision and Pattern Recognition [cs.CV] ,Sensors ,Problèmes inverses ,[INFO.INFO-CV]Computer Science [cs]/Computer Vision and Pattern Recognition [cs.CV] ,Forensics - Abstract
In this dissertation, we offer three new forensics imagery methods to detect splicing in digital images by exploiting image noise statistics. To do so, we introduce a new tool, the noise density histogram, and its derivative, the noise density contribution histogram. Our methods allow splicing detection on both raw and JPEG images. Although the use of noise discrepancies to detect splicing has already been done multiple times, most existing methods tend to perform poorly on the current generation of high quality images, with high resolution and low noise. The effectiveness of our approaches are demonstrated over a large set of such images, with randomly-generated splicings. We also present a detailed analysis of the evolution of the noise in a digital camera, and how it affects various existing forensics approaches. In a final part, we use the tool we developed in a counter-forensics approach, in order to hide the trace left by splicing on the image noise, Dans cette thèse, nous proposons trois nouvelles méthodes d’imagerie médico-légale pour détecter l’épissage dans les images numériques en exploitant les statistiques de bruit d’image. Pour ce faire, nous introduisons un nouvel outil, l’histogramme de la densité du bruit, et son dérivé, l’histogramme de la contribution de la densité du bruit. Nos méthodes permettent la détection d’épissage sur les images brutes et JPEG. Bien que l’utilisation de différences de bruit pour détecter l’épissage ait déjà été faite plusieurs fois, la plupart des méthodes existantes ont tendance à mal fonctionner sur la génération actuelle d’images de haute qualité, avec une haute résolution et faible bruit. L’efficacité de nos approches est démontrée sur un grand ensemble d’images de ce genre, avec des splicings générés aléatoirement. Nous présentons également une analyse détaillée de l’évolution du bruit dans un appareil photo numérique, et comment il affecte divers existant
- Published
- 2018
46. Efficient high-dimension gaussian sampling based on matrix splitting : application to bayesian Inversion
- Author
-
Bӑrbos , Andrei-Cristian, Laboratoire de l'intégration, du matériau au système ( IMS ), Université Sciences et Technologies - Bordeaux 1-Institut Polytechnique de Bordeaux-Centre National de la Recherche Scientifique ( CNRS ), Université de Bordeaux, Jean-François Giovannelli, François Caron, Laboratoire de l'intégration, du matériau au système (IMS), Université Sciences et Technologies - Bordeaux 1-Institut Polytechnique de Bordeaux-Centre National de la Recherche Scientifique (CNRS), Giovannelli, Jean-François, Caron, François, Heinrich, Christian, Tourneret, Jean-Yves, Moussaoui, Saïd, and STAR, ABES
- Subjects
Inverse problems ,High dimensional ,Distribution gaussienne ,[INFO.INFO-DS]Computer Science [cs]/Data Structures and Algorithms [cs.DS] ,Bayesian inference ,Gaussian distribution ,[INFO.INFO-DS] Computer Science [cs]/Data Structures and Algorithms [cs.DS] ,Monte-Carlo par chaînes de Markov ,[ SPI.SIGNAL ] Engineering Sciences [physics]/Signal and Image processing ,Inférence bayésienne ,[MATH.MATH-ST]Mathematics [math]/Statistics [math.ST] ,Problèmes inverses ,Grande dimension ,Échantillonnage ,Markov Chain Monte Carlo ,[ MATH.MATH-ST ] Mathematics [math]/Statistics [math.ST] ,Sampling ,[MATH.MATH-ST] Mathematics [math]/Statistics [math.ST] ,[SPI.SIGNAL]Engineering Sciences [physics]/Signal and Image processing ,[ INFO.INFO-DS ] Computer Science [cs]/Data Structures and Algorithms [cs.DS] ,[SPI.SIGNAL] Engineering Sciences [physics]/Signal and Image processing - Abstract
The thesis deals with the problem of high-dimensional Gaussian sampling.Such a problem arises for example in Bayesian inverse problems in imaging where the number of variables easily reaches an order of 106_109. The complexity of the sampling problem is inherently linked to the structure of the covariance matrix. Different solutions to tackle this problem have already been proposed among which we emphasizethe Hogwild algorithm which runs local Gibbs sampling updates in parallel with periodic global synchronisation.Our algorithm makes use of the connection between a class of iterative samplers and iterative solvers for systems of linear equations. It does not target the required Gaussian distribution, instead it targets an approximate distribution. However, we are able to control how far off the approximate distribution is with respect to the required one by means of asingle tuning parameter.We first compare the proposed sampling algorithm with the Gibbs and Hogwild algorithms on moderately sized problems for different target distributions. Our algorithm manages to out perform the Gibbs and Hogwild algorithms in most of the cases. Let us note that the performances of our algorithm are dependent on the tuning parameter.We then compare the proposed algorithm with the Hogwild algorithm on a large scalereal application, namely image deconvolution-interpolation. The proposed algorithm enables us to obtain good results, whereas the Hogwild algorithm fails to converge. Let us note that for small values of the tuning parameter our algorithm fails to converge as well.Not with standing, a suitably chosen value for the tuning parameter enables our proposed sampler to converge and to deliver good results., La thèse traite du problème de l’échantillonnage gaussien en grande dimension.Un tel problème se pose par exemple dans les problèmes inverses bayésiens en imagerie où le nombre de variables atteint facilement un ordre de grandeur de 106_109.La complexité du problème d’échantillonnage est intrinsèquement liée à la structure de la matrice de covariance. Pour résoudre ce problème différentes solutions ont déjà été proposées,parmi lesquelles nous soulignons l’algorithme de Hogwild qui exécute des mises à jour de Gibbs locales en parallèle avec une synchronisation globale périodique.Notre algorithme utilise la connexion entre une classe d’échantillonneurs itératifs et les solveurs itératifs pour les systèmes linéaires. Il ne cible pas la distribution gaussienne requise, mais cible une distribution approximative. Cependant, nous sommes en mesure de contrôler la disparité entre la distribution approximative est la distribution requise au moyen d’un seul paramètre de réglage.Nous comparons d’abord notre algorithme avec les algorithmes de Gibbs et Hogwild sur des problèmes de taille modérée pour différentes distributions cibles. Notre algorithme parvient à surpasser les algorithmes de Gibbs et Hogwild dans la plupart des cas. Notons que les performances de notre algorithme dépendent d’un paramètre de réglage.Nous comparons ensuite notre algorithme avec l’algorithme de Hogwild sur une application réelle en grande dimension, à savoir la déconvolution-interpolation d’image.L’algorithme proposé permet d’obtenir de bons résultats, alors que l’algorithme de Hogwild ne converge pas. Notons que pour des petites valeurs du paramètre de réglage, notre algorithme ne converge pas non plus. Néanmoins, une valeur convenablement choisie pour ce paramètre permet à notre échantillonneur de converger et d’obtenir de bons résultats.
- Published
- 2018
47. Sparse Signal Modeling : application to Image Compression, Image Error Concealment and Compressed Sensing
- Author
-
Akbari, Ali, STAR, ABES, Laboratoire d'Informatique, Signal et Image, Electronique et Télécommunication (LISITE), Institut Supérieur d'Electronique de Paris (ISEP), Sorbonne Université, and Maria Trocan
- Subjects
Image compression ,Modélisation des signaux ,Reverse Problems ,Parcimonieuse ,Compression d'image ,Signal models ,Compensation d'erreurs ,Error compensation ,Problèmes inverses ,Acquisition comprimée ,[SPI.SIGNAL]Engineering Sciences [physics]/Signal and Image processing ,Parsimonious ,Compressed acquisition ,[SPI.SIGNAL] Engineering Sciences [physics]/Signal and Image processing - Abstract
Signal models are a cornerstone of contemporary signal and image processing methodology. In this report, two particular signal modeling methods, called analysis and synthesis sparse representation, are studied which have been proven to be effective for many signals, such as natural images, and successfully used in a wide range of applications. Both models represent signals in terms of linear combinations of an underlying set, called dictionary, of elementary signals known as atoms. The driving force behind both models is sparsity of the representation coefficients, i.e. the rapid decay of the representation coefficients over the dictionary. On the other hands, the dictionary choice determines the success of the entire model. According to these two signal models, there have been two main disciplines of dictionary designing; harmonic analysis approach and machine learning methodology. The former leads to designing the dictionaries with easy and fast implementation, while the latter provides a simple and expressive structure for designing adaptable and efficient dictionaries. The main goal of this thesis is to provide new applications to these signal modeling methods by addressing several problems from various perspectives. It begins with the direct application of the sparse representation, i.e. image compression. The line of research followed in this area is the synthesis-based sparse representation approach in the sense that the dictionary is not fixed and predefined, but learned from training data and adapted to data, yielding a more compact representation. A new Image codec based on adaptive sparse representation over a trained dictionary is proposed, wherein different sparsity levels are assigned to the image patches belonging to the salient regions, being more conspicuous to the human visual system. Experimental results show that the proposed method outperforms the existing image coding standards, such as JPEG and JPEG2000, which use an analytic dictionary, as well as the state-of-the-art codecs based on the trained dictionaries. In the next part of thesis, it focuses on another important application of the sparse signal modeling, i.e. solving inverse problems, especially for error concealment (EC), wherein a corrupted image is reconstructed from the incomplete data, and Compressed Sensing recover, where an image is reconstructed from a limited number of random measurements. Signal modeling is usually used as a prior knowledge about the signal to solve these NP-hard problems. In this thesis, inspired by the analysis and synthesis sparse models, these challenges are transferred into two distinct sparse recovery frameworks and several recovery methods are proposed. Compared with the state-of-the-art EC and CS algorithms, experimental results show that the proposed methods show better reconstruction performance in terms of objective and subjective evaluations. This thesis is finalized by giving some conclusions and introducing some lines for future works., La modélisation des signaux peut être vue comme la pierre angulaire de la méthodologie contemporaine de traitement du signal et de l'image. La modélisation parcimonieuse permets la représentation des signaux en termes de combinaisons linéaires d'un ensemble sous-jacent, appelé dictionnaire, de signaux élémentaires connus sous le nom d'atomes. La force motrice de ce modèle est la rareté des coefficients de représentation, c'est-à-dire la décroissance rapide des coefficients de représentation sur le dictionnaire. L'objectif principal de cette thèse est de fournir de nouvelles applications pour cette méthode de modélisation du signal en abordant plusieurs problèmes sous différents angles. On se concentre sur une autre application importante de la modélisation parcimonieuse des signaux, à savoir la résolution des problèmes inverses, notamment la compensation des erreurs, la reconstruction des images incomplètes et la reconstruction des images compresses à partir d'un nombre limité de mesures aléatoires. La modélisation du signal est généralement utilisée comme une connaissance préalable du signal pour résoudre ces problèmes NP-difficiles. Puis, Il commence par l'application directe de la représentation éparse, c'est-à-dire a la compression d'image. Un nouveau codec image basé sur la représentation éparse adaptative sur un dictionnaire formé est proposé, dans lesquels différents niveaux de densité sont assignés aux correctifs d'image appartenant aux régions saillantes. Dans cette thèse, ces défis sont transférés dans des cadres distincts d’acquisition comprimée et plusieurs méthodes de reconstruction sont proposées.
- Published
- 2018
48. Real time simulation of nonlinear structural dynamics. Application in soft robots
- Author
-
Montagud, Santiago and Montagud, Santiago
- Subjects
problèmes inverses ,Simulation en temps réel ,dynamique des structures ,Real time simulation ,inverse problems ,[SPI.MECA.STRU] Engineering Sciences [physics]/Mechanics [physics.med-ph]/Structural mechanics [physics.class-ph] ,structural dynamics ,modélisation non linéaire ,nonlinear modeling - Abstract
The use of soft robots in industry has considerably increased thanks to its adaptability, a better interaction with humans and control techniques development. Soft robots development, comprehending energy absorption in collisions, improving tasks as grasping or allowing operations in confined places, needs new control strategies. Computational control requires structure deformation consideration and new methods are needed in order to simulate real time soft structures deformations. In this work we propose the use of parametric solutions in the resolution of the nonlinear problems in structural dynamics. Parametric solutions allow the pre-computation of a general solution, reducing the computational time. These solutions can be used in real time structural dynamics computations, which can be not affordable by classic methods., L’utilisation de robots dans l’industrie a considérablement augmenté en raison de leur polyvalence, d'une meilleure interaction avec les utilisateurs et le développement de nouvelles techniques de contrôle. Le développement de robot à structure souple pouvant absorber des chocs, améliorer des manœuvres, prendre des objets ou permettre des opérations dans des espaces confinés nécessite de nouvelles stratégies de contrôle. En effet, les calculs nécessaires pour le contrôle demandent de considérer la déformation de la structure et donc de développer des méthodes permettant de simuler en temps réel la dynamique de ces structures déformables. Dans ce travail on propose l’utilisation de solutions paramétriques pour la résolution de problèmes de structures en dynamique non linéaire. Ces solutions paramétriques permettent le pré-calcul d’une solution générale. Celle-ci est ensuite utilisée pour calculer le comportement dynamique en temps réel, ce qui est impossible avec des techniques classiques.
- Published
- 2018
49. Solveurs performants pour l'optimisation sous contraintes en identification de paramètres
- Author
-
Nifa, Naoufal, Laboratoire de mécanique des sols, structures et matériaux (MSSMat), CentraleSupélec-Centre National de la Recherche Scientifique (CNRS), Université Paris-Saclay, Denis Aubry, and STAR, ABES
- Subjects
Inverse problems ,Optimisation sous contraintes ,[SPI.OTHER]Engineering Sciences [physics]/Other ,[SPI.OTHER] Engineering Sciences [physics]/Other ,Problèmes inverses ,Block preconditioners ,Préconditionneurs par blocs ,Saddle point systems ,Systèmes point-Selle ,Constrained optimization - Abstract
This thesis aims at designing efficient numerical solution methods to solve linear systems, arising in constrained optimization problems in some structural dynamics and vibration applications (test-analysis correlation, model error localization,hybrid model, damage assessment, etc.). These applications rely on solving inverse problems, by means of minimization of an energy-based functional. This latter involves both data from a numerical finite element model and from experimental tests, which leads to high quality models, but the associated linear systems, that have a saddle-point coefficient matrices, are long and costly to solve. We propose two different classes of methods to deal with these problems. First, a direct factorization method that takes advantage of the special structures and properties of these saddle point matrices. The Gaussian elimination factorization is implemented in order to factorize the saddle point matrices block-wise with small blocks of orders 2 and using a fill-in reducing topological ordering. We obtain significant gains in memory cost (up to 50%) due to enhanced factors sparsity in comparison to literature. The second class is based on a double projection of the generated saddle point system onto the nullspace of the constraints. The first projection onto the kinematic constraints is proposed as an explicit process through the computation of a sparse null basis. Then, we detail the application of a constraint preconditioner within a Krylov subspace solver, as an implicit second projection of the system onto the nullspace of the sensors constraints. We further present and compare different approximations of the constraint preconditioner. The approach is implemented in a parallel distributed environment using the PETSc library. Significant gains in computational cost and memory are illustrated on several industrial applications., Cette thèse vise à concevoir des solveurs efficaces pour résoudre des systèmes linéaires, résultant des problèmes d'optimisation sous contraintes dans certaines applications de dynamique des structures et vibration (la corrélation calcul-essai, la localisation d'erreur, le modèle hybride, l'évaluation des dommages, etc.). Ces applications reposent sur la résolution de problèmes inverses, exprimés sous la forme de la minimisation d'une fonctionnelle en énergie. Cette fonctionnelle implique à la fois, des données issues d'un modèle numérique éléments finis, et des essais expérimentaux. Ceci conduit à des modèles de haute qualité, mais les systèmes linéaires point-selle associés, sont coûteux à résoudre. Nous proposons deux classes différentes de méthodes pour traiter le système. La première classe repose sur une méthode de factorisation directe profitant de la topologie et des propriétés spéciales de la matrice point-selle. Après une première renumérotation pour regrouper les pivots en blocs d'ordre 2. L'élimination de Gauss est conduite à partir de ces pivots et en utilisant un ordre spécial d'élimination réduisant le remplissage. Les résultats numériques confirment des gains significatifs en terme de remplissage, jusqu'à deux fois meilleurs que la littérature pour la topologie étudiée. La seconde classe de solveurs propose une approche à double projection du système étudié sur le noyau des contraintes, en faisant une distinction entre les contraintes cinématiques et celles reliées aux capteurs sur la structure. La première projection est explicite en utilisant une base creuse du noyau. La deuxième est implicite. Elle est basée sur l'emploi d'un préconditionneur contraint avec des méthodes itératives de type Krylov. Différentes approximations des blocs du préconditionneur sont proposées. L'approche est implémentée dans un environnement distribué parallèle utilisant la bibliothèque PETSc. Des gains significatifs en terme de coût de calcul et de mémoire sont illustrés sur plusieurs applications industrielles.
- Published
- 2017
50. Développements d'outils biomécaniques pour la caractérisation des propriétés mécaniques de la plaque d'athérosclérose coronarienne par échographie intravasculaire
- Author
-
Tacheau, Antoine, Techniques de l'Ingénierie Médicale et de la Complexité - Informatique, Mathématiques et Applications, Grenoble - UMR 5525 (TIMC-IMAG), Institut polytechnique de Grenoble - Grenoble Institute of Technology (Grenoble INP )-VetAgro Sup - Institut national d'enseignement supérieur et de recherche en alimentation, santé animale, sciences agronomiques et de l'environnement (VAS)-Centre National de la Recherche Scientifique (CNRS)-Université Grenoble Alpes [2016-2019] (UGA [2016-2019]), Université Grenoble Alpes, Gérard Finet, Jacques Ohayon, and STAR, ABES
- Subjects
[SDV.IB] Life Sciences [q-bio]/Bioengineering ,Athérosclérose ,[SDV.MHEP] Life Sciences [q-bio]/Human health and pathology ,Biomécanique ,Soft tissue ,Atherosclerosis ,Elastographie ,Coronary artery disease ,Maladies coronariennes ,Problèmes inverses ,Tissus mous ,Inverse problem ,Biomechanics ,[SDV.IB]Life Sciences [q-bio]/Bioengineering ,Elastography ,[SDV.MHEP]Life Sciences [q-bio]/Human health and pathology - Abstract
This work focuses on the development of innovative tools and methodologies for coronary artery wall characterization. These tools are required to support the diagnosis of cardiovascular disease. A mechanical approach was used to implement inverse resolution methods that provide key data about the mechanical properties of tissues. Resolution of inverse problems in mechanics uses strain fields, which are computed thanks to elastography algorithms. Two main characterization tools were used: one aimed to allow lesions detection by applying a virtual palpation technique and the other aimed to identify a reconstructed distribution of the Young's modulus. Palpography and Modulography tools can facilitate in vivo atherosclerotic plaques characterization. The current dissertation brings contribution in the elastography, palpography and modulography fields.We started by improving the iMOD Modulography tool (previously developed application to compute the Young's modulus map). We adapted iMOD to the new constraints related to high definition IVUS modality (HD-IVUS). This new advanced tool was named E-iMOD (Extended iMOD) and its performances were was evaluated with simulated elastography data.In next step, we developed a new version of the strain elastography algorithm. Indeed, strains estimations are critical to solve of the inverse problem in mechanics. It was shown that the introduced enhancements improved estimation for both vessel simulations and phantom experimental data.In a third stage, an analysis was lead to access the contribution of HD-IVUS technology to current IVUS imaging on simulated and experimental data. Even though hopeful results were showed, further efforts in the elastography algorithm are required in order to fully exploit the HD improvements.The last part of this work deals with the palpography tool that allows the detection of lesions. First, experimental ultrasound acquisitions from animal arteries were processed. These data were involved in a validation prototcol of palpography technique developed in our team. In a second part, a review of several palpography techniques allowed us to highlight their strengths and weaknesses on simulated data. A new palpation index adapted to anisotropic material was also introduced. Finally, an original theoretical method rethinking the results of palpography was proposed. This approach computes a first modulogram to improve the prior preconditioning of optimization processes, such as the optimization process of E-iMOD, Ces travaux de thèse portent sur le développement d’outils et de méthodologies innovantes permettant la caractérisation de la paroi artérielle coronarienne. Ce développement est nécessaire pour aider au diagnostic des maladies cardiovasculaires. L’approche mécanique a été utilisée pour mettre en place des méthodes de résolution inverse restituant des informations clés sur les propriétés mécaniques des tissus. La résolution du problème inverse en mécanique utilise entre autres des champs de déformation dont l’estimation est réalisée à l’aide d’algorithmes d’élastographie de déformation. Deux outils de caractérisation ont été étudiés : l’un visant à faciliter la détection par une palpation virtuelle et l’autre l’identification par la reconstruction de cartographies locales du module de Young. Ces outils de palpographie et de modulographie peuvent faciliter la caractérisation in vivo des plaques d’athérosclérose. Les contributions apportées portent successivement sur l’élastographie, la palpographie et la modulographie.Nous avons tout d’abord amélioré l’outil de modulographie iMOD (application existante de reconstruction du module de Young) en l’adaptant aux nouvelles contraintes liées aux modalités IVUS dites de haute définition (HD-IVUS). Les performances de ce nouvel outil perfectionné nommé E-iMOD (Extended iMOD) ont été évaluées en l’appliquant sur des données d’élastographie simulées.Ensuite, nous avons développé une nouvelle version de l’algorithme d’élastographie de déformation. En effet, l’estimation des déformations est un point critique conditionnant la bonne résolution du problème inverse en mécanique. Il a été montré que les améliorations introduites permettent l’amélioration des estimations sur des données simulées et sur des données expérimentales de fantôme.Dans un troisième temps, une analyse de l’apport de la technologie HD-IVUS vis-à-vis de l’imagerie IVUS actuelle a été menée sur données simulées et expérimentales. Elle a montré que les résultats peuvent être prometteurs mais que des efforts de développement sur l’élastographie sont encore nécessaires afin d’exploiter pleinement les avancées techniques de la HD.Une dernière partie traite de l’outil de palpographie relatif à la détection des lésions. Tout d’abord, ce volet est l’occasion de mettre en œuvre une phase expérimentale sur des acquisitions d’artères animales. Le traitement de ces données participe à une phase de validation d’une technique de palpographie développée dans l’équipe. Dans un second volet, une revue de littérature de différentes techniques de palpographie nous permet de mettre en avant les points forts et les faiblesses de ces techniques sur des données simulées. Nous introduisons également un nouvel indice de palpation adapté aux milieux anisotropes. Enfin, une méthode théorique originale repensant les résultats de la palpographie a été proposée. Cette approche permet le calcul d’un premier modulogramme pouvant améliorer le pré-conditionnement des processus d’optimisation de type E-iMOD
- Published
- 2017
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.