371 results on '"Problèmes inverses"'
Search Results
2. Relations among atmospheric structure, refraction, and extinction.
- Author
-
Young, Andrew T.
- Subjects
- *
INVERSE problems - Abstract
The refraction and extinction in the Earth's atmosphere depend on the atmosphere's structure, so it was natural to try to infer that structure from optical observations. Efforts to extract structure fromobserved refractions led to proof that this is possible only below the astronomical horizon. Direct studies of the real atmosphere show complicated, variable structure. The complex history of relations between structure and refraction is outlined by citing some important works. [ABSTRACT FROM AUTHOR]
- Published
- 2022
- Full Text
- View/download PDF
3. Time reversal for obstacle location in elastodynamics from acoustic recording.
- Author
-
Assous, Franck and Lin, Moshe
- Subjects
- *
TIME reversal , *ELASTODYNAMICS , *SOUND wave scattering , *ELASTICITY , *FINITE element method , *BREAST cancer - Abstract
The Note is concerned with a feasibility study of time reversal in a non-homogeneous elastic medium, from data recorded in an acoustic medium. Our aim here is to determine the presence and some physical properties of elastic "inclusions" (unknown, not observable solid objects, characterized by their elastic properties) from partial observations of acoustic waves scattered by these inclusions. A finite element numerical method, based on a variational acousto-elastodynamics formulation, is derived and used to solve the forward, and then, the time-reversed problem. A criterion, derived from the reverse time migration framework, is introduced, to help construct images of the inclusions to be determined. Numerical illustrations on configurations that mimic the breast cancer configuration are proposed, and show that one can differentiate between two inclusions, even with different properties. [ABSTRACT FROM AUTHOR]
- Published
- 2019
- Full Text
- View/download PDF
4. Méthodes de démélange et de déconvolution d’objets dans des images : applications en imagerie astronomique à haut-contraste
- Author
-
Thé, Samuel, Centre de Recherche Astrophysique de Lyon (CRAL), École normale supérieure de Lyon (ENS de Lyon)-Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Université de Lyon-Institut national des sciences de l'Univers (INSU - CNRS)-Centre National de la Recherche Scientifique (CNRS), Université Claude Bernard - Lyon I, Maud Langlois, and Éric Thiébaut
- Subjects
Inverse problems ,Opimization ,Déconvolution aveugle ,High-contrast imaging ,Blind deconvolution ,Problèmes inverses ,Optimisation ,Spectroscopie ,Reconstruction ,Imagerie haut-contraste ,[PHYS.ASTR]Physics [physics]/Astrophysics [astro-ph] ,Spectroscopy - Abstract
High-contrast imaging of circumstellar environments plays a key role in understanding the formation and evolution of exoplanets. Instruments such as SPHERE have been dedicated to imaging such environments thanks to the coupling of extreme adaptive optics and powerful coronagraphy. However, aberrations in the light path result in strong artifacts in the acquired data. These "stellar leakages", combined with blurring effects and noises from the instrument limit greatly the study of such environments. During my PhD thesis, I developed several methods to overcome the challenging problem of disentangling objects of interest from perturbed data. Using realistic simulations and raw data from the SPHERE/IRDIS instrument, I discuss the modeling of the data in terms of statistics and in terms of the different components that form them. Using the maximum a posteriori, to estimate the parameters of interest, I focused my work on three applications in astronomical imaging. Addressing the unavoidable blurring of optical instruments, I first worked on the blind deconvolution problem. Stating the problem as the estimation of both the object and the instrumental effects, I discussed the scaling ambiguity of the bi-linear model formed by these two components. Indeed scaling one component by a factor and the other by the inverse factor yields the same model. I proposed a strategy to estimate both components using this scaling ambiguity. Called Amors, the algorithm uses the optimal scaling in the sense of the maximum a posteriori to reduce the number of hyper-parameters when estimating parameters of a bi-linear model. Noting that problems such as blind deconvolution depend greatly on the starting point, I also considered the starting point of the algorithm. Including the optimal scaling in the estimation process improves the convergence speed whatever the scaling of the initialization. I also focused my work on the SPHERE/IRDIS long-slit spectroscopy (LSS) mode. To extract a companion spectrum from LSS data, I developed the Exospeco algorithm. It uses a combined model of the contribution of the companion and the stellar leakages. Jointly with Exospeco, I developed a flexible calibration method that takes into account any distortions due to the optics of the instrument (e.g. shear effects). I demonstrated the importance of this step by confronting the algorithm to real LSS data. Thanks to its alternating estimation of the two components, and using only a single frame of LSS data, Exospeco reduces effectively the self-subtraction bias that affects state-of-the-art methods. The results on injected companions in real data obtained by the method show a faithful recovery of the companion SED for companions 10^4 fainter than their host star at angular separations until 0.4''. Building upon the Amors algorithm, Exospeco is easy to use by limiting the number of tuning parameters. In the last part of my work, I discussed the impact of the statistical model of these stellar leakages when imaging extended objects such as protoplanetary disks around young stars. Noting that the structures present in angular differential imaging (ADI) data are spatially correlated, I discuss several approximations of the covariance matrix of the noise component. This component of the data accounts for fluctuations of the stellar leakages, photon noise, as well as other sources of uncertainties. I validated on a real ADI dataset the Asap approximation which builds a sparse approximation of the inverse of the covariance matrix. Finally, I developed an unsupervised strategy that selects automatically the level of sparsity of this approximation.; L'imagerie à haut-contraste d'environnements circumstellaires joue un rôle clé dans notre compréhension de la formation et de l'évolution des exoplanètes. Des instruments tels que SPHERE sont dédiés à l'imagerie de tels environnements grâce à une optique adaptative extrême ainsi qu'une puissante coronographie. Cependant, des aberrations dans le chemin optique produisent de fortes perturbations dans les données. Combinées aux effets de flous et aux bruits venant de l'instrument, ces «fuites stellaires» limitent fortement l'étude de ces environnements. Durant ma thèse, j'ai développé différentes méthodes pour surmonter le problème consistant à retrouver les objets d'intérêts à partir de données perturbées. À l'aide de simulations réalistes et de données brutes de l'instrument SPHERE/IRDIS, je discute dans ce manuscrit de la modélisation des données en termes de statistiques et en termes des différentes composantes qui les forment. En utilisant le maximum a posteriori, pour estimer les paramètres d'intérêt, j'ai concentré mon travail sur trois applications en imagerie astronomique. Abordant le flou inévitable des instruments optiques, j'ai d'abord travaillé sur le problème de la déconvolution aveugle. En posant le problème comme l'estimation à la fois de l'objet et des effets instrumentaux, j'ai discuté de l'ambiguïté d'échelle du modèle bilinéaire formé par ces deux composantes. En effet, en mettant à l'échelle une composante par un facteur et l'autre par le facteur inverse, on obtient le même modèle. J'ai proposé une stratégie, appelé Amors, pour estimer les deux composantes en utilisant cette ambiguïté d'échelle. L'algorithme utilise la mise à l'échelle optimale au sens du maximum a posteriori pour réduire le nombre d'hyper-paramètres lors de l'estimation des paramètres d'un modèle bilinéaire. Notant que des problèmes tels que la déconvolution aveugle dépendent fortement du point de départ, j'ai également considéré l'initialisation de l'algorithme. L'inclusion de la mise à l'échelle optimale dans le processus d'estimation améliore la vitesse de convergence quel que soit le facteur d'échelle de l'initialisation. J'ai également concentré mes travaux sur le mode de spectroscopie longue fente (LSS) de SPHERE/IRDIS. Pour extraire le spectre d'un compagnon des données LSS, j'ai développé l'algorithme Exospeco. Il utilise un modèle combiné de la contribution du compagnon et des fuites stellaires. En parallèle, j'ai développé une méthode de calibration flexible qui prend en compte les distorsions dues à l'optique de l'instrument (effets de cisaillement). J'ai démontré l'importance de cette étape en confrontant l'algorithme à des données réelles. Grâce à son estimation alternée des deux composantes, et en utilisant une seule image de données LSS, Exospeco réduit efficacement le biais d'auto-soustraction qui affecte les méthodes de l'état-de-l'art. Les résultats obtenus par la méthode sur des compagnons injectés dans des données réelles montrent une récupération fidèle de la SED pour des compagnons 10^4 fois plus faibles que leur étoile hôte à des séparations angulaires jusqu'à 0.4''. Dans la dernière partie de mon travail, j'ai discuté de l'impact du modèle statistique de ces fuites stellaires lors de l'imagerie d'objets étendus tels que les disques protoplanétaires autour de jeunes étoiles. Notant que les structures présentes dans les données d'imagerie différentielle angulaire (ADI) sont spatialement corrélées, je discute plusieurs approximations de la matrice de covariance de la composante bruit. Cette composante des données tient compte des fluctuations des fuites stellaires, du bruit de photons, ainsi que d'autres sources d'incertitudes. J'ai validé sur un jeu de données ADI réel l'approximation Asap qui construit une approximation parcimonieuse de l'inverse de la matrice de covariance. Enfin, j'ai développé une stratégie non supervisée qui sélectionne automatiquement le niveau de parcimonie de cette approximation.
- Published
- 2023
5. Méthodes d'apprentissage pour l'IRM computationnelle
- Author
-
Gossard, Alban, Institut de Mathématiques de Toulouse UMR5219 (IMT), Université Toulouse Capitole (UT Capitole), Université de Toulouse (UT)-Université de Toulouse (UT)-Institut National des Sciences Appliquées - Toulouse (INSA Toulouse), Institut National des Sciences Appliquées (INSA)-Université de Toulouse (UT)-Institut National des Sciences Appliquées (INSA)-Université Toulouse - Jean Jaurès (UT2J), Université de Toulouse (UT)-Université Toulouse III - Paul Sabatier (UT3), Université de Toulouse (UT)-Centre National de la Recherche Scientifique (CNRS), Université Toulouse 3 Paul Sabatier, Pierre Weiss, Frédéric de Gournay, and Université Paul Sabatier - Toulouse III
- Subjects
Problème inverse ,learning ,inverse problems ,optimisation ,réseaux de neurones ,[INFO.INFO-NE]Computer Science [cs]/Neural and Evolutionary Computing [cs.NE] ,neural networks ,apprentissage ,problèmes inverses ,[INFO.INFO-LG]Computer Science [cs]/Machine Learning [cs.LG] ,[STAT.ML]Statistics [stat]/Machine Learning [stat.ML] ,[INFO.INFO-TI]Computer Science [cs]/Image Processing [eess.IV] ,Inverse problem ,[INFO.INFO-IM]Computer Science [cs]/Medical Imaging ,[MATH.MATH-OC]Mathematics [math]/Optimization and Control [math.OC] ,Réseau de neurones ,optimization ,MRI ,IRM - Abstract
This thesis addresses different aspects of learning for computational Magnetic Resonance Imaging. The first chapter is an introduction to computational imaging and it illustrates through the case of MRI the developments that have guided this field. It also contains a pedagogical introduction to inverse problems and the associated reconstruction methods. This introduction traces the early linear reconstruction methods, the emergence of non-linear methods and recent advances in reconstruction methods that are learned with neural networks. The following chapters are based on different publications or preprints and, although links are made between the different chapters, they can be read independently of each other. The second chapter deals with spurious minimizers in the optimization of non-uniform Fourier sampling schemes. The motivation is the optimization of MRI sampling schemes for a chosen reconstruction method and for a specific image database. This chapter shows that this type of problem has a combinatorial number of minimizers that can disappear with the large number of images in the training database but that classical MRI databases do not contain enough images to expect this phenomenon to appear. The third chapter proposes a method to globalize the convergence for the optimization of Fourier sampling schemes. This drastically reduces the numerical cost of the optimization while maintaining a significant gain in the image quality. The fourth chapter deals with the training of neural networks that are adaptive to changes in the physics of the acquisition. This formalism allows to solve several blind inverse problems. Finally, the fifth chapter tackles the optimization of neural networks. It proposes a method to scale the learning rate and this opens the way to automate the choice of the hyperparameters during the training phase.; Cette thèse traite d'aspects liés à l'apprentissage pour l'Imagerie par Résonance Magnétique computationnelle. Le premier chapitre est une introduction à l'imagerie computationnelle et illustre à travers le cas de l'IRM les évolutions ayant guidé ce domaine. Il contient aussi une introduction pédagogique aux problèmes inverses et les méthodes de reconstruction associées. Cette introduction retrace les premières méthodes de reconstruction linéaires, l'apparition de méthodes non linéaires et les méthodes récentes de reconstruction apprises à l'aide de réseaux de neurones. Le second chapitre traite des minimiseurs parasites dans l'optimisation de schémas d'échantillonnage de Fourier dont la motivation est l'optimisation de schémas d'échantillonnage pour l'IRM pour une méthode de reconstruction choisie et pour une base de données d'images spécifique. Ce chapitre montre que ce type de problème a un nombre combinatoire de minimiseurs qui peuvent disparaître avec le grand nombre d'images dans la base de données mais que les bases de données classiques d'IRM ne contiennent pas assez d'images pour espérer voir apparaître ce phénomène. Le troisième chapitre propose une méthode de globalisation de la convergence pour l'optimisation de schémas de Fourier. Cela permet de grandement réduire le coût numérique de l'optimisation tout en conservant un gain dans l'amélioration des images. Le quatrième chapitre traite de l'entraînement de réseaux de neurones "unrolled" adaptatifs à des changements dans la physique de l'acquisition. Ce formalisme permet de résoudre plusieurs problèmes inverses aveugles. Enfin, le cinquième chapitre traite des méthodes d'optimisation pour des réseaux de neurones de manière générale. Il propose une méthode permettant d'introduire une mise à l'échelle du pas pour l'optimisation de réseaux de neurones. Cela ouvre la voie à une automatisation du choix des hyperparamètres lors de l'entraînement.
- Published
- 2022
6. Régularisation par la variation totale pour la reconstruction d'images constantes par morceaux : identification du support et méthodes numériques sans grille
- Author
-
Petit, Romain, CEntre de REcherches en MAthématiques de la DEcision (CEREMADE), Université Paris Dauphine-PSL, Université Paris sciences et lettres (PSL)-Université Paris sciences et lettres (PSL)-Centre National de la Recherche Scientifique (CNRS), Méthodes numériques pour le problème de Monge-Kantorovich et Applications en sciences sociales (MOKAPLAN), Université Paris sciences et lettres (PSL)-Université Paris sciences et lettres (PSL)-Centre National de la Recherche Scientifique (CNRS)-Université Paris Dauphine-PSL, Université Paris sciences et lettres (PSL)-Université Paris sciences et lettres (PSL)-Centre National de la Recherche Scientifique (CNRS)-Inria de Paris, Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria), Vincent Duval, and Yohann De Castro
- Subjects
Inverse problems ,Total variation ,Variation totale ,[INFO.INFO-TS]Computer Science [cs]/Signal and Image Processing ,Problèmes inverses ,Parcimonie ,[MATH.MATH-OC]Mathematics [math]/Optimization and Control [math.OC] ,Sparsity - Abstract
This thesis is devoted to the recovery of piecewise constant images from noisy linear measurements. We aim at analyzing variational reconstruction methods based on total (gradient) variation regularization. The total variation functional has been extensively used in imaging since the 90's. Its minimization is known to produce piecewise constant images, which hence have some kind of sparsity (they can be decomposed as the superposition of a few simple shapes). However, the performance of this regularizer has to our knowledge not extensively been studied from a sparse recovery viewpoint. This thesis aims at bridging this gap.We first focus on noise robustness results. We assume that sought-after image is sparse, and study the structure of reconstructions in a low noise regime: are they sparse, made of the same number of shapes, and are these shapes close to those appearing in the unknown image? We then turn to numerical methods for total variation regularization. Existing techniques rely on the introduction of a fixed spatial discretization, which often yield reconstruction artifacts such as anisotropy or blur. We propose an algorithm which does not suffer from this grid bias, and produces a sparse representation of the reconstructed image.; On s'intéresse dans cette thèse à une famille de problèmes inverses, qui consistent à reconstruire une image à partir de mesures linéaires possiblement bruitées. On cherche à analyser les méthodes de reconstruction variationnelles utilisant un régulariseur spécifique, la variation totale (du gradient). Cette fonctionnelle est utilisée en imagerie depuis les travaux de Rudin Osher et Fatemi, menés en 1992. Alors qu'il est bien connu que sa minimisation produit des images constantes par morceaux, présentant une forme de parcimonie (elles sont composées d'un petit nombre de formes simples), ce point de vue n'a à notre connaissance pas été privilégié pour analyser les performances de ce régulariseur. Dans cette thèse, on se propose de mener cette étude. Dans un premier temps, on considère les reconstructions obtenues par minimisation de la variation totale dans un régime de faible bruit, et on étudie leur proximité avec l'image inconnue. Puisque cette dernière est supposée parcimonieuse, on s'intéresse particulièrement à la structure de la reconstruction: est-elle elle-même parcimonieuse, est-elle composée du même nombre de formes, et ces formes sont-elles proches de celles présentes dans l'image inconnue ? Dans une seconde partie, on propose une méthode numérique pour résoudre les problèmes variationnels associés à ce régulariseur. On introduit un algorithme ne reposant pas sur l'introduction d'une discrétisation spatiale fixe. Ceci a l'avantage, contrairement aux techniques existantes, de n'introduire ni flou ni anisotropie dans les images reconstruites, et d'en produire une représentation parcimonieuse.
- Published
- 2022
7. Quelques contributions dans le domaine des problèmes de reconstruction
- Author
-
Herzet, Cédric, SIMulation pARTiculaire de Modèles Stochastiques (SIMSMART), Inria Rennes – Bretagne Atlantique, Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria)-Institut de Recherche Mathématique de Rennes (IRMAR), Université de Rennes (UR)-Institut National des Sciences Appliquées - Rennes (INSA Rennes), Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA)-École normale supérieure - Rennes (ENS Rennes)-Université de Rennes 2 (UR2)-Centre National de la Recherche Scientifique (CNRS)-Institut Agro Rennes Angers, Institut national d'enseignement supérieur pour l'agriculture, l'alimentation et l'environnement (Institut Agro)-Institut national d'enseignement supérieur pour l'agriculture, l'alimentation et l'environnement (Institut Agro)-Université de Rennes (UR)-Institut National des Sciences Appliquées - Rennes (INSA Rennes), Institut national d'enseignement supérieur pour l'agriculture, l'alimentation et l'environnement (Institut Agro)-Institut national d'enseignement supérieur pour l'agriculture, l'alimentation et l'environnement (Institut Agro), Université de Rennes 1, Valérie Monbet, and ANR-11-LABX-0020,LEBESGUE,Centre de Mathématiques Henri Lebesgue : fondements, interactions, applications et Formation(2011)
- Subjects
Inverse problems ,Optimization ,Bayesian methods ,Méthodes Bayésiennes ,Model-order reduction ,Représentations parcimonieuses ,Sparse representations ,Réduction de modèles ,[INFO.INFO-TS]Computer Science [cs]/Signal and Image Processing ,[STAT.ML]Statistics [stat]/Machine Learning [stat.ML] ,Problèmes inverses ,Screening ,Optimisation ,[MATH.MATH-NA]Mathematics [math]/Numerical Analysis [math.NA] - Published
- 2022
8. Reconstruction de l'activité corticale à partir de données MEG à l'aide de réseaux cérébraux et de délais de transmission estimés à partir d'IRMd
- Author
-
Kojčić, Ivana, Computational Imaging of the Central Nervous System (ATHENA), Inria Sophia Antipolis - Méditerranée (CRISAM), Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria), Institut National de Recherche en Informatique et en Automatique (Inria), Université Côte d'Azur (UCA), Université Côte d'Azur, Théodore Papadopoulo, Samuel Deslauriers-Gauthier, European Project: 694665,H2020 ERC,ERC-2015-AdG,CoBCoM(2016), Kojcic, Ivana, Computational Brain Connectivity Mapping - CoBCoM - - H2020 ERC2016-09-01 - 2021-08-31 - 694665 - VALID, and Théodore Papadopoulo
- Subjects
connectivité cérébrale structurelle et fonctionnelle ,MEG ,source localization ,network neuroscience ,[INFO.INFO-TS] Computer Science [cs]/Signal and Image Processing ,inverse problems ,neurosciences des réseaux ,[SCCO.NEUR]Cognitive science/Neuroscience ,[SCCO.NEUR] Cognitive science/Neuroscience ,[INFO.INFO-IM] Computer Science [cs]/Medical Imaging ,IRM de diffusion ,Structural and fonctional brain connectivity ,[INFO.INFO-MO]Computer Science [cs]/Modeling and Simulation ,diffusion MRI ,problèmes inverses ,localisation de sources ,[INFO.INFO-TS]Computer Science [cs]/Signal and Image Processing ,[INFO.INFO-IM]Computer Science [cs]/Medical Imaging ,[INFO.INFO-MO] Computer Science [cs]/Modeling and Simulation ,structural and functional brain connectivity - Abstract
White matter fibers transfer information between brain regions with delays that are observable with magnetoencephalography and electroencephalography (M/EEG) due to their millisecond temporal resolution. We can represent the brain as a graph where nodes are the cortical sources or areas and edges are the physical connections between them: either local (between adjacent vertices on the cortical mesh) or non-local (long-range white matter fibers). Long-range anatomical connections can be obtained with diffusion MRI (dMRI) tractography which yields a set of streamlines representing white matter fiber bundles. Given the streamlines’ lengths and the information conduction speed, transmission delays can be estimated for each connection. dMRI can thus give an insight into interaction delays of the macroscopicbrain network.Localizing and recovering electrical activity of the brain from M/EEG measurements is known as the M/EEG inverse problem. Generally, there are more unknowns (brain sources) than the number of sensors, so the solution is non-unique and the problem ill-posed. To obtain a unique solution, prior constraints on the characteristics of source distributions are needed. Traditional linear inverse methods deploy different constraints which can favour solutions with minimum norm, impose smoothness constraints in space and/or time along the cortical surface, etc. Yet, structural connectivity is rarely considered and transmission delays almost always neglected.The first contribution of this thesis consists of a multimodal preprocessing pipeline used to integrate structural MRI, dMRI and MEG data into a same framework, and of a simulation procedure of source-level brain activity that was used as a synthetic dataset to validate the proposed reconstruction approaches.In the second contribution, we proposed a new framework to solve the M/EEG inverse problem called Connectivity-Informed M/EEG Inverse Problem (CIMIP), where prior transmission delays supported by dMRI were included to enforce temporal smoothness between time courses of connected sources. This was done by incorporating a Laplacian operator into the regularization, that operates on a time-dependent connectivity graph. Nonetheless, some limitations of the CIMIP approach arised, mainly due to the nature of the Laplacian, which acts on the whole graph, favours smooth solutions across all connections, for all delays, and it is agnostic to directionality.In this thesis, we aimed to investigate patterns of brain activity during visuomotor tasks, during which only a few regions typically get significantly activated, as shown by previous studies. This led us to our third contribution, an extension of the CIMIP approach that addresses the aforementioned limitations, named CIMIP_OML (“Optimal Masked Laplacian”). We restricted the full source space network (the whole cortical mesh) to a network of regions of interest and tried to find how the information is transferred between its nodes. To describe the interactions between nodes in a directed graph, we used the concept of network motifs. We proposed an algorithm that (1) searches for an optimal network motif – an optimal pattern of interaction between different regions and (2) reconstructs source activity given the found motif. Promising results are shown for both simulated and real MEG data for a visuomotor task and compared with 3 different state-of-the-art reconstruction methods.To conclude, we tackled a difficult problem of exploiting delays supported by dMRI for the reconstruction of brain activity, while also considering the directionality in the information transfer, and provided new insights into the complex patterns of brain activity., Les fibres de la matière blanche permettent le transfert d’information dans le cerveau avec des délais observables en Magnétoencéphalographie et Électroencéphalographie (M/EEG) grâce à leur haute résolution temporelle. Le cerveau peut être représenté comme un graphe où les nœuds sont les régions corticales et les liens sont les connexions physiques entre celles-ci: soit locales (entre sommets adjacents sur le maillage cortical), soit non locales (fibres de la matière blanche). Les connexions non-locales peuvent être reconstruites avec la tractographie de l’IRM de diffusion (IRMd) qui génère un ensemble de courbes («streamlines») représentant des fibres de la matière blanche. Sachant les longueurs des fibres et la vitesse de conduction de l’information, les délais de transmission peuvent être estimés. L’IRMd peut donc donner un aperçu des délais d’interaction du réseau cérébral macroscopique.La localisation et la reconstruction de l’activité électrique cérébrale à partir des mesures M/EEG est un problème inverse. En général, il y a plus d’inconnues (sources cérébrales) que de capteurs. La solution n’est donc pas unique et le problème est dit mal posé. Pour obtenir une solution unique, des hypothèses sur les caractéristiques des distributions de sources sont requises. Les méthodes inverses linéaires traditionnelles utilisent différentes hypothèses qui peuvent favoriser des solutions de norme minimale, imposer des contraintes de lissage dans l’espace et/ou dans le temps, etc. Pourtant, la connectivité structurelle est rarement prise en compte et les délais de transmission sont presque toujours négligés.La première contribution de cette thèse est un pipeline de prétraitement multimodal utilisé pour l’intégration des données d’IRM, IRMd et MEG dans un même cadre, et d’une méthode de simulation de l’activité corticale qui a été utilisée comme jeu de données synthétiques pour valider les approches de reconstruction proposées. Nous proposons également une nouvelle approche pour résoudre le problème inverse M/EEG appelée «Problème Inverse M/EEG Informé par la Connectivité» (CIMIP pour Connectivity-Informed M/EEG Inverse Problem), où des délais de transmission provenant de l’IRMd sont inclus pour renforcer le lissage temporel entre les décours des sources connectées. Pour cela, un opérateur Laplacien, basé sur un graphe de connectivité en fonction du temps, a été intégré dans la régularisation. Cependant, certaines limites de l’approche CIMIP sont apparues en raison de la nature du Laplacien qui agit sur le graphe entier et favorise les solutions lisses sur toutes les connexions, pour tous les délais, et indépendamment de la directionnalité.Lors de tâches visuo-motrices, seules quelques régions sont généralement activées significativement. Notre troisième contribution est une extension de CIMIP pour ce type de tâches qui répond aux limitations susmentionnées, nommée CIMIP_OML («Optimal Masked Laplacian») ou Laplacien Masqué Optimal. Nous essayons de trouver comment l’information est transférée entre les nœuds d’un sous-réseau de régions d’intérêt du réseau complet de l’espace des sources. Pour décrire les interactions entre nœuds dans un graphe orienté, nous utilisons le concept de motifs de réseau. Nous proposons un algorithme qui 1) cherche un motif de réseau optimal- un modèle optimal d’interaction entre régions et 2) reconstruit l’activité corticale avec le motif trouvé. Des résultats prometteurs sont présentés pour des données MEG simulées et réelles (tâche visuo-motrice) et comparés avec 3 méthodes de l’état de l’art. Pour conclure, nous avons abordé un problème difficile d’exploitation des délais de l’IRMd lors l’estimation de l’activité corticale en tenant compte de la directionalité du transfert d’information, fournissant ainsi de nouvelles perspectives sur les patterns complexes de l’activité cérébrale.
- Published
- 2022
9. Probabilistic seismic-hazard site assessment in Kitimat, British Columbia, from Bayesian inversion of surface-wave dispersion.
- Author
-
Gosselin, Jeremy M., Cassidy, John F., Dosso, Stan E., and Brillon, Camille
- Subjects
EARTHQUAKE hazard analysis ,SURFACE waves (Seismic waves) ,MICROSEISMS ,BAYESIAN analysis ,INVERSE problems - Abstract
Copyright of Canadian Geotechnical Journal is the property of Canadian Science Publishing and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2018
- Full Text
- View/download PDF
10. Modélisation guidée par les données des fonctions d'étalement du point des télescopes terrestres et spatiaux
- Author
-
Liaudat, Tobias Ignacio, Astrophysique Interprétation Modélisation (AIM (UMR_7158 / UMR_E_9005 / UM_112)), Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Institut national des sciences de l'Univers (INSU - CNRS)-Université Paris-Saclay-Centre National de la Recherche Scientifique (CNRS)-Université Paris Cité (UPCité), Université Paris-Saclay, Jean-Luc Starck, Martin Kilbinger, and STAR, ABES
- Subjects
Inverse problems ,Matrix factorisation ,[PHYS.ASTR.IM]Physics [physics]/Astrophysics [astro-ph]/Instrumentation and Methods for Astrophysic [astro-ph.IM] ,Optics ,Factorisation de matrices ,Point spread function ,Différenciation automatique ,[PHYS.ASTR.CO]Physics [physics]/Astrophysics [astro-ph]/Cosmology and Extra-Galactic Astrophysics [astro-ph.CO] ,Lentille gravitationnelle faible ,[INFO.INFO-TI] Computer Science [cs]/Image Processing [eess.IV] ,Automatic Differentiation ,Optique ,[PHYS.ASTR.CO] Physics [physics]/Astrophysics [astro-ph]/Cosmology and Extra-Galactic Astrophysics [astro-ph.CO] ,Problèmes inverses ,[INFO.INFO-TI]Computer Science [cs]/Image Processing [eess.IV] ,Euclid space mission ,[PHYS.ASTR.IM] Physics [physics]/Astrophysics [astro-ph]/Instrumentation and Methods for Astrophysic [astro-ph.IM] ,Weak gravitational lensing ,Fonction d'étalement du point ,Mission spatiale Euclid - Abstract
Gravitational lensing is the distortion of the images of distant galaxies by intervening massive objects and constitutes a powerful probe of the Large Scale Structure of our Universe. Cosmologists use weak (gravitational) lensing to study the nature of dark matter and its spatial distribution. These studies require highly accurate measurements of galaxy shapes, but the telescope's instrumental response, or point spread function (PSF), deforms our observations. This deformation can be mistaken for weak lensing effects in the galaxy images, thus being one of the primary sources of systematic error when doing weak lensing science. Therefore, estimating a reliable and accurate PSF model is crucial for the success of any weak lensing mission. The PSF field can be interpreted as a convolutional kernel that affects each of our observations of interest that varies spatially, spectrally, and temporally. The PSF model needs to cope with these variations and is constrained by specific stars in the field of view. These stars, considered point sources, provide us with degraded samples of the PSF field. The observations go through different degradations depending on the properties of the telescope, including undersampling, an integration over the instrument's passband, and additive noise. We finally build the PSF model using these degraded observations and then use the model to infer the PSF at the position of galaxies. This procedure constitutes the ill-posed inverse problem of PSF modelling. The core of this thesis has been the development of new data-driven, also known as non-parametric, PSF models. We have developed a new PSF model for ground-based telescopes, coined MCCD, which can simultaneously model the entire focal plane. Consequently, MCCD has more available stars to constrain a more complex model. The method is based on a matrix factorisation scheme, sparsity, and an alternating optimisation procedure. We have included the PSF model in a high-performance shape measurement pipeline and used it to process ~3500 deg² of r-band observations from the Canada-France Imaging Survey. A shape catalogue has been produced and will be soon released. The main goal of this thesis has been to develop a data-driven PSF model that can address the challenges raised by one of the most ambitious weak lensing missions so far, the Euclid space mission. The main difficulties related to the Euclid mission are that the observations are undersampled and integrated into a single wide passband. Therefore, it is hard to recover and model the PSF chromatic variations from such observations. Our main contribution has been a new framework for data-driven PSF modelling based on a differentiable optical forward model allowing us to build a data-driven model for the wavefront. The new model coined WaveDiff is based on a matrix factorisation scheme and Zernike polynomials. The model relies on modern gradient-based methods and automatic differentiation for optimisation, which only uses noisy broad-band in-focus observations. Results show that WaveDiff can model the PSFs' chromatic variations and handle super-resolution with high accuracy., L'effet de lentille gravitationnel est la distorsion des images de galaxies lointaines par des objets massifs et constitue une sonde puissante de la structure à grande échelle de notre Univers. Les cosmologistes utilisent la lentille (gravitationnelle) faible pour étudier la nature de la matière noire et sa distribution spatiale. Ces études nécessitent des mesures très précises des formes des galaxies, mais la réponse instrumentale du télescope, ou fonction d'étalement du point (PSF), déforme nos observations. Cette déformation peut être confondue avec des effets de lentille faible dans les images de galaxies, ce qui constitue l'une des principales sources d'erreur systématique. Par conséquent, l'estimation d'un modèle de PSF fiable et précis est cruciale pour le succès de toute mission de lentille faible. Le champ de PSF peut être interprété comme un noyau de convolution qui affecte chacune de nos observations d'intérêt et qui varie spatialement, spectralement et temporellement. Le modèle de PSF doit faire face à ces variations et est contraint par des étoiles spécifiques dans le champ observé. Ces étoiles, considérées comme des sources ponctuelles, nous fournissent des échantillons dégradés du champ de PSF. Les observations subissent différentes dégradations en fonction des propriétés du télescope, notamment un sous-échantillonnage, une intégration sur la bande passante de l'instrument et un bruit additif. Nous construisons finalement le modèle de PSF en utilisant ces observations dégradées, puis nous utilisons le modèle pour déduire les PSFs aux positions des galaxies. Cette procédure constitue le problème inverse mal posé de la modélisation de la PSF. Le cœur de cette thèse a été le développement de nouveaux modèles non-paramétriques pour estimer les PSFs à partir des étoiles observées dans les images acquises. Nous avons développé un nouveau modèle de PSF pour les télescopes terrestres, appelé MCCD, qui peut modéliser simultanément l'ensemble du plan focal. Par conséquent, MCCD dispose de plus d'étoiles pour contraindre un modèle plus complexe. La méthode est basée sur un schéma de factorisation matricielle, les représentations parcimonieuses et une procédure d'optimisation alternée. Nous avons inclus le modèle de PSF dans un pipeline de mesure de forme à haute performance et l'avons utilisé pour traiter ~3500 deg² d'observations en bande r provenant du Canada-France Imaging Survey. Un catalogue de formes a été produit et sera bientôt publié. L'objectif principal de cette thèse a été de développer un modèle de PSF basé sur les données qui puisse répondre aux défis soulevés par l'une des missions les plus ambitieuses en matière de lentille faible, la mission spatiale Euclid. Les principales difficultés liées à la mission Euclid sont que les observations sont sous-échantillonnées et intégrées dans une large bande passante unique. Par conséquent, il est difficile de récupérer et de modéliser les variations chromatiques de la PSF à partir de ces observations. Notre principale contribution est un nouveau cadre pour la modélisation de la PSF basée sur un modèle optique différentiable permettant de construire un modèle de front d'onde basé sur les données. Le nouveau modèle, appelé WaveDiff, est basé sur un schéma de factorisation matricielle et des polynômes de Zernike. Le modèle s'appuie sur des méthodes modernes basées sur le gradient et la différenciation automatique pour l'optimisation, qui n'utilise que des observations dégradées et bruitées. Les résultats montrent que WaveDiff peut modéliser les variations chromatiques des PSF et gérer la super-résolution avec une grande précision.
- Published
- 2022
11. Analyse de convergence pour des méthodes d’inversion multi-étapes de type one-shot
- Author
-
Bonazzoli, Marcella, Haddar, Houssem, Vu, Tuan, Inversion of Differential Equations For Imaging and physiX (IDEFIX), Inria Saclay - Ile de France, Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria)-Unité de Mathématiques Appliquées (UMA), École Nationale Supérieure de Techniques Avancées (ENSTA Paris)-École Nationale Supérieure de Techniques Avancées (ENSTA Paris), Inria Saclay, and ENSTA ParisTech
- Subjects
problèmes inverses ,méthodes de type one-shot ,analyse de convergence ,parameter identification ,one-shot methods ,inverse problems ,identification de paramètres ,[MATH.MATH-OC]Mathematics [math]/Optimization and Control [math.OC] ,[MATH.MATH-NA]Mathematics [math]/Numerical Analysis [math.NA] ,convergence analysis - Abstract
In this work we are interested in general linear inverse problems where the corresponding forward problem is solved iteratively using fixed point methods. Then one-shot methods, which iterate at the same time on the forward problem solution and on the inverse problem unknown, can be applied. We analyze two variants of the so-called multi-step one-shot methods and establish sufficient conditions on the descent step for their convergence, by studying the eigenvalues of the block matrix of the coupled iterations. Several numerical experiments are provided to illustrate the convergence of these methods in comparison with the classical usual and shifted gradient descent. In particular, we observe that very few inner iterations on the forward problem are enough to guarantee good convergence of the inversion algorithm.; Dans ce travail nous nous intéressons à des problèmes inverses linéaires généraux où le problème direct correspondant est résolu de façon itérative en utilisant des méthodes de point fixe. Ainsi, les méthodes de type one-shot, qui itèrent en même temps sur la solution du problème direct et l’inconnue du problème inverse, peuvent être appliquées. Nous considérons deux variantes des méthodes multi-étapes de type one-shot et nous établissons des conditions suffisantes et nécessaires sur le pas de descente pour leur convergence, en étudiant les valeurs propres de la matrice par blocs des itérations couplées. Plusieurs tests numériques sont présentés pour illustrer la convergence de ces méthodes par rapport aux méthodes de descente de gradient usuelle et décentrée. En particulier, nous observons que très peu d’itérations internes pour le problème direct sont suffisantes pour garantir une bonne convergence de l’algorithme d’inversion.
- Published
- 2022
12. Faces et points extrémaux des ensembles convexes pour la résolution des problèmes inverses
- Author
-
Duval, Vincent, CEntre de REcherches en MAthématiques de la DEcision (CEREMADE), Université Paris Dauphine-PSL, Université Paris sciences et lettres (PSL)-Université Paris sciences et lettres (PSL)-Centre National de la Recherche Scientifique (CNRS), Méthodes numériques pour le problème de Monge-Kantorovich et Applications en sciences sociales (MOKAPLAN), Université Paris sciences et lettres (PSL)-Université Paris sciences et lettres (PSL)-Centre National de la Recherche Scientifique (CNRS)-Université Paris Dauphine-PSL, Université Paris sciences et lettres (PSL)-Université Paris sciences et lettres (PSL)-Centre National de la Recherche Scientifique (CNRS)-Inria de Paris, Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria), Ecole doctorale SDOSE, and Guillaume Carlier
- Subjects
Inverse problems ,Points extrémaux ,Total variation ,Extreme points ,Variational methods ,Variation totale ,Problèmes inverses ,Radon measures ,[MATH.MATH-OC]Mathematics [math]/Optimization and Control [math.OC] ,Mesures de Radon ,[MATH]Mathematics [math] ,Méthodes variationnelles ,[SPI.SIGNAL]Engineering Sciences [physics]/Signal and Image processing - Published
- 2022
13. Méthodes numériques pour la résolution du problème inverse en électrocardiographie dans le cas d’anomalies structurelles du tissu cardiaque
- Author
-
Bouhamama, Oumayma, Modélisation et calculs pour l'électrophysiologie cardiaque (CARMEN), Institut de Mathématiques de Bordeaux (IMB), Université Bordeaux Segalen - Bordeaux 2-Université Sciences et Technologies - Bordeaux 1 (UB)-Université de Bordeaux (UB)-Institut Polytechnique de Bordeaux (Bordeaux INP)-Centre National de la Recherche Scientifique (CNRS)-Université Bordeaux Segalen - Bordeaux 2-Université Sciences et Technologies - Bordeaux 1 (UB)-Université de Bordeaux (UB)-Institut Polytechnique de Bordeaux (Bordeaux INP)-Centre National de la Recherche Scientifique (CNRS)-Inria Bordeaux - Sud-Ouest, Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria)-IHU-LIRYC, Université Bordeaux Segalen - Bordeaux 2-CHU Bordeaux [Bordeaux]-CHU Bordeaux [Bordeaux], Université Bordeaux Segalen - Bordeaux 2-Université Sciences et Technologies - Bordeaux 1 (UB)-Université de Bordeaux (UB)-Institut Polytechnique de Bordeaux (Bordeaux INP)-Centre National de la Recherche Scientifique (CNRS), Université de Bordeaux, Lisl Weynans, Laura Bear, and STAR, ABES
- Subjects
Arythmie ventriculaire ,Inverse Problems ,Calcul scientifique ,Myocardial Infarction ,Algorithmes de Monte Carlo ,Infarctus du myocarde ,Scientific Computing ,[INFO.INFO-MO]Computer Science [cs]/Modeling and Simulation ,Electrocardiography Imaging ,Imagerie électrocardiaque ,Problèmes inverses ,Ventricular Arrhythmia ,[INFO.INFO-MO] Computer Science [cs]/Modeling and Simulation ,Monte-Carlo Algorithms - Abstract
The continued development of non invasive methods of mapping the electri-cal activity of the heart is motivated by the general hope that they may be clinically useful in the diagnosis and treatment of cardiac rhythm disorders, responsible for 80% of the 350,000 sudden cardiac arrest deaths that occur each year in Europe [LZ06]. Non-invasive electrocardiographic imaging (ECGI) provides real-time panoramic images of epicardial electrical activity from potential measurements on the surface of the torso. Though several methods have been developped for ECGI, recent validation studies have demonstrated that current implementations are inaccurate in reconstructing electrical activity in the presence of conduction anomalies and in structurally heterogeneous hearts. ECGI is known to produce artificial lines of block in healthy tissue, raising doubts about the ability of these methods to detect the presence of regions of true conduction slowly in structurally abnormal hearts.The objective of this thesis is to develop a new method in order to improve ECGI and its ability to detect regions of slow conduction in the presence of structural abnormalities.First, we presented a new method for solving the inverse problem of electro-cardiography. The idea of the method is to combine the solutions obtained with classical formulations in order to select the most accurate method in each area and at each time step, based on their residuals of the torso surface. This new approach, named the Patchwork Method (PM), is evaluated, along with other classical inverse methods, using simulated and experimental data. The stability and robustness of this new approach are also tested by adding Gaussian measurement noise to the torso surface potentials.Secondly, we focused on the detection of areas with damaged cardiac tissue. The different ECGI methods were evaluated based on the caracteristics of bipolar signals associated with structural abnormalities : amplitude, QRS duration and fragmentation. Being unable to detect the damaged areas using these features, we have developed a new method to detect slow conduction areas using the activation time gradient. Subsequently, we evaluated the ability of the standard ECGI methods, as well as the Patchwork method, to locate slow conduction areas and reduce the frequency of artificial lines of block.The main contribution of this thesis is the development of a new ECGI ap-proach to reconstruct electrical information on the surface of the heart. The Patchwork method has demonstrated a higher level of accuracy in recons-tructing activation maps and locating breakthrough sites than standard ECGI methods. This method is an effective tool to help overcome some of the limi-tations of conventional numerical methods in structurally abnormal hearts, showing its ability to detect regions of slow conduction using the activation time gradient. Importantly, these improvements include a reduction in the frequency of artificial lines of block. This has important clinical implications as it may help reduce false diagnosis of conduction disorders., Le développement continu des méthodes non invasives de cartographie de l’activité électrique du cœur est motivé par l’espoir général qu’elles puissent être cliniquement utiles dans le diagnostic et le traitement des troubles du rythme cardiaque, responsables de 80 % des 350 000 décès par arrêt cardiaque soudain qui surviennent chaque année en Europe [LZ06]. L’imagerie électrocardiographique non invasive (ECGI) fournit des images panoramiques en temps réel de l’activité électrique épicardique à partir de mesures de poten-tiel à la surface du torse. Bien que plusieurs méthodes aient été développées pour l’ECGI, des études de validation récentes ont démontré que les implémentations actuelles sont imprécises dans la reconstruction de l’activité électrique en présence d’anomalies de conduction et dans les cœurs structurellement hétérogènes. L’ECGI est connue pour produire des lignes de bloc artificielles dans les tissus sains, ce qui fait douter de la capacité de ces méthodes à détecter la présence de régions de véritable conduction lente dans les cœurs structurellement anormaux.L’objectif de cette thèse est de développer une nouvelle méthode afin d’améliorer l’ECGI et sa capacité à détecter les régions de conduction lente en présence d’anomalies structurelles.Tout d’abord, nous avons présenté une nouvelle méthode pour résoudre le problème inverse de l’électrocardiographie. L’idée de la méthode est de combiner les solutions obtenues avec les formulations classiques afin de sélectionner la méthode la plus précise dans chaque zone et à chaque pas de temps, en fonction de leurs résidus de la surface du torse. Cette nouvelle approche, appelée la méthode Patchwork (PM), est évaluée, avec d’autres méthodes inverses classiques, à l’aide des données simulées et expérimentales. La stabilité et la robustesse de cette nouvelle approche sont également testées en ajoutant un bruit de mesure Gaussien aux potentiels de la surface du torse.Deuxièmement, nous nous sommes concentrés sur la détection de zones pré-sentant des tissus cardiaques endommagés. Les différentes méthodes d’ECGI ont été évaluées sur la base des caractéristiques des signaux bipolaires associés aux anomalies structurelles : amplitude, durée du QRS et fragmentation. N’étant pas en mesure de détecter les zones endommagées à l’aide de ces caractéristiques, nous avons développé une nouvelle méthode pour détecter les zones de conduction lente en utilisant le gradient de temps d’activation. Par la suite, nous avons évalué la capacité des méthodes ECGI standard, ainsi que de la méthode Patchwork, à localiser les zones de conduction lente et à réduire la fréquence des lignes de bloc artificielles.La principale contribution de cette thèse est le développement d’une nouvelle approche ECGI pour reconstruire les informations électriques à la surface du cœur. La méthode Patchwork a démontré un niveau de précision plus élevé dans la reconstruction des cartes d’activation et la localisation des sites de percée que les méthodes ECGI standard. Cette méthode est un outil efficace pour aider à surmonter certaines des limites des méthodes numériques conventionnelles dans les cœurs structurellement anormaux, montrant sa capacité à détecter les régions de conduction lente en utilisant le gradient de temps d’activation. Il est important de noter que ces améliorations incluent une réduction de la fréquence des lignes de bloc artificielles. Cela a des implications cliniques importantes car cela peut contribuer à réduire les faux diagnostics de troubles de la conduction.
- Published
- 2022
14. Advanced deep neural networks for MRI image reconstruction from highly undersampled data in challenging acquisition settings
- Author
-
Ramzi, Zaccharie, Building large instruments for neuroimaging: from population imaging to ultra-high magnetic fields (BAOBAB), Service NEUROSPIN (NEUROSPIN), Université Paris-Saclay-Direction de Recherche Fondamentale (CEA) (DRF (CEA)), Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Université Paris-Saclay-Direction de Recherche Fondamentale (CEA) (DRF (CEA)), Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Centre National de la Recherche Scientifique (CNRS), Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Commissariat à l'énergie atomique et aux énergies alternatives (CEA), Département d'Astrophysique (ex SAP) (DAP), Institut de Recherches sur les lois Fondamentales de l'Univers (IRFU), Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Université Paris-Saclay-Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Université Paris-Saclay, Modelling brain structure, function and variability based on high-field MRI data (PARIETAL), Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Inria Saclay - Ile de France, Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria), Université Paris-Saclay, Philippe Ciuciu, Jean-Luc Starck, and STAR, ABES
- Subjects
Inverse problems ,Apprentissage profond ,[INFO.INFO-IM] Computer Science [cs]/Medical Imaging ,[INFO.INFO-CV]Computer Science [cs]/Computer Vision and Pattern Recognition [cs.CV] ,Deep learning ,[INFO.INFO-LG] Computer Science [cs]/Machine Learning [cs.LG] ,[STAT.ML] Statistics [stat]/Machine Learning [stat.ML] ,[INFO.INFO-CV] Computer Science [cs]/Computer Vision and Pattern Recognition [cs.CV] ,Reconstruction d'image ,[INFO.INFO-LG]Computer Science [cs]/Machine Learning [cs.LG] ,[STAT.ML]Statistics [stat]/Machine Learning [stat.ML] ,Problèmes inverses ,Image reconstruction ,Réseaux neuronaux ,[INFO.INFO-IM]Computer Science [cs]/Medical Imaging ,Compressed sensing ,Neural networks ,MRI ,Échantillonnage compressif ,IRM - Abstract
Magnetic Resonance Imaging (MRI) is one of the most prominent imaging techniques in the world. Its main purpose is to probe soft tissues in a non-invasive and non-ionizing way. However, its wider adoption is hindered by an overall high scan time. In order to reduce this duration, several approaches have been proposed, among which Parallel Imaging (PI) and Compressed Sensing (CS) are the most important. Using these techniques, MR data can be acquired in a highly compressed way which allows the reduction of acquisition times. However, the algorithms typically used to reconstruct the MR images from these undersampled data are slow and underperform in highly accelerated scenarios. In order to address these issues, unrolled neural networks have been introduced. The core idea of these models is to unroll the iterations of classical reconstruction algorithms into a finite computation graph. The main objective of this PhD thesis is to propose new architecture designs for acquisition scenarios which deviate from the typical Cartesian 2D sampling. To this end, we first review a handful of neural networks for MRI reconstruction. After selecting the best performer, the PDNet, we extend it to two contexts: the fastMRI 2020 reconstruction challenge and the 3D non-Cartesian data problem. We also chose to adress the concerns of many regarding the clinical applicability of deep learning for medical imaging. We do so by proposing ways to build robust and inspectable models, but also by simply testing the trained networks in out-of-distribution settings. Finally, after noticing how the implicit deep learning framework can help implement deeper MRI reconstruction models, we introduce a new acceleration method (called SHINE) for the training of such models., L'imagerie par résonance magnétique (IRM) est l'une des modalités d'imagerie les plus utilisées au monde. Son objectif principal est de visualiser les tissus mous de manière non invasive et non ionisante. Cependant, son adoption générale est entravée par une durée d'examen globalement élevée. Afin de la raccourcir, plusieurs techniques ont été proposées, parmi lesquelles l'imagerie parallèle (PI) et l'échantillonnage compressif (CS) jouent une place prédominante. Grâce à ces techniques, les données en IRM peuvent être acquises de manière fortement compressée, réduisant ainsi significativement le temps d'acquisition. Cependant, les algorithmes généralement utilisés pour reconstruire les images IRM à partir de ces données sous-échantillonnées sont lents et peu performants dans des scénarios d'acquisition fortement accélérés. Afin de résoudre ces problèmes, les "réseaux de neurones déroulés" ont été introduits. L'idée centrale de ces modèles est de dérouler ou déplier les itérations des algorithmes de reconstruction classiques en un graphe de calcul fini. L'objectif principal de cette thèse est de proposer de nouvelles architectures pour des scénarios d'acquisition qui s'écartent de l'acquisition cartésienne 2D typique. À cette fin, nous passons d'abord en revue une poignée de réseaux neuronaux pour la reconstruction IRM. Après avoir sélectionné le plus performant, i.e. le PDNet, nous l'étendons à deux contextes : le challenge fastMRI 2020 et le problème des données 3D non cartésiennes. Nous avons également choisi de répondre aux préoccupations de beaucoup concernant l'applicabilité clinique de l'apprentissage profond pour l'imagerie médicale. Nous le faisons en proposant des moyens de construire des modèles robustes et inspectables, mais aussi en testant simplement les réseaux entraînés dans des contextes qui s'écartent de la distribution d'entraînement. Enfin, après avoir remarqué comment l'outil de l'apprentissage profond implicite peut aider à entraîner des modèles de reconstruction IRM plus profonds, nous introduisons une nouvelle méthode d'accélération (i.e. SHINE) pour l'entraînement de ces modèles.
- Published
- 2022
15. Extension de la mesure de la microstructure par IRM de diffusion aux cellules corticales via inférence par simulation
- Author
-
Jallais, Maëliss, Modelling brain structure, function and variability based on high-field MRI data (PARIETAL), Service NEUROSPIN (NEUROSPIN), Université Paris-Saclay-Direction de Recherche Fondamentale (CEA) (DRF (CEA)), Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Université Paris-Saclay-Direction de Recherche Fondamentale (CEA) (DRF (CEA)), Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Inria Saclay - Ile de France, Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria), Université Paris-Saclay, and Demian Wassermann
- Subjects
Inverse problems ,Machine Learning ,[INFO.INFO-TS]Computer Science [cs]/Signal and Image Processing ,Problèmes inverses ,[SCCO.NEUR]Cognitive science/Neuroscience ,Neurosciences ,[INFO.INFO-IM]Computer Science [cs]/Medical Imaging ,IRM de diffusion ,Diffusion MRI ,Neuroscience ,[INFO.INFO-AI]Computer Science [cs]/Artificial Intelligence [cs.AI] - Abstract
Neurodegenerative diseases, such as Alzheimer's or Huntington's disease, lead to the progressive and irreversible loss of mental functions. Dementia and cognitive deficits appear to be primarily related to neuronal and synaptic connectivity loss. Although these diseases' external impact and progression are readily observable, accessing microstructural changes in the brain remains a challenge, making it difficult to understand these diseases and develop treatments.With technological advances, diffusion Magnetic Resonance Imaging (dMRI) has emerged as a novel method to study the microstructure of the brain non-invasively and in-vivo. This medical imaging technique is based on the study of random microscopic movements of water molecules, known as Brownian movements. In the brain, the movements of the molecules are constrained by cell membranes, making diffusion anisotropic. Each tissue component, such as somas (cell bodies) or neurites, has a distinct shape. The characteristics of the tissue thus modulate the diffusion brain signal obtained during an MRI acquisition.My thesis aims to develop a method to infer a tissue microstructure from a dMRI acquisition in the grey matter (GM).The solution to this inverse problem of estimating brain microstructure from dMRI is threefold:1. The definition of a biological model describing the GM tissues. Existing microstructural models of white matter were proven not to hold in the GM. We adapted these models to take into account the abundance of somas in the GM.2. A mathematical modeling of the GM tissue. We modeled each compartment of the tissue model by simple geometrical shapes, for which the diffusion signal is known. We developed a signal processing algorithm to synthesize the key information contained in the diffusion signal and relate it to a set of parameters describing the tissue (notably the size and density of neurons). This algorithm is based on a study of the statistical moments of the signal at different MRI gradient strengths. Unlike existing methods, no biological parameters are arbitrarily fixed, which allows for the best possible description of the cortical tissue of each subject.3. An inversion algorithm to estimate the tissue parameters that generated the acquisition signal. Once the mathematical model relating tissue parameters to the diffusion signal is defined, the objective is to solve the inverse problem of estimating tissue microstructure from an observation. A limitation of current methods is their inability to identify all possible tissue configurations that can explain the same observed diffusion signal, making the interpretation of the proposed estimates difficult. We used a Bayesian deep-learning method called "likelihood-based inference" combined with neural networks to solve this problem. This method allows identifying and returning all possible tissue configurations along with their posterior distributions (probability given an observation), facilitating their interpretation.We first validated this approach on simulations. Based on a few acquisition constraints, we then applied the global resolution method to the HCP MGH and HCP1200 databases of the Human Connectome Project. We developed a python library to study those simulated or acquired data. The obtained results were then compared with histological and cognitive studies to verify their validity.; Les maladies neurodégénératives, telles que la maladie d'Alzheimer ou de Huntington, entraînent la perte progressive et irréversible des fonctions mentales. La démence et les déficits cognitifs semblent être principalement liés à une perte neuronale et de connectivité synaptique. Bien que l'impact et l’évolution extérieurs de ces maladies soient facilement observables, l’accès aux changements microstructuraux dans le cerveau reste un défi, rendant difficiles la compréhension de ces maladies et la mise au point de traitements.Avec les avancées technologiques, l’Imagerie par Résonance Magnétique de diffusion (IRMd) s’impose comme une méthode novatrice pour étudier la microstructure du cerveau de manière non-invasive et in-vivo. Cette technique d’imagerie médicale est basée sur l’étude des mouvements microscopiques aléatoires des molécules d’eau, connus sous le nom de mouvements Browniens. Dans le cerveau, les mouvements des molécules sont contraints par les membranes des cellules, rendant la diffusion anisotropique. Chaque composant tissulaire, tel que les somas (corps des neurones) ou les neurites, possède une forme distincte. Le signal de diffusion du cerveau obtenu lors d’une acquisition IRM est ainsi modulé selon les caractéristiques du tissu.L’objectif de ma thèse est de mettre en place une méthode qui permette d’inférer la microstructure d’un tissu à partir d’une acquisition d’IRMd dans la matière grise (MG).La résolution de ce problème inverse s’organise autour de trois parties:1. La définition d’un modèle biologique décrivant les tissus de la MG. Il a été prouvé que les modèles microstructuraux existants modélisant la matière blanche ne sont pas valides dans la MG. Nous avons commencé par adapter ces modèles en prenant en compte l’abondance des somas dans la MG.2. Une modélisation mathématique de la MG. Chaque compartiment du modèle tissulaire a ensuite été modélisé par des formes géométriques simples, pour lesquelles le signal de diffusion est connu. Un algorithme de traitement du signal a été développé permettant de synthétiser les informations clés contenues dans le signal de diffusion et de les mettre en relation avec un ensemble de paramètres décrivant le tissu (notamment la taille et la densité des neurones). Cet algorithme se base sur une étude des moments statistiques du signal pour différentes puissances de gradient de l’IRM. À la différence des méthodes existantes, aucun paramètre biologique n’est arbitrairement fixé, ce qui permet de décrire au mieux les tissus corticaux de chaque sujet.3. Un algorithme d’inversion permettant d’estimer les paramètres du tissu ayant généré le signal d’acquisition. Une fois le modèle mathématique permettant de relier les paramètres du tissu au signal de diffusion défini, l’objectif est de résoudre le problème inverse d’estimation de la microstructure du tissu à partir d’une observation. Une limitation des méthodes actuelles est leur incapacité à identifier toutes les configurations du tissu possibles pouvant expliquer un même signal de diffusion observé, ce qui rend l’interprétation des estimations proposées difficile. Afin de résoudre ce problème, nous avons utilisé une méthode reposant sur des outils de l’analyse bayésienne et de deep learning appelée inférence par simulation, combinée à des réseaux de neurones. Celle-ci permet d’identifier et de retourner toutes les configurations possibles du tissu accompagnées de leurs distributions postérieures (probabilité étant donné une observation), ce qui facilite leur interprétation.L’approche a tout d’abord été validée sur des simulations. Reposant sur peu de contraintes d’acquisition, la méthode de résolution globale a ensuite été appliquée sur les bases de données HCP MGH et HCP1200 du Human Connectome Project. Une bibliothèque python a été développée pour étudier ces données réelles ou simulées. Les résultats obtenus ont enfin été comparés avec des études histologiques et cognitives pour vérifier leur validité.
- Published
- 2022
16. Problèmes inverses et résonances locales dans les guides d’ondes mécaniques irréguliers
- Author
-
Niclas, Angèle and STAR, ABES
- Subjects
Inverse problems ,Propagation des ondes ,Wave propagation ,Mutli-frequency data ,Contrôle non destructif ,[SPI.OTHER] Engineering Sciences [physics]/Other ,Locally resonances ,Équation du déplacement élastique ,Elastic displacement equation ,Données multi-fréquencielles ,Résonances locales ,Problèmes inverses ,Helmholtz equation ,Guides d’ondes ,Waveguides ,Non-destructing testing ,Équation de Helmholtz - Abstract
Localization and reconstruction of defects in waveguides are crucial in the nondestructive evaluation of structures like pipelines, optics fibers, nuclear power plant conduits, or even ship hulls. This thesis aims to understand waves propagation in waveguides from a mathematical point of view to design new efficient methods to detect and reconstruct potential waveguides defects. To reproduce the existing experimental setups, we use multi-frequency data with frequencies sometimes close to resonant ones. Far from the resonant frequencies, we prove that the defects reconstruction is equivalent to a Fourier inversion from partial data, and we provide a stable reconstruction method working for small defects. On the other hand, mathematical equations are not well-posed near resonant frequencies, but waves seem very sensitive to potential defects. Drawing a parallel with quantum mechanics, we provide an asymptotic approximation of these waves as Airy functions when the width of the waveguide slowly varies. Using these approximations, we develop a precise method based on the shape of Airy functions to reconstruct width defects in waveguides., La détection et la reconstruction de défauts dans les guides d’ondes sont un enjeu contemporain important pour contrôler l’état de structures diverses allant des oléoducs aux fibres optiques, en passant par les conduits de centrales nucléaires ou les coques de navires. Cette thèse a pour but de mieux comprendre d’un point de vue mathématique la propagation des ondes en guide d’onde, pour pouvoir ensuite proposer des méthodes efficaces pour détecter et reconstruire avec précision d’éventuels défauts. Pour modéliser au mieux les dispositifs expérimentaux disponibles, on choisit ici d’utiliser des ondes se propageant à des fréquences variables et parfois voisines des fréquences de résonances. Si les fréquences sont éloignées des résonances, on montre que la reconstruction de défaut s’apparente à de l’inversion de Fourier avec données partielles, ce qui permet de reconstruire de manière stable la plupart des petits défauts présents dans les guides d’ondes. Si la fréquence est proche des résonances, les équations mathématiques sont très mal posées mais les ondes sont particulièrement sensibles aux défauts présents dans le guide. Des parallèles avec des travaux de physique quantique permettent une approximation asymptotique formelle de ces ondes sous forme de fonctions d’Airy lorsque le guide varie lentement. Grâce à ces approximations, on propose une méthode précise se basant sur le profil des fonctions d’Airy pour reconstruire entièrement les défauts de hauteur du guide.
- Published
- 2022
17. Partitionnement des paramètres d'entrée pour l'identification de modèles numériques probabilistes de structures dynamiques incertaines
- Author
-
Al Zeort, Darwish and STAR, ABES
- Subjects
Model updating ,Problèmes inverses ,Inverse problem ,Bayesian approach ,Analyse de sensibilité ,Recalage de modèles numériques ,Structural dynamics ,[PHYS.MECA] Physics [physics]/Mechanics [physics] ,Sensitivity analysis ,Dynamique des structures ,Modèle stochastique ,Stochastic modelling ,Approche bayésienne - Abstract
In the context of model validation, the model updating methods consist in calibrating the input parameters of the numerical model in order to reduce the distance between the experimental outputs and the numerical outputs. In stochastic numerical model, the parameters and hyperparameters (mean values, standard deviations, ...) are calibrated using experimental data collected on a family of structures nominally identical. In these methods, the number of parameters to be identified is often very large, and the updating of these parameters generally requires the solving of a non-convex probabilistic inverse problem in high dimension. This high dimension prohibits the direct exploration of the entire space of input parameters, and makes the global optimization methods and approaches proposed in this field, very expensive and difficult to be applied. Recently, in the context of deterministic model updating, a new method has been proposed to address the problem of the high dimension in model updating. This method enable to identify separately the input parameters by replacing the original inverse problem to be solved into a sequence of small dimension inverse problems (ideally of dimension one). More precisely, it constructs, for each input parameter, a new output so that this new output is only sensitive to this parameter and insensitive to the other parameters.Until now, this approach has been only validated on simple deterministic dynamical structures. Therefore, the work of this thesis focuses on the objective of extending this new method, in order to make it applicable on the complex industrial structures. In the first part, three methodologies are proposed to improve the efficiency of the new method in the deterministic field. The first methodology consists of introducing noise into the model to be updated or varying the value of the regularization term of the new method. The second methodology is based on the principle of constructing for each input parameter, several new outputs instead of a single one. The third methodology consists in decomposing the output of the model to be updated into groups of components. In addition, an extension for the new method is presented in this part, to make it applicable for cases where the input parameters are not fully separable. In the second part, the new method is extended on the probabilistic context, to take into account and identify separately the uncertainties of system-parameters and modelling errors. Finally an extension of the Bayesian model updating is proposed by combining it with the separation method developped in this thesis, Dans le cadre de la validation des modèles numériques, les méthodes de recalage consistent à calibrer les paramètres d'entrée du modèle numérique afin de réduire la distance entre ses réponses calculées et les réponses expérimentales. Lorsque le modèle numérique est probabiliste, les paramètres et hyperparamètres (moyennes, écarts-types,…) sont recalés en utilisant des données expérimentales recueillies sur une famille de structures nominalement identiques. Dans ces méthodes, le nombre de paramètres à identifier est souvent très important, conduisant à la résolution d'un problème inverse probabiliste non convexe en grande dimension. Cette grande dimension interdit l'exploration directe de tout le domaine des paramètres d'entrée, et rend les méthodes d'optimisation globale et les approches proposées dans ce cadre, très coûteuses et difficiles à appliquer. Récemment, dans le contexte du recalage des modèles déterministes, une nouvelle méthode a été proposée pour pallier la difficulté liée à la grande dimension de l'espace des paramètres d'entrée. Cette méthode permet d’identifier séparément les paramètres d’entrée en remplaçant le problème inverse à résoudre par une série de problèmes inverses de petite dimension. Plus précisément, elle construit, pour chaque paramètre d'entrée, une nouvelle sortie de sorte que cette dernière soit uniquement sensible à ce paramètre et insensible aux autres paramètres d'entrée. Jusqu'à présent, cette approche a été seulement validée pour le recalage des structures dynamiques déterministes très simples. Ainsi, les travaux de cette thèse se focalisent sur l’objectif d’étendre cette nouvelle méthode, afin de la rendre utilisable sur des structures plus complexes. Dans la première partie, trois méthodologies sont proposées pour améliorer l’efficacité de la nouvelle méthode dans un cadre déterministe. La première méthodologie consiste à introduire du bruit dans le modèle à recaler ou de faire varier la valeur de terme de régularisation de la nouvelle méthode. La deuxième méthodologie consiste à construire pour chaque paramètre d’entrée, plusieurs nouvelles sorties au lieu d’une seule sortie. La troisième méthodologie consiste à décomposer les réponses numériques du modèle à recaler en des sous-groupes de composantes. En outre, une extension est proposée pour rendre cette dernière méthode applicable sur les cas où les paramètres d’entrée ne sont pas totalement séparables. Dans la deuxième partie, la nouvelle méthode est étendue au cadre probabiliste, pour prendre en compte et identifier de manière séparée les incertitudes de paramètres du système et celles liées aux erreurs de modélisation. Enfin dans la dernière partie, nous combinons la méthode proposée dans les parties précédentes et la méthode de recalage Bayésien
- Published
- 2022
18. Échantillonnage stochastique efficace par modèle Bernoulli mélange de Gaussiennes pour la résolution des problèmes inverses parcimonieux
- Author
-
Amrouche, Mehdi Chahine, Institut de recherche en astrophysique et planétologie (IRAP), Université Toulouse III - Paul Sabatier (UT3), Université de Toulouse (UT)-Université de Toulouse (UT)-Institut national des sciences de l'Univers (INSU - CNRS)-Observatoire Midi-Pyrénées (OMP), Institut de Recherche pour le Développement (IRD)-Université Toulouse III - Paul Sabatier (UT3), Université de Toulouse (UT)-Université de Toulouse (UT)-Institut national des sciences de l'Univers (INSU - CNRS)-Centre National d'Études Spatiales [Toulouse] (CNES)-Centre National de la Recherche Scientifique (CNRS)-Météo-France -Institut de Recherche pour le Développement (IRD)-Institut national des sciences de l'Univers (INSU - CNRS)-Centre National d'Études Spatiales [Toulouse] (CNES)-Centre National de la Recherche Scientifique (CNRS)-Météo-France -Centre National de la Recherche Scientifique (CNRS), Université Paul Sabatier - Toulouse III, Hervé Carfantan, and Jérôme Idier
- Subjects
Inverse problems ,Mélanges continus de Gaussiennes ,[INFO.INFO-TS]Computer Science [cs]/Signal and Image Processing ,Continuous Gaussian mixtures ,Problèmes inverses ,Bayesian inference ,Parcimonie ,Stochastic sampling ,Échantillonnage stochastique ,Sparsity ,Inférence bayésienne - Abstract
This thesis deals with sparse inverse problems when the observed data can be considered as a linear combination of a small number of elements called « atoms » (e.g., pulses, shifted instrumental response or sinusoids). These problems are encountered in various domains, ranging from ultrasonic non-destructive testing to spectroscopy and spectral analysis. In the Bayesian framework, these problems can be addressed by considering a priori models on the parameters of interest that take into account the sparsity explicitly via the introduction of binary variables (e.g., Bernoulli-Gaussian model). The estimation of the parameters is done by computing the posterior mean estimator from samples generated by Markov chain Monte Carlo (MCMC) methods. The major advantage of MCMC methods in the Bayesian framework, compared to deterministic optimization approaches, is the possibility of integrating without much difficulty the estimation of the hyper-parameters of the model (e.g., the variance of the observation noise) as well as considering semi-blind or blind settings, i.e., cases where the atoms are partially or totally unknown. However, MCMC methods are generally computationally expensive and need to be handled carefully to ensure their convergence. An efficient sampling approaches based on the Partially Collapsed Gibbs Sampler (PCGS) have been developed for the Bernoulli-Gaussian model. However, it cannot be used with other sparse enforcing priors, such as priors with long-tailed distributions (e.g., Bernoulli-Laplace) which are preferable to the Gaussian because they induce less regularization; or with distributions supported in a bonded interval (e.g., Bernoulli-Exponential) in order to guarantee a non-negativity constraint. As a result one is restricted to the computationally expensive classical MCMC methods. The objective of this thesis is to reconcile PCGS sampling with models that explicitly take into account sparsity other than the Bernoulli-Gaussian model. The main contribution is the introduction and study of a new prior model called « Bernoulli Mixture of Gaussians » (BMG). The latter, based on continuous Gaussian mixtures improves the convergence properties of MCMC methods thanks to an efficient numerical implementation of PCGS algorithms. On the other hand, the model is presented in a general framework, allowing to take into account, in a systematic way, a rich family of probability distributions. More precisely, the BMG relies on the LSMG (Location and Scale Mixture of Gaussians) family, which we have studied and characterized. The second major contribution consists in extending the field of application of the BMG model to probability distributions supported on a bounded interval. Thus, we have proposed a new approach to approximate probability distributions called « asymptotically Exact Location-Scale Approximations » (ELSA) for which we have shown good behavior, both in theory and in practice and empirically validate its efficiency compared to state-of-the-art approaches. Finally, the efficiency of the BMG model, its PCGS sampler and ELSA approximations is studied and validated in the context of sparse inverse problems on an example of spike train deconvolution.; Cette thèse aborde la résolution des problèmes inverses parcimonieux quand les données observées peuvent être considérées comme une combinaison linéaire d'un faible nombre d'éléments dits « atomes » (e.g., impulsions, réponse instrumentale décalée ou sinusoïdes). Ces problèmes sont rencontrés dans différents domaines d'application, allant du contrôle non destructif ultrasonore, à la spectroscopie et l'analyse spectrale. Dans le contexte bayésien, ces problèmes peuvent être abordés en considérant des modèles a priori sur les paramètres d'intérêts, prenant en compte la parcimonie de façon explicite via l'introduction de variables binaires (e.g., modèle Bernoulli-Gaussien). L'estimation des paramètres se fait ensuite en calculant un estimateur de type espérance a posteriori à partir d'échantillons générés par des méthodes Monte-Carlo par chaînes de Markov (MCMC). L'avantage majeur des méthodes MCMC dans le contexte bayésien, par rapport aux approches d'optimisation déterministes, est la possibilité d'intégrer sans grande difficulté l'estimation des hyper-paramètres du modèle (e.g., la variance du bruit d'observation) ainsi que de se placer dans un cadre semi-aveugle ou aveugle, c'est-à-dire des cas où les atomes sont partiellement ou totalement inconnus. Cependant, ces méthodes MCMC sont généralement très coûteuses en temps de calcul et nécessitent d'être manipulées avec soin afin de garantir leur convergence. Des approches d'échantillonnage efficace s'appuyant sur le Partially Collapsed Gibbs Sampler (PCGS) ont été développées dans le cas du modèle Bernoulli-Gaussien. Cependant, elles ne peuvent pas être utilisées dès que l'on souhaite considérer d'autres a priori parcimonieux, avec des lois à longues queues (e.g., Bernoulli-Laplace) qui sont préférables à la Gaussienne car elles induisent une moindre régularisation ; ou avec des lois à support réduit (e.g., Bernoulli-Exponentiel) afin de garantir une contrainte de non-négativité. On est alors restreint à l'utilisation des méthodes MCMC classiques coûteuses en temps de calcul. L'objectif de cette thèse est de réconcilier l'échantillonnage PCGS avec des modèles prenant en compte la parcimonie de façon explicite autres que le modèle Bernoulli-Gaussien. La principale contribution est l'introduction et l'étude d'un nouveau modèle a priori dit « Bernoulli Mélange de Gaussiennes » (BMG). Ce dernier repose sur les lois de mélange continu de Gaussiennes et permet l'amélioration des propriétés de convergence des méthodes MCMC grâce à une implémentation numérique efficace d'algorithmes PCGS. D'autre part, le modèle est présenté dans un cadre général, permettant de prendre en compte, de manière systématique, de nombreuses lois de probabilité. Pour ces travaux, nous avons exploité des lois de probabilité de la famille LSMG (Location and Scale Mixture of Gaussians), peu étudiée dans la littérature, que nous avons caractérisées plus précisément. Une deuxième contribution majeure consiste à étendre le champ d'application du modèle BMG aux lois de probabilité à support réduit. Ainsi, nous avons proposé une nouvelle approche d'approximation de lois de probabilité dénommée « asymptotically Exact Location-Scale Approximations » (ELSA) pour laquelle nous avons montré le bon comportement, à la fois en théorie et en pratique et avons montré empiriquement son efficacité par rapport aux approches de l'état de l'art. Enfin, l'efficacité du nouveau modèle BMG, de son échantillonneur PCGS et des approximations ELSA est étudiée et validée dans le cadre des problèmes inverses parcimonieux sur un exemple de déconvolution de train d'impulsions.
- Published
- 2021
19. Contributions au traitement des images multivariées
- Author
-
Oberlin, Thomas and Institut Supérieur de l'Aéronautique et de l'Espace - ISAE-SUPAERO (FRANCE)
- Subjects
Problèmes inverses ,Imagerie hyperspectrale ,Imagerie multivariée ,Intelligence artificielle - Abstract
Ce mémoire résume mon activité pédagogique et scientifique en vue de l’obtention de l’habilitation à diriger des recherches.
- Published
- 2021
20. Inferring tropospheric radio refractivity using optimization methods
- Author
-
Karabaş, Uygar, Institut Supérieur de l'Aéronautique et de l'Espace, and Salaün, Michel
- Subjects
Inverse problems ,Adjoint model ,Inversion de la réfractivité ,Optimisation numérique ,Problèmes inverses ,Modèle adjoint ,Equation parabolique grand angle ,Numerical optimization ,Radio wave propagation ,Wide-Angle parabolic equation ,Propagation des ondes radio ,Refractivity inversion - Abstract
La réfraction troposphérique anormale entraîne une déviation des performances des systèmes radar marine par rapport à la normale. L'objectif principal de la thèse est de développer une technique d'inversion de la réfractivité pour prédire les anomalies de la couverture du radar avec précision et en temps réel. Dans cette étude, la réfractivité est supposée ne dépendre que de l'altitude et elle est prédite à partir de mesures d'ondes radio sans phase prises en configuration bistatique. Nous sommes intéressés par l'exploration des techniques d'inversion qui sont efficaces dans des scénarios réalistes à haute dimension pendant les opérations maritimes et qui peuvent maintenir la précision avec un minimum de besoin de connaissance a priori spécifiques au cas par cas. L'objectif à long terme est de transférer les techniques et les connaissances développées pour progresser vers un système de 'Refractivity-From-Clutter', qui est la technique d'inversion autosuffisant idéale pour améliorer l'autodéfense des navires, mais plus complexe à analyser et à développer correctement. Le problème inverse est formulé comme un problème d'optimisation non linéaire basé sur la simulation, qui est abordé à l'aide de méthodes Quasi-Newton. Les simulations sont modélisées par l'équation d'onde parabolique grand angle de Thomson et Chapman. Le gradient du problème d'optimisation est obtenu à l'aide de l'approche variationnelle adjointe et il est estimé de manière peu coûteuse au coût de deux simulations du modèle direct, quelle que soit la dimension des paramètres. Les dérivations sont validées numériquement en utilisant des mesures générées synthétiquement. Les tests numériques ont révélé la gravité de la non-linéarité et du caractère mal posé du problème inverse qui conduit souvent à des résultats d'inversion inexacts, même dans des conditions idéales lorsqu'il n'existe aucune erreur de modélisation ou de mesure. Des stratégies multi-échelles sont utilisées pour atténuer la non-linéarité du problème. Des résultats d'inversion précis sont obtenus en réduisant les espaces de paramètre et de mesures. Les avantages et les limites de la technique sont discutés dans des scénarios réalistes à haute dimension. Mots clés: propagation des ondes radio, optimisation numérique, problèmes inverses, inversion de la réfractivité, équation parabolique grand angle, modèle adjoint. Anomalous tropospheric refraction causes performance of naval radar systems to deviate from the normal. The main goal of thesis is to develop a refractivity inversion technique to predict the anomalies in radar coverage accurately in real-time. In this study, the refractivity is assumed to depend only on altitude and it is predicted from phaseless radio wave measurements taken in bistatic configuration. We are interested in exploring the inversion techniques which are efficient in high-dimensional realistic scenarios during maritime operations and which can maintain accuracy with minimum possible need for case-specific a priori information. The long-term goal is to transfer the developed techniques and knowledge to advance to a 'Refractivity-From-Clutter' system, which is the ideal self-contained inversion technique to upgrade ship self-defense, but more complex to analyze and develop properly. The inverse problem is formulated as a simulation-driven nonlinear optimization problem which is tackled using Quasi-Newton methods. The simulations are modeled with the 2D wide angle parabolic wave equation of Thomson and Chapman. The gradient of the optimization problem is obtained using variational adjoint approach and it is estimated cheaply at the cost of two forward model simulations regardless of parameter dimension. The derivations are validated numerically using synthetically-generated measurements. The numerical tests revealed the severity of nonlinearity and ill-posedness of the inverse problem which often leads to inaccurate inversion results, even in ideal conditions when no modeling or measurement errors exist. Multiscale strategies are used for mitigating the nonlinearity of the problem. Accurate inversion results are obtained using reduction in search and data spaces. The advantages and the limitations of the technique is discussed in realistic high-dimensional scenarios. Keywords: radio wave propagation, numerical optimization, inverse problems, refractivity inversion, wide-angle parabolic equation, adjoint model.
- Published
- 2021
21. Étude expérimentale et numérique pour la caractérisation thermique des bétons à changement de phase (BCP).
- Author
-
Essid, Nessrine, Eddhahak, Anissa, and Neji, Jamel
- Abstract
In order to satisfy the technological challenges required by the new building concepts in the aim of improved performances in terms of durability, thermal comfort and respect for the environment, many research ideas have been considered by researchers and building professionals. Among these ideas, the reinforcement of construction materials by innovative and eco-efficient materials known as phase change materials (PCM) has attractive and promising advantages. Known for their high latent heat storage capacities, PCMs combined with cementitious materials such as concrete, are presented in the construction market as potential and intelligent actors for "clean" and sustainable construction. However, when PCMs are incorporated into the concrete paste, the estimation of the thermal conductivity and the specific heat capacity of the latter is not trivial and thus requires solving the optimization problems known as "inverse heat transfer problems". In this context, this work proposes an iterative parametric optimization procedure, using a numerical model developed in order to estimate the thermal conductivity and the specific heat of the material containing the PCMs, such as phase change concrete, for example. To achieve this, we will use thermograms obtained from experimental tests carried out with an experimental DEsProTherm, developed at the I2M laboratory of ENSAMBordeaux and based on the method of the hot plan. The tests were carried out on different types of concrete samples incorporating different amounts of PCM. [ABSTRACT FROM AUTHOR]
- Published
- 2017
- Full Text
- View/download PDF
22. Approches variationnelles régularisées pour la résolution de problèmes inverses et pour l'apprentissage machine : de la modéisation aux algorithmes à grande échelle
- Author
-
Pustelnik, Nelly, Laboratoire de Physique de l'ENS Lyon (Phys-ENS), École normale supérieure - Lyon (ENS Lyon)-Centre National de la Recherche Scientifique (CNRS)-Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Université de Lyon, École Normale Supérieure de Lyon, Jérôme Idier, École normale supérieure de Lyon (ENS de Lyon)-Université de Lyon-Centre National de la Recherche Scientifique (CNRS), and Pustelnik, Nelly
- Subjects
[INFO.INFO-LG]Computer Science [cs]/Machine Learning [cs.LG] ,Problèmes inverses ,Machine learning ,Optimisation ,[INFO.INFO-LG] Computer Science [cs]/Machine Learning [cs.LG] ,Algorithmes proximaux ,[SPI.SIGNAL]Engineering Sciences [physics]/Signal and Image processing ,[SPI.SIGNAL] Engineering Sciences [physics]/Signal and Image processing - Published
- 2021
23. Hyperparameter selection for high dimensional sparse learning : application to neuroimaging
- Author
-
Bertrand, Quentin, Inria Saclay - Ile de France, Institut National de Recherche en Informatique et en Automatique (Inria), IFR49 - Neurospin - CEA, Commissariat à l'énergie atomique et aux énergies alternatives (CEA), Modelling brain structure, function and variability based on high-field MRI data (PARIETAL), Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria)-Service NEUROSPIN (NEUROSPIN), Direction de Recherche Fondamentale (CEA) (DRF (CEA)), Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Université Paris-Saclay-Direction de Recherche Fondamentale (CEA) (DRF (CEA)), Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Université Paris-Saclay, Université Paris-Saclay, Alexandre Gramfort, Joseph Salmon, STAR, ABES, Service NEUROSPIN (NEUROSPIN), Université Paris-Saclay-Direction de Recherche Fondamentale (CEA) (DRF (CEA)), Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Inria Saclay - Ile de France, and Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria)
- Subjects
Coordinate descent ,Parcimonie ,Selection et optimisation d'hyperparamètre ,Hyperparameter selection and optimization ,Neuroimaging ,Descente par coordonnée ,Convex optimization ,Neuroimagerie ,Optimisation bi-niveaux ,Problèmes inverses ,[MATH.MATH-ST]Mathematics [math]/Statistics [math.ST] ,Inverse problem ,[MATH.MATH-ST] Mathematics [math]/Statistics [math.ST] ,Sparsity - Abstract
Due to non-invasiveness and excellent time resolution, magneto- and electroencephalography (M/EEG) have emerged as tools of choice to monitor brain activity. Reconstructing brain signals from M/EEG measurements can be cast as a high dimensional ill-posed inverse problem. Typical estimators of brain signals involve challenging optimization problems, composed of the sum of a data-fidelity term, and a sparsity promoting term. Because of their notoriously hard to tune regularization hyperparameters, sparsity-based estimators are currently not massively used by practitioners. The goal of this thesis is to provide a simple, fast, and automatic way to calibrate sparse linear models. We first study some properties of coordinate descent: model identification, local linear convergence, and acceleration. Relying on Anderson extrapolation schemes, we propose an effective way to speed up coordinate descent in theory and practice. We then explore a statistical approach to set the regularization parameter of Lasso-type problems. A closed-form formula can be derived for the optimal regularization parameter of L1 penalized linear regressions. Unfortunately, it relies on the true noise level, unknown in practice. To remove this dependency, one can resort to estimators for which the regularization parameter does not depend on the noise level. However, they require to solve challenging "nonsmooth + nonsmooth" optimization problems. We show that partial smoothing preserves their statistical properties and we propose an application to M/EEG source localization problems. Finally we investigate hyperparameter optimization, encompassing held-out or cross-validation hyperparameter selection. It requires tackling bilevel optimization with nonsmooth inner problems. Such problems are canonically solved using zeros order techniques, such as grid-search or random-search. We present an efficient technique to solve these challenging bilevel optimization problems using first-order methods., Grâce à leur caractère non invasif et leur excellente résolution temporelle, la magnéto- et l'électroencéphalographie (M/EEG) sont devenues des outils incontournables pour observer l'activité cérébrale. La reconstruction des signaux cérébraux à partir des enregistrements M/EEG peut être vue comme un problème inverse de grande dimension mal posé. Les estimateurs typiques des signaux cérébraux se basent sur des problèmes d'optimisation difficiles à résoudre, composés de la somme d'un terme d'attache aux données et d'un terme favorisant la parcimonie. À cause du paramètre de régularisation notoirement difficile à calibrer, les estimateurs basés sur la parcimonie ne sont actuellement pas massivement utilisés par les praticiens. L'objectif de cette thèse est de fournir un moyen simple, rapide et automatisé de calibrer des modèles linéaires parcimonieux. Nous étudions d'abord quelques propriétés de la descente par coordonnées : identification du modèle, convergence linéaire locale, et accélération. En nous appuyant sur les schémas d'extrapolation d'Anderson, nous proposons un moyen efficace d'accélérer la descente par coordonnées en théorie et en pratique. Nous explorons ensuite une approche statistique pour calibrer le paramètre de régularisation des problèmes de type Lasso. Il est possible de construire des estimateurs pour lesquels le paramètre de régularisation optimal ne dépend pas du niveau de bruit. Cependant, ces estimateurs nécessitent de résoudre des problèmes d'optimisation "non lisses + non lisses". Nous montrons que le lissage partiel préserve leurs propriétés statistiques et nous proposons une application aux problèmes de localisation de sources M/EEG. Enfin, nous étudions l'optimisation d'hyperparamètres, qui comprend notamment la validation croisée. Cela nécessite de résoudre des problèmes d'optimisation à deux niveaux avec des problèmes internes non lisses. De tels problèmes sont résolus de manière usuelle via des techniques d'ordre zéro, telles que la recherche sur grille ou la recherche aléatoire. Nous présentons une technique efficace pour résoudre ces problèmes d'optimisation à deux niveaux en utilisant des méthodes du premier ordre.
- Published
- 2021
24. Modélisation statique inverse de vêtements
- Author
-
Ly, Mickaël, ModELisation de l'apparence des phénomènes Non-linéaires (ELAN), Inria Grenoble - Rhône-Alpes, Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria)-Laboratoire Jean Kuntzmann (LJK), Institut National de Recherche en Informatique et en Automatique (Inria)-Centre National de la Recherche Scientifique (CNRS)-Université Grenoble Alpes (UGA)-Institut polytechnique de Grenoble - Grenoble Institute of Technology (Grenoble INP ), Université Grenoble Alpes (UGA)-Centre National de la Recherche Scientifique (CNRS)-Université Grenoble Alpes (UGA)-Institut polytechnique de Grenoble - Grenoble Institute of Technology (Grenoble INP ), Université Grenoble Alpes (UGA), Université Grenoble Alpes, Florence Bertails-Descoubes, European Project: 639139,H2020 ERC,ERC-2014-STG,GEM(2015), Institut National de Recherche en Informatique et en Automatique (Inria), Laboratoire Jean Kuntzmann (LJK), Université Grenoble Alpes [2020-....], Florence Bertails, and Mélina Skouras
- Subjects
Inverse problems ,cloth ,[INFO.INFO-OH]Computer Science [cs]/Other [cs.OH] ,inverse modelling ,contact frottant ,Mécanique ,vêtements ,Thin elastic shells ,Mechanics ,[INFO.INFO-MO]Computer Science [cs]/Modeling and Simulation ,Coques minces élastiques ,shells ,modélisation inverse ,Problèmes inverses ,physical simulation ,dry friction ,coques ,simulation physique - Abstract
This thesis deals with the direct simulation and inverse design of garments in the presence of frictional contact.The shape of draped garments results from the slenderness of the fabric, which can be represented in mechanics by a thin elastic plate or shell, and from its interaction with the body through dry friction. This interaction, necessary to reproduce the threshold friction occuring in such contacts, is described by a non smooth law, which, in general, makes its integration complex. In a first contribution, we modify the so-called Projective Dynamics algorithm to incorporate this dry frictional contact law in a simple way. Projective Dynamics is a popular method in Computer Graphics that quickly simulates deformable objects such as plates with moderate accuracy, yet without including frictional contact. The rationale of this algorithm is to solve the integration of the dynamics by successively calculating estimates of the shape of the object at the next timestep. We take up the same idea to incorporate a procedure for estimating the frictional contact law that robustly captures the threshold phenomenon. In addition it is interesting to note that simulators developed in Computer Graphics, originally targeted at visual animation, have become increasingly accurate over the years. They are now being used in more "critical" applications such as architecture, robotics or medicine, which are more demanding in terms of accuracy. In collaboration with mechanicists and experimental physicists, we introduce into the Computer Graphics community protocols to verify the correctness of simulators, and we present in this manuscript our contributions related to plate and shell simulators. Finally, in a last part, we focus on garment inverse design. The interest of this process is twofold. Firstly, for simulations, solving the inverse problem provides a "force-free" and possibly curved version of the input (called the rest or natural shape), whether it comes from a 3D design or a 3D capture, that allows to start the simulation with the input as the initial deformed shape. To this end, we propose an algorithm for the inverse design of clothes represented by thin shells that also accounts for dry frictional contact. Within our framework, the input shape is considered to be a mechanical equilibrium subject to gravity and contact forces. Then our algorithm computes a rest shape such that this input shape can be simulated without any sagging. Secondly, it is also appealing to use these rest shapes for a real life application to manufacture the designed garments without sagging. However, the traditional cloth fabrication process is based on patterns, that is sets of flat panels sewn together. In this regard, we present in our more prospective part our results on the adaptation of the previous algorithm to include geometric constraints, namely surface developability, in order to get flattenable rest shapes.; Cette thèse porte sur la simulation directe et la conception inverse de vêtements en présence de contact frottant. La forme de vêtements portés résulte en effet à la fois de la minceur du tissu, représentable en mécanique par une plaque ou une coque mince et élastique, et de son interaction avec le corps à travers un phénomène de contact frottant solide. Cette interaction, nécessaire pour reproduire le frottement à seuil typique des interactions entre solides, est décrite par une loi non régulière, ce qui rend son intégration généralement complexe. Dans une première contribution, nous modifions l'algorithme Projective Dynamics afin d'y introduire simplement cette loi de contact frottant. Projective Dynamics est une méthode populaire en Informatique Graphique qui simule rapidement avec une précision modérée des objets déformables tels que les plaques, mais sans inclure de contact frottant. L'idée principale de cet algorithme est de résoudre l'intégration de la dynamique en calculant successivement des estimations de la forme de l'objet au pas de temps suivant. Nous reprenons la même idée afin d'y incorporer une procédure d'estimation de la loi de contact frottant qui parvient de manière robuste à capturer le phénomène de seuil.Par ailleurs, il est intéressant de noter que les simulateurs développés en Informatique Graphique, dédiés à l'origine à l'animation, sont devenus de plus en plus précis au fil des ans. Ils sont maintenant sollicités dans des applications plus "critiques" telles que l'architecture, la robotique ou la médecine plus exigeantes en terme de justesse. Dans une collaboration avec des mécaniciens et des physiciens expérimentateurs, nous introduisons de nouveaux protocoles de validation des simulateurs graphiques et nous présentons dans ce manuscrit nos contributions relatives aux simulateurs de plaques et de coques.Enfin, dans une dernière partie, nous nous intéressons à la conception inverse de vêtements. L'intérêt de ce procédé est double. En premier lieu, pour des simulations, résoudre le problème inverse fournit une version "sans force" et possiblement courbée de l'entrée (dite naturelle ou au repos), que celle-ci provienne d'un modèle 3D ou d'une capture 3D, qui permet d'initier la simulation avec la forme de l'entrée en tant que forme déformée initiale. En ce sens, nous proposons un algorithme pour la conception inverse de coques en présence de contact frottant. Dans notre cadre, la forme donnée en entrée est considérée comme un équilibre mécanique soumis à la gravité et aux forces de contact. Notre algorithme calcule ensuite une forme au repos telle que l'entrée puisse être simulée sans qu'elle ne s'affaisse. En second lieu, il est aussi tentant de vouloir utiliser ces formes naturelles pour une application concrète afin de confectionner lesdits vêtements sans qu'ils ne s'affaissent. Cependant, le processus classique de fabrication de vêtements est basé sur l'usage de patrons, c'est-à-dire d'ensembles de panneaux plats à coudre ensemble. Nous présentons donc dans une partie finale plus prospective nos résultats sur l'adaptation de notre algorithme précédent afin d'y incorporer des contraintes géométriques, en l'occurrence la développabilité des surfaces, afin d'obtenir des formes au repos aplatissables.
- Published
- 2021
25. New numerical strategies for robust, consistent, and computationally efficientmodel identification from full-field measurements
- Author
-
Nguyen, Hai Nam, Laboratoire de mécanique et technologie (LMT), Université Paris-Saclay-Centre National de la Recherche Scientifique (CNRS)-Ecole Normale Supérieure Paris-Saclay (ENS Paris Saclay), Université Paris-Saclay, Ludovic Chamoin, and Cuong Ha-Minh
- Subjects
Inverse problems ,Réduction de modèle ,Adaptive techniques ,Model reduction ,Problèmes inverses ,Techniques adaptatives ,Erreur de modèl ,Mesures de champs ,[SPI.MECA.SOLID]Engineering Sciences [physics]/Mechanics [physics.med-ph]/Solid mechanics [physics.class-ph] ,Modeling error ,Full-Field measurements ,Multiscale analysis ,Analyse multiéchelle - Abstract
The research work addresses robust, consistent, and effective identification of material parameters from full-field measurements obtained from the advanced Digital Image Correlation (DIC) experimental techniques. In this framework, numerical simulation plays a major role as FE computations are performed in parallel to the acquisition of experimental data in order to conduct the identification process.The goal of the PhD is to study and optimize the identification procedure by defining a suitable numerical architecture in terms of mathematical model and discretization mesh selection, with respect to information and noise contained in the experimental data. This aims at computing right with right cost. The idea isto link the various error sources which occur in the process: 1) experimental noise related to the resolution of the images; 2) modeling error coming from the selection of a physics-based model which remains an imperfect representation of the real world; 3) numerical (discretization) error due to the use of meshes to perform numerical simulations. We thus wish to design consistent models and meshes with computational cost and accuracy governed by available experimental information, with similar error levels. For this purpose, we propose a methodology based on duality analysis, coming from developments of the lab for many years, and valid for a large range of linear and nonlinear models. The obtained identification tool, based on reliability of information, is constructed from a hybrid mathematical formulation with a cost functional made of modeling and observation terms. We show that it enables to define specific error indicators and to set up a suitable adaptive procedure in order to correct bias in the numerical modeling and make it consistent with features of full-field measurements. A main aspect of the procedure is the computation of admissible fields verifying reliable information. The proposed approach is first validated on linear elasticity models before being applied on more complex nonlinear material models in order to perform model selection and adaptation. In addition, the approach is computationally enhanced by the complementary use of advanced numerical methods such as reduced order modeling, specific nonlinear solvers, or multiscale analysis.; Le travail de recherche a pour ambition l’identification robuste, cohérente, et efficace de paramètres matériaux à partir de mesures de champs obtenues par les techniques expérimentales avancées basées sur la corrélation d’image numérique (CIN). Dans ce contexte, la simulation numérique joue un rôle majeur car des calculs éléments finis sont effectués en parallèle de l’acquisition des données expérimentales afin de mener la procédure d’identification. L’objectif de la thèse est d’étudier et d’optimiser cette procédure en définissant une architecture numérique dédiée en terme de choix de modèle mathématique et du maillage, en fonction de l’information et du bruit contenus dans les données expérimentales. Ce choix vise à calculer juste au juste coût. L’idée est de relier les diverses sourcesd’erreur présentes dans la procédure d’identification: 1) bruit de mesure lié à la résolution des images; 2) erreur de modèle venant de la sélection d’un modèle basé sur la physique qui reste une représentation imparfaite de la réalité; 3) erreur de discrétisation due à l’utilisation de maillages générant des approximations numériques. On cherche donc à définir des modèles et des maillages dont le coût numérique et la précision sont gouvernés par l’information expérimentale disponible, avec des niveaux d’erreur similaires. Pour cela, on propose une méthodologie baséesur l’analyse duale, issue de développements du laboratoire depuis de nombreuses années, et valide pour une large gamme de modèles linéaires ou nonlinéaires. L’outil d’identification obtenu, basé sur la fiabilité de l’information, est construit à partir d’une formulation mathématique hybride avec une fonction coût composée de termes liés au modèle ou aux observations. On montre qu’il permet de définir des indicateurs d’erreur spécifiques et de mettre en place une procédure adaptative afin de corriger les biais de la modélisation numérique et la rendre cohérente avec les caractéristiques des mesures de champs. Un aspect majeur de la procédure est le calcul de champs admissibles vérifiant l’information pertinente. L’approche proposée est dans un premier temps validée sur des modèles d’élasticité linéaire avant d’être appliquée avec des comportements matériau non-linéaires afin de mener le processus de sélection et d’adaptation de modèle. De plus, l’approche est rendue plus efficace par l’utilisation complémentaire de méthodes numériques avancées telles que la réduction de modèle, des solveurs non-linéaires spécifiques, ou l’analyse multi-échelle.
- Published
- 2021
26. Problèmes inverses en hémodynamique. Estimation rapide de flux sanguins à partir de données médicales
- Author
-
Galarce Marin, Felipe, COmputational Mathematics for bio-MEDIcal Applications (COMMEDIA), Inria de Paris, Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria)-Laboratoire Jacques-Louis Lions (LJLL (UMR_7598)), Sorbonne Université (SU)-Centre National de la Recherche Scientifique (CNRS)-Université Paris Cité (UPCité)-Sorbonne Université (SU)-Centre National de la Recherche Scientifique (CNRS)-Université Paris Cité (UPCité), Sorbonne Université, and Jean-Frédéric Gerbeau
- Subjects
Inverse problems ,Inter-patient variability ,Domaines non paramétriques ,Estimation d'état ,Réduction de modèle ,Problèmes inverses ,[MATH.MATH-ST]Mathematics [math]/Statistics [math.ST] ,Non parametric variability ,Quantités d'intérêt ,Variabilité inter-patient ,[SDV.IB]Life Sciences [q-bio]/Bioengineering ,Quantities of interest ,Model réduction ,State estimation - Abstract
This thesis presents a work at the interface between applied mathematics and biomedical engineering. The work's main subject is the estimation of blood flows and quantities of medical interest in diagnosing certain diseases concerning the cardiovascular system. We propose a complete pipeline, providing the theoretical foundations for state estimation from medical data using reduced-order models, and addressing inter-patient variability. Extensive numerical tests are shown in realistic 3D scenarios that verify the potential impact of the work in the medical comunnity.; Cette thèse présente un travail à l’interface entre les mathématiques appliquées et l’ingénierie biomédicale. Le sujet principal en est l’estimation des écoulements sanguins et de quantités d’intérêt pour le diagnostic de certaines maladies cardiovasculaires. Nous proposons une procédure complète, dont nous détaillons les fondements théoriques, permettant l’estimation d’état à partir de données médicales en utilisant des techniques de réduction de modèle, et en prenant en compte la problématique de la variabilité inter-patients. De nombreux test numériques en 3D sont exposés afin de vérifier le potentiel de cette étude dans le domaine médical.
- Published
- 2021
27. Inverse problems in hemodynamics. Fast estimation of blood flows from medical data
- Author
-
Galarce Marin, Felipe, COmputational Mathematics for bio-MEDIcal Applications (COMMEDIA), Inria de Paris, Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria)-Laboratoire Jacques-Louis Lions (LJLL (UMR_7598)), Sorbonne Université (SU)-Centre National de la Recherche Scientifique (CNRS)-Université de Paris (UP)-Sorbonne Université (SU)-Centre National de la Recherche Scientifique (CNRS)-Université de Paris (UP), Inria Paris, Sorbonne Universite, Laboratoire Jacques-Louis Lions, Jean-Frédéric Gerbeau, Damiano Lombardi, Olga Mula Hernandez, and Sorbonne Université (SU)-Centre National de la Recherche Scientifique (CNRS)-Université Paris Cité (UPCité)-Sorbonne Université (SU)-Centre National de la Recherche Scientifique (CNRS)-Université Paris Cité (UPCité)
- Subjects
Inverse problems ,Inter-patient variability ,Model reduction ,Problèmes inverses ,Réduction de modèle ,Domaines non paramétriques ,Variabilité inter-patient ,Quantities of Interest ,Estimation d’état ,State estimation ,Non-parametric domains ,Quantités d’intérêt ,[MATH.MATH-NA]Mathematics [math]/Numerical Analysis [math.NA] - Abstract
This thesis presents a work at the interface between applied mathematics and biomedical engineering. The work’s main subject is the estimation of blood flows and quantities of medical interest in diagnosing certain diseases concerning the cardiovascular system. We propose a complete pipeline, providing the theoretical foundations for state estimation from medical data using reduced-order models, and addressing inter-patient variability. Extensive numerical tests are shown in realistic 3D scenarios that verify the potential impact of the work in the medical comunnity.; Cette thèse présente un travail à l’interface entre les mathématiques appliquées et l’ingénierie biomedicale. Le sujet principal en est l’estimation des écoulements sanguins et de quantités d’intérêt pour le diagnostic de certaines maladies cardiovasculaires. Nous proposons une procédure complète, dont nous détaillons les fondements théoriques, permettant l’estimation d’état à partir de données médicales en utilisant des techniques de réduction de modèle, et en prenant en compte la problématique de la variabilité inter-patients. De nombreux test numériques en 3D sont exposés afin de vérifier le potentiel de cette étude dans le domaine médical.
- Published
- 2021
28. Reproduction sonore 3D par surface émettrice de sons dans un véhicule
- Author
-
Benbara, Nassim and STAR, ABES
- Subjects
Inverse problems ,Digital Twin ,[SPI.ACOU] Engineering Sciences [physics]/Acoustics [physics.class-ph] ,Jumeau numérique ,Contrôle actif ,Advanced signal processing ,Problèmes inverses ,Bending wave focusing ,Spatial sound rendering ,Rendu sonore spatialisé ,Focalisation d'ondes de flexion ,Active control ,Traitement du signal - Abstract
The main objective of this thesis is to propose alternative solutions to classical electrodynamic loudspeakers used in the automobile industry being compliant with spatial sound rendering. The idea is to make indoor garnishments equipped with actuators (electrodynamic or piezoelectric) vibrating and radiating sound by focusing bending waves inside them. Firstly, three wave focusing methods have been formalized in a common framework and adapted to audio applications. A parametric study was conducted to compare them using dedicated key performance indexes. It turns out that the most efficient method in this context is the inversion of the spatio-temporal propagation operator which requires a prior experimental learning of the structure dynamics. An experimental validation of the focusing abilities of this method has been achieved on a car door. Learning through a numerical twin instead of time-consuming experimental data has also been validated. Then temperature variations between -10°C and 60°C existing car have been considered. The dynamic properties of the host structure (made of polypropylene in general) indeed vary widely in this temperature range. A temperature compensation strategy based on digital twins feeding neural networks has therefore been implemented. In addition, noise and vibrations due to the engine and the road can impact bending wave focusing. A closed loop strategy is therefore used to guarantee the performance of the focusing algorithm while eliminating those disturbances., L’objectif de cette thèse est de proposer et de valider des solutions alternatives aux haut-parleurs électrodynamiques classiquement utilisés dans l’automobile qui soient compatibles avec le rendu sonore spatialisé. L’idée directrice est de faire directement vibrer et rayonner des garnitures intérieures équipées d’actionneurs (électrodynamiques ou piézoélectriques) en y focalisant des ondes de flexion. Trois méthodes de focalisation de la littérature ont ainsi été formalisés dans un cadre commun et adaptées aux applications audio. Une étude paramétrique a été menée pour les comparer numériquement et expérimentalement à l’aide d’indicateurs de performances dédiés. La méthode de focalisation la plus efficace est l’inversion spatio-temporelle de l’opérateur de propagation. Elle nécessite un apprentissage préalable de la dynamique de la structure expérimentalement couteux. Une validation expérimentale des capacités de focalisation de cette méthode a été effectuée sur une portière de voiture. L’apprentissage par le biais d’un jumeau numérique au lieu de données expérimentales a de plus été validé. Les variations de température entre 10°C et 60°C existantes dans un habitacle de voiture ont ensuite été considérées. Les propriétés dynamiques de la structure hôte (constituée de polypropylène en général) varient en effet largement dans cette plage de température. Une stratégie de compensation de la température basée sur un jumeau numérique entrainant un réseau de neurones a été mise en place et validée numériquement. De plus, les bruits et vibrations dus au moteur et à la route perturbent également la focalisation. Une commande en boucle fermée a été mise en place afin de garantir les performances de l’algorithme de focalisation tout en éliminant ces perturbations.
- Published
- 2021
29. Single-pixel imaging : Compressed video acquisition and reconstruction using deep learning
- Author
-
Lorente Mur, Antonio, Lorente Mur, Antonio, Imagerie Tomographique et Radiothérapie, Centre de Recherche en Acquisition et Traitement de l'Image pour la Santé (CREATIS), Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Université de Lyon-Institut National des Sciences Appliquées de Lyon (INSA Lyon), Université de Lyon-Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA)-Hospices Civils de Lyon (HCL)-Université Jean Monnet - Saint-Étienne (UJM)-Institut National de la Santé et de la Recherche Médicale (INSERM)-Centre National de la Recherche Scientifique (CNRS)-Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA)-Hospices Civils de Lyon (HCL)-Université Jean Monnet - Saint-Étienne (UJM)-Institut National de la Santé et de la Recherche Médicale (INSERM)-Centre National de la Recherche Scientifique (CNRS), INSA Lyon, Nicolas Ducos, Françoise Peyrin, STAR, ABES, Université de Lyon, and Nicolas Ducros
- Subjects
Problème inverse linéaire ,Inverse problems ,Sous-Échantillonnage ,[INFO.INFO-TS] Computer Science [cs]/Signal and Image Processing ,Computational optics ,Single-Pixell imaging ,Imagerie mono-pixel ,Computational imaging ,Optique computationelle ,Single-pixel imaging ,[INFO.INFO-CV] Computer Science [cs]/Computer Vision and Pattern Recognition [cs.CV] ,video reconstruction ,Optique computationnelle ,[INFO.INFO-TS]Computer Science [cs]/Signal and Image Processing ,[INFO.INFO-LG]Computer Science [cs]/Machine Learning [cs.LG] ,[MATH.MATH-ST]Mathematics [math]/Statistics [math.ST] ,[MATH.MATH-ST] Mathematics [math]/Statistics [math.ST] ,Image Acquisition ,[SPI.SIGNAL] Engineering Sciences [physics]/Signal and Image processing ,Linear inverse problem ,[INFO.INFO-CV]Computer Science [cs]/Computer Vision and Pattern Recognition [cs.CV] ,Deep learning ,[MATH.MATH-OC] Mathematics [math]/Optimization and Control [math.OC] ,[INFO.INFO-LG] Computer Science [cs]/Machine Learning [cs.LG] ,image reconstruction ,Undesampling ,Réseaux neuronaux cellulaires ,Imagerie computationnelle ,Reconstruction de vidéos ,Problèmes inverses ,Reconstruction d'images ,Acquisition image ,Apprentissage Profond ,[MATH.MATH-OC]Mathematics [math]/Optimization and Control [math.OC] ,[SPI.SIGNAL]Engineering Sciences [physics]/Signal and Image processing ,Neural networks - Abstract
Single-pixel cameras allow acquisition of two-dimensional images using only a single-point detector. These use hardware to measure the inner product of the scene under view, along with the user-defined functions, and then the image is recovered using reconstruction algorithms. Single-pixel cameras are well suited for imaging problems where it might not be possible to apply traditional arrays of detectors. In particular, single-pixel cameras can be coupled with a spectrometer, to provide hyperspectral cameras. Such single-pixel hyperspectral cameras can be used, for instance, to analyze spectral signatures of certain molecules. The main limitations of single-pixel imaging are the speeds of acquisition and reconstruction, as these are both too slow for real-time imaging applications. The aim of this project was to design reconstruction algorithms and down-sampling strategies to enable high-frequency image acquisition and reconstruction for single-pixel cameras. The study described in this thesis investigated the use of deep-learning algorithms for single-pixel imaging. More precisely, we focused on introducing generalized Tikhonov-regularized solutions within deep-learned reconstructors for experimental data. Secondly, we worked on neural-network architectures that can combine neural networks, and the expectation-maximization algorithm to estimate the maximum a posteriori of our inverse problem. Finally, we investigated time-adaptive down-sampling algorithms based on projected variance estimates over time. To reconstruct a current frame, we combined these temporal down-sampling algorithms with reconstruction approaches that take into account previous reconstructed frames. With respect to classic approaches, our approach demonstrates real-time acquisition and reconstruction times that can provide videos with 10 frames per second. Finally, we demonstrate the applicability of these approaches to experimental data from a single-pixel hyperspectral camera., La caméra mono-pixel est une caméra qui permet de faire l'acquisition d'images bidimensionnelles à partir d'un capteur ponctuel. Elle mesure au niveau du détecteur le produit scalaire d'image de la scène avec des fonctions définies par l'utilisateur. L'image est alors récupérée par le biais d'algorithmes de reconstruction dédiés. La caméra mono-pixel peut être utilisée dans des problèmes d'imagerie où il serait impossible d'utiliser des méthodes d'imagerie conventionnelle par matrice de capteurs. En particulier, la caméra mono-pixel peut être couplée avec un spectromètre pour en faire une caméra hyperspectrale. De telles caméras mono-pixel permettent notamment de réaliser l'analyse de la signature spectrale de certaines molécules. La principale limitation de l'imagerie mono-pixel sont les temps d'acquisition et de reconstruction, qui sont trop lents pour l'application en temps réel. L'objectif de cette thèse est la réalisation d'algorithmes de reconstruction et de sous-échantillonage pour permettre l'acquisition et reconstruction d'images à hautes fréquences. Dans cette thèse nous avons étudié l'usage d'algorithmes d'apprentissage profond en imagerie mono-pixel. Plus concretement, nous avons introduit l'usage de solutions de régularisation généralisée de Tikhonov dans des reconstructeurs par réseaux de neurones dans le but de les appliquer à des données expérimentales. Dans un deuxième temps, nous avons développé des architectures de réseaux neuronaux qui combinent des réseaux neuronaux avec l'algorithme d'espérance-maximisation afin d'estimer le maximum à posteriori de notre problème inverse. Enfin, nous avons étudié des schémas de sous-échantillonage évoluant au cours du temps selon l'évolution prédite au cours du temps de la variance. Nous avons combiné ce sous-échantillonage avec des schémas de reconstruction prenant en compte les frames reconstruites précédemment pour estimer la frame actuelle. Par rapport aux approches classiques, notre approche permet l'acquisition et la reconstruction en temps réel, avec une cadence de 10 images par seconde. Enfin, nous avons montré l'application des méthodes proposées à des données issues d'une caméra mono-pixel hyperspectrale.
- Published
- 2021
30. Bayesian plug & play methods for inverse problems in imaging
- Author
-
González Olmedo, Mario, Almansa, Andrés, Musé, Pablo, and González Olmedo Mario, Universidad de la República (Uruguay). Facultad de Ingeniería.
- Subjects
Inverse problems ,Optimization ,Statistiques bayésiennes ,Image processing ,Problèmes inverses ,Traitement d’images ,Problemas inversos ,Optimisation ,Procesamiento de imágenes ,Bayesian statistics ,Estadística Bayesiana ,Optimización - Abstract
Thèse de Doctorat de Mathématiques Appliquées (Université de Paris) Tesis de Doctorado en Ingeniería Eléctrica (Universidad de la República) This thesis deals with Bayesian methods for solving ill-posed inverse problems in imaging with learnt image priors. The first part of this thesis (Chapter 3) concentrates on two particular problems, namely joint denoising and decompression and multi-image super-resolution. After an extensive study of the noise statistics for these problem in the transformed (wavelet or Fourier) domain, we derive two novel algorithms to solve this particular inverse problem. One of them is based on a multi-scale self-similarity prior and can be seen as a transform-domain generalization of the celebrated non-local bayes algorithm to the case of non-Gaussian noise. The second one uses a neural-network denoiser to implicitly encode the image prior, and a splitting scheme to incorporate this prior into an optimization algorithm to find a MAP-like estimator. The second part of this thesis concentrates on the Variational AutoEncoder (VAE) model and some of its variants that show its capabilities to explicitly capture the probability distribution of high-dimensional datasets such as images. Based on these VAE models, we propose two ways to incorporate them as priors for general inverse problems in imaging : • The first one (Chapter 4) computes a joint (space-latent) MAP estimator named Joint Posterior Maximization using an Autoencoding Prior (JPMAP). We show theoretical and experimental evidence that the proposed objective function satisfies a weak bi-convexity property which is sufficient to guarantee that our optimization scheme converges to a stationary point. Experimental results also show the higher quality of the solutions obtained by our JPMAP approach with respect to other non-convex MAP approaches which more often get stuck in spurious local optima. • The second one (Chapter 5) develops a Gibbs-like posterior sampling algorithm for the exploration of posterior distributions of inverse problems using multiple chains and a VAE as image prior. We showhowto use those samples to obtain MMSE estimates and their corresponding uncertainty. Cette thèse traite des méthodes bayésiennes pour résoudre des problèmes inverses mal posés en imagerie avec des distributions a priori d’images apprises. La première partie de cette thèse (Chapitre 3) se concentre sur deux problèmes partic-uliers, à savoir le débruitage et la décompression conjoints et la super-résolutionmulti-images. Après une étude approfondie des statistiques de bruit pour ces problèmes dans le domaine transformé (ondelettes ou Fourier), nous dérivons deuxnouveaux algorithmes pour résoudre ce problème inverse particulie. L’un d’euxest basé sur une distributions a priori d’auto-similarité multi-échelle et peut êtrevu comme une généralisation du célèbre algorithme de Non-Local Bayes au cas dubruit non gaussien. Le second utilise un débruiteur de réseau de neurones pourcoder implicitement la distribution a priori, et un schéma de division pour incor-porer cet distribution dans un algorithme d’optimisation pour trouver un estima-teur de type MAP. La deuxième partie de cette thèse se concentre sur le modèle Variational Auto Encoder (VAE) et certaines de ses variantes qui montrent ses capacités à capturer explicitement la distribution de probabilité d’ensembles de données de grande dimension tels que les images. Sur la base de ces modèles VAE, nous proposons deuxmanières de les incorporer comme distribution a priori pour les problèmes inverses généraux en imagerie: •Le premier (Chapitre 4) calcule un estimateur MAP conjoint (espace-latent) nommé Joint Posterior Maximization using an Autoencoding Prior (JPMAP). Nous montrons des preuves théoriques et expérimentales que la fonction objectif proposée satisfait une propriété de bi-convexité faible qui est suffisante pour garantir que notre schéma d’optimisation converge vers un pointstationnaire. Les résultats expérimentaux montrent également la meilleurequalité des solutions obtenues par notre approche JPMAP par rapport à d’autresapproches MAP non convexes qui restent le plus souvent bloquées dans desminima locaux. •Le second (Chapitre 5) développe un algorithme d’échantillonnage a poste-riori de type Gibbs pour l’exploration des distributions a posteriori de problèmes inverses utilisant des chaînes multiples et un VAE comme distribution a priori. Nous montrons comment utiliser ces échantillons pour obtenir desestimations MMSE et leur incertitude correspondante. En esta tesis se estudian métodos bayesianos para resolver problemas inversos mal condicionados en imágenes usando distribuciones a priori entrenadas. La primera parte de esta tesis (Capítulo 3) se concentra en dos problemas particulares, a saber, el de eliminación de ruido y descompresión conjuntos, y el de superresolución a partir de múltiples imágenes. Después de un extenso estudio de las estadísticas del ruido para estos problemas en el dominio transformado (wavelet o Fourier),derivamos dos algoritmos nuevos para resolver este problema inverso en particular. Uno de ellos se basa en una distribución a priori de autosimilitud multiescala y puede verse como una generalización al dominio wavelet del célebre algoritmo Non-Local Bayes para el caso de ruido no Gaussiano. El segundo utiliza un algoritmo de eliminación de ruido basado en una red neuronal para codificar implícitamente la distribución a priori de las imágenes y un esquema de relajación para incorporar esta distribución en un algoritmo de optimización y así encontrar un estimador similar al MAP. La segunda parte de esta tesis se concentra en el modelo Variational AutoEncoder (VAE) y algunas de sus variantes que han mostrado capacidad para capturar explícitamente la distribución de probabilidad de conjuntos de datos en alta dimensión como las imágenes. Basándonos en estos modelos VAE, proponemos dos formas de incorporarlos como distribución a priori para problemas inversos genéricos en imágenes : •El primero (Capítulo 4) calcula un estimador MAP conjunto (espacio imagen y latente) llamado Joint Posterior Maximization using an Autoencoding Prior (JPMAP). Mostramos evidencia teórica y experimental de que la función objetivo propuesta satisface una propiedad de biconvexidad débil que es suficiente para garantizar que nuestro esquema de optimización converge a un punto estacionario. Los resultados experimentales también muestran la mayor calidad de las soluciones obtenidas por nuestro enfoque JPMAP con respecto a otros enfoques MAP no convexos que a menudo se atascan en mínimos locales espurios. •El segundo (Capítulo 5) desarrolla un algoritmo de muestreo tipo Gibbs parala exploración de la distribución a posteriori de problemas inversos utilizando múltiples cadenas y un VAE como distribución a priori. Mostramos cómo usar esas muestras para obtener estimaciones de MMSE y su correspondiente incertidumbre
- Published
- 2021
31. On the variational approach to mollification in the theory of ill-posed problems and applications
- Author
-
Simo Tao Lee, Walter Cédric, Institut de Mathématiques de Toulouse UMR5219 (IMT), Université Toulouse Capitole (UT Capitole), Université de Toulouse (UT)-Université de Toulouse (UT)-Institut National des Sciences Appliquées - Toulouse (INSA Toulouse), Institut National des Sciences Appliquées (INSA)-Université de Toulouse (UT)-Institut National des Sciences Appliquées (INSA)-Université Toulouse - Jean Jaurès (UT2J), Université de Toulouse (UT)-Université Toulouse III - Paul Sabatier (UT3), Université de Toulouse (UT)-Centre National de la Recherche Scientifique (CNRS), Université Paul Sabatier - Toulouse III, Pierre Maréchal, Anne Vanhems, Institut National des Sciences Appliquées - Toulouse (INSA Toulouse), Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA)-Université Toulouse 1 Capitole (UT1), Université Fédérale Toulouse Midi-Pyrénées-Université Fédérale Toulouse Midi-Pyrénées-Université Toulouse - Jean Jaurès (UT2J)-Université Toulouse III - Paul Sabatier (UT3), and Université Fédérale Toulouse Midi-Pyrénées-Centre National de la Recherche Scientifique (CNRS)
- Subjects
Inverse problems ,Optimization ,Méthodes de régularisation ,Problèmes inverses ,Instrumental regression ,[MATH.MATH-AP]Mathematics [math]/Analysis of PDEs [math.AP] ,Mollification ,Optimisation ,Regularization methods ,Régression instrumentale - Abstract
Inverse problems is a fast growing area in applied mathematics which has gained a great attention in the last decades due to its ubiquity in several fields of sciences and technology. Yet, most often, inverse problems result in mathematical equation which are unstable. That is, the solutions do not continuously depend on the data. As a matter of fact, very little perturbations on the data might cause arbitrary large errors on the solutions. Therefore, given that the noise is generally unavoidable in the data, direct attempts to solve the problem fail and one needs to apply a regularization method in order to recover stable approximates of the unknown solutions. In this respect, several regularization techniques have been developed in the literature. Globally, all these regularization methods can be split into two classes: A class of methods which attempt to reconstruct the unknown solutions and a class of methods which try to recover smooth versions of the unknown solutions. The aim of this thesis is to contribute to the promotion of the second class of regularization method via the study and application of the variational formulation of mollification. In this work, we show that the variational approach can be extended to the regularization of ill-posed problems involving non-compact operators. In this respect, we study and successfully apply the method to a problem coming from statistics namely the nonparametric instrumental regression. An additional contribution of this thesis is the design and study of a novel regularization method suitable for linear exponentially ill-posed problems. A numerical comparison of the new method to classical regularization methods such as Tikhonov, spectral cut-off, asymptotic regularization and conjugate gradient is carried out on three test problems from literature. The practical aspect of selection of the regularization parameter without knowledge of the noise level is also considered. Apart from the study and application of regularization methods, this thesis also focuses on the application of a very popular parameter selection rule known as the Morozov principle. Using Lagrange duality, we provide a simple and rapid algorithm for the computation of the regularization parameter corresponding to this rule for Tikhonov-like regularization methods. A relevance of this study is that it highlights a poorly known regularization method which yet has a great potential and is able to provide comparatively better approximate solutions compared to well-known classical regularization techniques. Another benefit of this thesis is the design of a new regularization method which, we believe, is promising in the regularization of exponentially ill-posed problems, especially for inverse heat conduction problems.; Les problèmes inverses constituent un domaine en pleine expansion en mathématiques appliquées qui a suscité une grande attention au cours des dernières décennies en raison de son omniprésence dans plusieurs domaines des sciences et technologies. Le plus souvent, les problèmes inverses donnent lieu à des équations mathématiques instables. Autrement dit, les solutions ne dépendent pas continument des données. En effet, de très petites perturbations sur les données peuvent causer des erreurs arbitrairement grandes sur les solutions. Étant donné que le bruit est généralement inévitable, inverser l'équation mal-posée échoue à résoudre le problème. Il est alors nécessaire d'appliquer une méthode de régularisation afin de récupérer des approximations stables des solutions. À cet égard, plusieurs techniques de régularisation ont été développées dans la littérature. Globalement, ces méthodes de régularisation peuvent être divisées en deux classes : Une classe de méthodes qui tentent de reconstruire les solutions inconnues initiales et une classe de méthodes qui tentent de reconstruire des versions lisses des solutions inconnues. L'objectif de cette thèse est de contribuer à la promotion de la deuxième classe de méthode de régularisation à travers l'étude et l'application de la formulation variationnelle de la mollification. Dans ce manuscrit, nous montrons que l'approche variationnelle de la mollification peut être étendue à la régularisation de problèmes mal-posés impliquant des opérateurs non compacts. À cet égard, nous étudions et appliquons avec succès la méthode à la régression instrumentale non-paramétrique. Une contribution supplémentaire de cette thèse est la conception et l'étude d'une nouvelle méthode de régularisation adaptée aux problèmes linéaires exponentiellement mal-posés. Une comparaison numérique de cette nouvelle méthode aux méthodes classiques de régularisation telles que Tikhonov, la spectral cut-off, la régularisation asymptotique et la méthode des gradients conjugués est effectuée sur trois problèmes test tirés de la littérature. L'aspect pratique de la sélection du paramètre de régularisation avec un niveau de bruit inconnu est également considéré. Outre l'étude et l'application des méthodes de régularisation, cette thèse traite également de l'application d'une règle de sélection de paramètres de régularisation très populaire connue sous le nom du principe de Morozov. En utilisant la dualité de Lagrange, nous fournissons un algorithme simple et rapide pour le calcul du paramètre de régularisation correspondant à cette règle pour les méthodes de régularisation du type Tikhonov. L'intérêt de cette étude est qu'elle met en avant une méthode de régularisation mal connue qui pourtant a un grand potentiel et est capable de fournir des solutions approchées comparativement meilleures que certaines techniques de régularisation classiques bien connues. Un autre apport de cette thèse est la conception d'une nouvelle méthode de régularisation qui, selon nous, est prometteuse dans la régularisation de problèmes exponentiellement mal-posés, en particulier pour les problèmes inverses de conduction thermique.
- Published
- 2020
32. Microscopie computationnelle
- Author
-
Debarnot, Valentin, Institut des Technologies Avancées en sciences du Vivant (ITAV), Université Toulouse III - Paul Sabatier (UT3), Université Fédérale Toulouse Midi-Pyrénées-Université Fédérale Toulouse Midi-Pyrénées-Centre National de la Recherche Scientifique (CNRS), Université Paul Sabatier - Toulouse III, Thomas Mangeat, and Pierre Weiss
- Subjects
Inverse problems ,Microscopy ,Blind inverse problems ,Problèmes inverses ,Flou variable ,[INFO.INFO-IA]Computer Science [cs]/Computer Aided Engineering ,Microscopie ,Problèmes inverses aveugles ,Space variant blur - Abstract
The contributions of this thesis are numerical and theoretical tools for the resolution of blind inverse problems in imaging. We first focus in the case where the observation operator is unknown (e.g. microscopy, astronomy, photography). A very popular approach consists in estimating this operator from an image containing point sources (microbeads or fluorescent proteins in microscopy, stars in astronomy). Such an observation provides a measure of the impulse response of the degradation operator at several points in the field of view. Processing this observation requires robust tools that can rapidly use the data. We propose a toolbox that estimates a degradation operator from an image containing point sources. The estimated operator has the property that at any location in the field of view, its impulse response is expressed as a linear combination of elementary estimated functions. This makes it possible to estimate spatially invariant (convolution) and variant (product-convolution expansion) operators. An important specificity of this toolbox is its high level of automation: only a small number of easily accessible parameters allows to cover a large majority of practical cases. The size of the point source (e.g. bead), the background and the noise are also taken in consideration in the estimation. This tool, coined PSF-estimator, comes in the form of a module for the Fiji software, and is based on a parallelized implementation in C++. The operators generated by an optical system are usually changing for each experiment, which ideally requires a calibration of the system before each acquisition. To overcome this, we propose to represent an optical system not by a single operator (e.g. convolution blur with a fixed kernel for different experiments), but by subspace of operators. This set allows to represent all the possible states of a microscope. We introduce a method for estimating such a subspace from a collection of low rank operators (such as those estimated by the toolbox PSF-Estimator). We show that under reasonable assumptions, this subspace is low-dimensional and consists of low rank elements. In a second step, we apply this process in microscopy on large fields of view and with spatially varying operators. This implementation is possible thanks to the use of additional methods to process real images (e.g. background, noise, discretization of the observation).The construction of an operator subspace is only one step in the resolution of blind inverse problems. It is then necessary to identify the degradation operator in this set from a single observed image. In this thesis, we provide a mathematical framework to this operator identification problem in the case where the original image is constituted of point sources. Theoretical conditions arise from this work, allowing a better understanding of the conditions under which this problem can be solved. We illustrate how this formal study allows the resolution of a blind deblurring problem on a microscopy example.[...]; Les travaux présentés de cette thèse visent à proposer des outils numériques et théoriques pour la résolution de problèmes inverses en imagerie. Nous nous intéressons particulièrement au cas où l'opérateur d'observation (e.g. flou) n'est pas connu. Les résultats principaux de cette thèse s'articulent autour de l'estimation et l'identification de cet opérateur d'observation. Une approche plébiscitée pour estimer un opérateur de dégradation consiste à observer un échantillon contenant des sources ponctuelles (microbilles en microscopie, étoiles en astronomie). Une telle acquisition fournit une mesure de la réponse impulsionnelle de l'opérateur en plusieurs points du champ de vue. Le traitement de cette observation requiert des outils robustes pouvant utiliser rapidement les données rencontrées en pratique. Nous proposons une boîte à outils qui estime un opérateur de dégradation à partir d'une image contenant des sources ponctuelles. L'opérateur estimé à la propriété qu'en tout point du champ de vue, sa réponse impulsionnelle s'exprime comme une combinaison linéaire de fonctions élémentaires. Cela permet d'estimer des opérateurs invariants (convolutions) et variants (développement en convolution-produit) spatialement. Une spécificité importante de cette boîte à outils est son caractère automatique : seul un nombre réduit de paramètres facilement accessibles permettent de couvrir une grande majorité des cas pratiques. La taille de la source ponctuelle (e.g. bille), le fond et le bruit sont également pris en compte dans l'estimation. Cet outil se présente sous la forme d'un module appelé PSF-Estimator pour le logiciel Fiji, et repose sur une implémentation parallélisée en C++. En réalité, les opérateurs modélisant un système optique varient d'une expérience à une autre, ce qui, dans l'idéal, nécessite une calibration du système avant chaque acquisition. Pour pallier à cela, nous proposons de représenter un système optique non pas par un unique opérateur de dégradation, mais par un sous-espace d'opérateurs. Cet ensemble doit permettre de représenter chaque opérateur généré par un microscope. Nous introduisons une méthode d'estimation d'un tel sous-espace à partir d'une collection d'opérateurs de faible rang (comme ceux estimés par la boîte à outils PSF-Estimator). Nous montrons que sous des hypothèses raisonnables, ce sous-espace est de faible dimension et est constitué d'éléments de faible rang. Dans un second temps, nous appliquons ce procédé en microscopie sur de grands champs de vue et avec des opérateurs variant spatialement. Cette mise en œuvre est possible grâce à l'utilisation de méthodes complémentaires pour traiter des images réelles (e.g. le fond, le bruit, la discrétisation de l'observation). La construction d'un sous-espace d'opérateurs n'est qu'une étape dans l'étalonnage de systèmes optiques et la résolution de problèmes inverses. [...]
- Published
- 2020
33. Sur l'approche variationnelle de la mollification dans la théorie des problèmes mal posés et applications
- Author
-
Simo Tao Lee, Walter Cédric, Institut de Mathématiques de Toulouse UMR5219 (IMT), Institut National des Sciences Appliquées - Toulouse (INSA Toulouse), Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA)-Université Toulouse 1 Capitole (UT1), Université Fédérale Toulouse Midi-Pyrénées-Université Fédérale Toulouse Midi-Pyrénées-Université Toulouse - Jean Jaurès (UT2J)-Université Toulouse III - Paul Sabatier (UT3), Université Fédérale Toulouse Midi-Pyrénées-Centre National de la Recherche Scientifique (CNRS), Université Paul Sabatier - Toulouse III, Pierre Maréchal, and Anne Vanhems
- Subjects
Inverse problems ,Optimization ,Méthodes de régularisation ,Problèmes inverses ,Instrumental regression ,[MATH.MATH-AP]Mathematics [math]/Analysis of PDEs [math.AP] ,Mollification ,Optimisation ,Regularization methods ,Régression instrumentale - Abstract
Inverse problems is a fast growing area in applied mathematics which has gained a great attention in the last decades due to its ubiquity in several fields of sciences and technology. Yet, most often, inverse problems result in mathematical equation which are unstable. That is, the solutions do not continuously depend on the data. As a matter of fact, very little perturbations on the data might cause arbitrary large errors on the solutions. Therefore, given that the noise is generally unavoidable in the data, direct attempts to solve the problem fail and one needs to apply a regularization method in order to recover stable approximates of the unknown solutions. In this respect, several regularization techniques have been developed in the literature. Globally, all these regularization methods can be split into two classes: A class of methods which attempt to reconstruct the unknown solutions and a class of methods which try to recover smooth versions of the unknown solutions. The aim of this thesis is to contribute to the promotion of the second class of regularization method via the study and application of the variational formulation of mollification. In this work, we show that the variational approach can be extended to the regularization of ill-posed problems involving non-compact operators. In this respect, we study and successfully apply the method to a problem coming from statistics namely the nonparametric instrumental regression. An additional contribution of this thesis is the design and study of a novel regularization method suitable for linear exponentially ill-posed problems. A numerical comparison of the new method to classical regularization methods such as Tikhonov, spectral cut-off, asymptotic regularization and conjugate gradient is carried out on three test problems from literature. The practical aspect of selection of the regularization parameter without knowledge of the noise level is also considered. Apart from the study and application of regularization methods, this thesis also focuses on the application of a very popular parameter selection rule known as the Morozov principle. Using Lagrange duality, we provide a simple and rapid algorithm for the computation of the regularization parameter corresponding to this rule for Tikhonov-like regularization methods. A relevance of this study is that it highlights a poorly known regularization method which yet has a great potential and is able to provide comparatively better approximate solutions compared to well-known classical regularization techniques. Another benefit of this thesis is the design of a new regularization method which, we believe, is promising in the regularization of exponentially ill-posed problems, especially for inverse heat conduction problems.; Les problèmes inverses constituent un domaine en pleine expansion en mathématiques appliquées qui a suscité une grande attention au cours des dernières décennies en raison de son omniprésence dans plusieurs domaines des sciences et technologies. Le plus souvent, les problèmes inverses donnent lieu à des équations mathématiques instables. Autrement dit, les solutions ne dépendent pas continument des données. En effet, de très petites perturbations sur les données peuvent causer des erreurs arbitrairement grandes sur les solutions. Étant donné que le bruit est généralement inévitable, inverser l'équation mal-posée échoue à résoudre le problème. Il est alors nécessaire d'appliquer une méthode de régularisation afin de récupérer des approximations stables des solutions. À cet égard, plusieurs techniques de régularisation ont été développées dans la littérature. Globalement, ces méthodes de régularisation peuvent être divisées en deux classes : Une classe de méthodes qui tentent de reconstruire les solutions inconnues initiales et une classe de méthodes qui tentent de reconstruire des versions lisses des solutions inconnues. L'objectif de cette thèse est de contribuer à la promotion de la deuxième classe de méthode de régularisation à travers l'étude et l'application de la formulation variationnelle de la mollification. Dans ce manuscrit, nous montrons que l'approche variationnelle de la mollification peut être étendue à la régularisation de problèmes mal-posés impliquant des opérateurs non compacts. À cet égard, nous étudions et appliquons avec succès la méthode à la régression instrumentale non-paramétrique. Une contribution supplémentaire de cette thèse est la conception et l'étude d'une nouvelle méthode de régularisation adaptée aux problèmes linéaires exponentiellement mal-posés. Une comparaison numérique de cette nouvelle méthode aux méthodes classiques de régularisation telles que Tikhonov, la spectral cut-off, la régularisation asymptotique et la méthode des gradients conjugués est effectuée sur trois problèmes test tirés de la littérature. L'aspect pratique de la sélection du paramètre de régularisation avec un niveau de bruit inconnu est également considéré. Outre l'étude et l'application des méthodes de régularisation, cette thèse traite également de l'application d'une règle de sélection de paramètres de régularisation très populaire connue sous le nom du principe de Morozov. En utilisant la dualité de Lagrange, nous fournissons un algorithme simple et rapide pour le calcul du paramètre de régularisation correspondant à cette règle pour les méthodes de régularisation du type Tikhonov. L'intérêt de cette étude est qu'elle met en avant une méthode de régularisation mal connue qui pourtant a un grand potentiel et est capable de fournir des solutions approchées comparativement meilleures que certaines techniques de régularisation classiques bien connues. Un autre apport de cette thèse est la conception d'une nouvelle méthode de régularisation qui, selon nous, est prometteuse dans la régularisation de problèmes exponentiellement mal-posés, en particulier pour les problèmes inverses de conduction thermique.
- Published
- 2020
34. Imagerie haute résolution de la rétine humaine par illumination structurée assistée par optique adaptative
- Author
-
Lai-Tim, Yann, DOTA, ONERA, Université Paris Saclay [Châtillon], ONERA-Université Paris-Saclay, Université Paris sciences et lettres, and Laurent Mugnier
- Subjects
Structured illumination microscopy (SIM) ,Inverse problems ,[PHYS]Physics [physics] ,[SPI]Engineering Sciences [physics] ,Imagerie rétinienne ,Problèmes inverses ,Microscopie par illumination structurée (SIM) ,Retinal imaging ,Optique adaptative ,Bayesian estimation ,Adaptive optics ,Estimation bayésienne - Abstract
Early detection of retinal pathologies in humans requires non-invasive in vivo imaging of retinal tissue at the cellular level. Yet, observation of the retina from the outside suffers from the poor optical quality of the eye, the ocular movements, light scattering by tissues, and low signal-to-noise ratio due to eye safety constraints. Adaptive optics (AO), which compensates in real time for optical aberrations introduced by the eye, makes it possible to increase the spatial resolution of in vivo images. Nevertheless, the contrast of in vivo retinal images corrected by AO is degraded by a dominant diffuse background and their ultimate resolution remains limited by the numerical aperture set by the eye pupil. Structured illumination microscopy (SIM), a well-proven super-resolution microscopy technique, resolves these limitations and allows us to obtain images that are contrasted (by optical sectioning) and super-resolved, i.e. with a resolution better than the diffraction limit. However, its application to in vivo retinal imaging has never been achieved.The goal of this thesis is to design, implement and operate an ophthalmoscope by structured illumination in order to obtain contrasted and super-resolved retinal images. First, I developed a Bayesian SIM reconstruction method taking into account the specificities of retinal imaging, namely eye movements, the three-dimensional nature of the retina and the diffusion induced by the eye. This method, initially validated on microscopy data, has been characterized on simulated data with the aim of optimizing its parameters and quantifying its performance. Then, in order to validate experimentally the proposed method on retina in vivo, I developed, in a co-design approach, an AO-assisted flood-illumination ophthalmoscope, which is able to project structured illumination patterns onto the retina. Following the same approach, I adapted the reconstruction method and produced SIM reconstructed images of the living retina, which represents the world’s first demonstration of in vivo high resolution structured illumination retinal imaging. The resulting images highlight a substantial contrast and resolution enhancement compared to conventional wide-field images.; La détection précoce des pathologies rétiniennes chez l’Homme réclame des moyens d’imagerie in vivo non invasifs du tissu rétinien, à l’échelle de la cellule. Or, l’observation de la rétine depuis l’extérieur souffre de la mauvaise qualité optique de l’œil, des mouvements oculaires, de la diffusion de la lumière par les tissus, et du mauvais rapport signal-à-bruit dû aux contraintes de sécurité oculaire. L’optique adaptative (OA), qui compense en temps réel les aberrations optiques introduites par l’œil, permet d’augmenter la résolution spatiale des images in vivo. Néanmoins, le contraste des images rétiniennes in vivo corrigées par OA est dégradé par un fond diffus dominant et leur résolution ultime reste limitée par l’ouverture de la pupille de l’œil. L’imagerie par illumination structurée, une technique de super-résolution éprouvée en microscopie, permet de résoudre ces limitations et d’obtenir des images contrastées (par sectionnement optique) et super-résolues, c’est-à-dire avec une résolution meilleure que la limite de diffraction. Son application à l’imagerie rétinienne in vivo n’a cependant jamais été réalisée.L’enjeu de cette thèse est de concevoir, de mettre en œuvre et d’exploiter un ophtalmoscope par illumination structurée afin d’obtenir des images rétiniennes contrastées et super-résolues. J’ai d’abord développé une méthode bayésienne de reconstruction par illumination structurée prenant en compte les spécificités de l’imagerie rétinienne, à savoir les mouvements oculaires, le caractère tridimensionnel de la rétine et la diffusion induite par l’œil. Cette méthode, validée dans un premier temps sur des données de microscopie, a été caractérisée par simulations dans le but d’en optimiser les paramètres et de quantifier ses performances. Ensuite, pour valider expérimentalement la méthode proposée sur rétine in vivo, j’ai développé dans une approche de co-conception un ophtalmoscope plein champ assisté par OA capable de projeter de l’illumination structurée dans la rétine. Dans cette même approche, j’ai adapté la méthode de reconstruction et j’ai réalisé des images rétiniennes reconstruites par illumination structurée, ce qui constitue la première démonstration mondiale de l'imagerie rétinienne in vivo à haute résolution par illumination structurée. Les images ainsi obtenues présentent un gain notable en contraste et en résolution par rapport aux images plein champ conventionnelles.
- Published
- 2020
35. Reconstruction d'images pour un imageur hyperspectral configurable
- Author
-
Ardi, Ibrahim, Institut de recherche en astrophysique et planétologie (IRAP), Institut national des sciences de l'Univers (INSU - CNRS)-Université Toulouse III - Paul Sabatier (UT3), Université Fédérale Toulouse Midi-Pyrénées-Université Fédérale Toulouse Midi-Pyrénées-Observatoire Midi-Pyrénées (OMP), Météo France-Centre National d'Études Spatiales [Toulouse] (CNES)-Université Fédérale Toulouse Midi-Pyrénées-Centre National de la Recherche Scientifique (CNRS)-Institut de Recherche pour le Développement (IRD)-Météo France-Centre National d'Études Spatiales [Toulouse] (CNES)-Centre National de la Recherche Scientifique (CNRS)-Institut de Recherche pour le Développement (IRD)-Centre National de la Recherche Scientifique (CNRS), Université Paul Sabatier - Toulouse III, Hervé Carfantan, Antoine Monmayrant, Université Toulouse III - Paul Sabatier (UT3), Université de Toulouse (UT)-Université de Toulouse (UT)-Institut national des sciences de l'Univers (INSU - CNRS)-Observatoire Midi-Pyrénées (OMP), Institut de Recherche pour le Développement (IRD)-Université Toulouse III - Paul Sabatier (UT3), and Université de Toulouse (UT)-Université de Toulouse (UT)-Institut national des sciences de l'Univers (INSU - CNRS)-Centre National d'Études Spatiales [Toulouse] (CNES)-Centre National de la Recherche Scientifique (CNRS)-Météo-France -Institut de Recherche pour le Développement (IRD)-Institut national des sciences de l'Univers (INSU - CNRS)-Centre National d'Études Spatiales [Toulouse] (CNES)-Centre National de la Recherche Scientifique (CNRS)-Météo-France -Centre National de la Recherche Scientifique (CNRS)
- Subjects
Homogénéïté spatio-spectrale ,Hyperspectral imaging ,Inverse Problems ,Imageur configurable ,Edge-preserving quadratic regularization ,Spatio-spectral homogeneïty ,Spatio-spectral separability ,[SDU.ASTR.IM]Sciences of the Universe [physics]/Astrophysics [astro-ph]/Instrumentation and Methods for Astrophysic [astro-ph.IM] ,Reconfigurable imager ,Régularisation quadratique préservant les contours ,Problèmes inverses ,Reconstruction d'images ,Image reconstruction ,Imagerie hyperspectrale ,Séparabilité spatio-spectrale - Abstract
A hyperspectral (HS) image of a scene corresponds to a cube of data with two spatial and one spectral dimension : it can be seen as a large number of images of the scene in different spectral bands or as a set of spectra at each spatial position. A central problem with hyperspectral imaging is related to the three-dimensional nature of the data that must be acquired with 2D sensors. Some complex optical devices are able to image the entire cube in a single acquisition (socalled " snapshot " imagers), but the most conventional approach is to scan, spatially, spectrally or alternatively, the entire cube. More recently, devices performing acquisitions of incomplete projections of the HS cube have been proposed, combined with reconstruction methods to obtain the HS cube from a small amount of data (much less data than a scan of the whole cube). However, the associated algorithms generally require long computation times. In this context, this thesis proposes HS images reconstruction methods for a re-configurable hyperspectral imager. This instrument is composed of two symmetrical 4f lines (assembly of two lenses and a diffraction grating) separated by a matrix of micro-mirrors (Digital Micromirror Device, DMD) placed in the symmetry plane. The DMD plays a role of programmable spatio-spectral filter and its configurations allow acquisitions of different projections of the cube. Note that the panchromatic image of the scene is easily acquired, with the same sampling as the HS data, by setting all the mirrors in reflection mode. The aim is to reconstruct the HS cube with a low number of acquisitions for random configurations of the DMD and with a limited computation cost. We propose two reconstruction methods that take into account the characteristics of the imager and exploit the panchromatic image. In particular, we have assumed that the HS image consists of spatially homogeneous areas with similar spectra and that these homogeneous areas and the contours between these areas can be detected in the panchromatic image. The first method defines the solution as the minimizer of a quadratic data fidelity term penalized by a Tikhonov regularization term, i.e. a quadratic penalization of gradients in the three directions. This spatial gradient penalization favors the presence of homogeneous areas over the entire HS cube and tends to smooth the image contours. To address this, we proposed to detect the spatial contours of the HS image from the panchromatic image and to relx the penalization of the spatial gradients on these contours. This leads to a quadratic regularization edge-preserving reconstruction method. To compute the solution of the corresponding normal equation, we paid particular attention to the implementation of a conjugated gradient algorithm in two ways. On the one hand, we have exploited the properties of the instrumental device to efficiently implement the computation of the direct and adjoint models at low computational cost. On the other hand, we took advantage of the configurable aspect of the device to reduce the condition number of the normal matrix and accelerate the convergence of the algorithm. To do so, we proposed to exploit so-called orthogonal configurations of the DMD. The second method [...]; Une image hyperspectrale (HS) d'une scène correspond à un cube de données avec deux dimensions spatiales et une dimension spectrale : elle peut être vue comme un grand nombre d'images de la scène dans différentes bandes spectrales ou comme un ensemble de spectres à chaque position spatiale. Un problème central de l'imagerie hyperspectrale est lié à la nature tridimensionnelle des données qui doivent être acquises avec des capteurs 2D. Bien que certains dispositifs optiques complexes ont cherché à imager l'ensemble du cube en une seule acquisition (imageurs dits "snapshot"), l'approche la plus classique consiste à effectuer un balayage, spatial, spectral ou autre de l'ensemble du cube. Plus récemment, des dispositifs effectuant des acquisitions de projections incomplètes du cube HS ont été proposés, associés à des méthodes de reconstruction pour obtenir le cube HS à partir d'un faible nombre de données (beaucoup moins de données que donnerait un balayage du cube). Les algorithmes associés à ces méthodes nécessitent des temps de calcul généralement longs. Cette thèse se place dans ce cadre et vise à proposer des méthodes de reconstruction d'images HS pour un dispositif pilotable. Cet instrument est composé de deux lignes 4f (assemblage de deux lentilles et d'un réseau de diffraction) symétriques et séparées par une matrice de micro-miroirs (DMD pour Digital Micromirror Device) placée dans le plan de symétrie. L'ensemble agit comme un filtre spatio-spectral programmable. La configuration du DMD permet de faire l'acquisition de différentes projections du cube. Notons que l'image panchromatique de la scène est acquise simplement et avec le même échantillonnage que les données HS en positionnant tous les miroirs en réflexion. L'objectif est de reconstruire le cube HS avec un faible nombre d'acquisitions pour des configurations aléatoires du DMD et avec un coût de calcul limité. Nous proposons deux méthodes de reconstruction qui prennent en compte les caractéristiques de l'imageur et exploitent la connaissance de l'image panchromatique. En particulier, nous nous sommes appuyés sur l'hypothèse que l'image HS est constituée de zones spatiales homogènes ayant des spectres similaires et que ces zones homogènes et les contours entre ces zones peuvent être détectés sur l'image panchromatique. La première méthode définit la solution comme minimisant un terme quadratique de fidélité aux données pénalisé par un terme de régularisation de type Tikhonov, soit une pénalisation quadratique des gradients dans les trois directions spatiales et spectrale. Cette pénalisation des gradients spatiaux favorisant la présence de zones homogènes sur l'ensemble du cube HS, elle a tendance à lisser les contours de l'image. Pour remédier à cela, nous avons proposé de détecter les contours spatiaux de l'image HS à partir de l'image panchromatique et de ne pas pénaliser les gradients spatiaux de part et d'autre de ces contours. On aboutit ainsi à une méthode de reconstruction par régularisation quadratique permettant de préserver les contours de l'image HS. Pour calculer la solution de l'équation normale correspondant à ce problème, nous avons porté une attention particulière à l'implémentation d'un algorithme de type gradients conjugués et ceci de deux manières. D'une part, nous avons exploité les propriétés du dispositif instrumental pour implémenter de façon efficace le calcul du modèle direct et adjoint à faible coût de calcul. D'autre part, nous avons profité de l'aspect configurable du dispositif pour réduire le conditionnement de la matrice normale et accélérer la convergence de l'algorithme. Pour ce faire, nous avons proposé d'exploiter des configurations dites orthogonales du DMD. Pour la deuxième méthode, [...]
- Published
- 2020
36. Image reconstruction for a configurable hyperspectral imager
- Author
-
Ardi, Ibrahim, Institut de recherche en astrophysique et planétologie (IRAP), Institut national des sciences de l'Univers (INSU - CNRS)-Université Toulouse III - Paul Sabatier (UT3), Université Fédérale Toulouse Midi-Pyrénées-Université Fédérale Toulouse Midi-Pyrénées-Observatoire Midi-Pyrénées (OMP), Météo France-Centre National d'Études Spatiales [Toulouse] (CNES)-Université Fédérale Toulouse Midi-Pyrénées-Centre National de la Recherche Scientifique (CNRS)-Institut de Recherche pour le Développement (IRD)-Météo France-Centre National d'Études Spatiales [Toulouse] (CNES)-Centre National de la Recherche Scientifique (CNRS)-Institut de Recherche pour le Développement (IRD)-Centre National de la Recherche Scientifique (CNRS), Université Paul Sabatier - Toulouse III, Hervé Carfantan, and Antoine Monmayrant
- Subjects
Homogénéïté spatio-spectrale ,Hyperspectral imaging ,Inverse Problems ,Imageur configurable ,Edge-preserving quadratic regularization ,Spatio-spectral homogeneïty ,Spatio-spectral separability ,[SDU.ASTR.IM]Sciences of the Universe [physics]/Astrophysics [astro-ph]/Instrumentation and Methods for Astrophysic [astro-ph.IM] ,Reconfigurable imager ,Régularisation quadratique préservant les contours ,Problèmes inverses ,Reconstruction d'images ,Image reconstruction ,Imagerie hyperspectrale ,Séparabilité spatio-spectrale - Abstract
A hyperspectral (HS) image of a scene corresponds to a cube of data with two spatial and one spectral dimension : it can be seen as a large number of images of the scene in different spectral bands or as a set of spectra at each spatial position. A central problem with hyperspectral imaging is related to the three-dimensional nature of the data that must be acquired with 2D sensors. Some complex optical devices are able to image the entire cube in a single acquisition (socalled " snapshot " imagers), but the most conventional approach is to scan, spatially, spectrally or alternatively, the entire cube. More recently, devices performing acquisitions of incomplete projections of the HS cube have been proposed, combined with reconstruction methods to obtain the HS cube from a small amount of data (much less data than a scan of the whole cube). However, the associated algorithms generally require long computation times. In this context, this thesis proposes HS images reconstruction methods for a re-configurable hyperspectral imager. This instrument is composed of two symmetrical 4f lines (assembly of two lenses and a diffraction grating) separated by a matrix of micro-mirrors (Digital Micromirror Device, DMD) placed in the symmetry plane. The DMD plays a role of programmable spatio-spectral filter and its configurations allow acquisitions of different projections of the cube. Note that the panchromatic image of the scene is easily acquired, with the same sampling as the HS data, by setting all the mirrors in reflection mode. The aim is to reconstruct the HS cube with a low number of acquisitions for random configurations of the DMD and with a limited computation cost. We propose two reconstruction methods that take into account the characteristics of the imager and exploit the panchromatic image. In particular, we have assumed that the HS image consists of spatially homogeneous areas with similar spectra and that these homogeneous areas and the contours between these areas can be detected in the panchromatic image. The first method defines the solution as the minimizer of a quadratic data fidelity term penalized by a Tikhonov regularization term, i.e. a quadratic penalization of gradients in the three directions. This spatial gradient penalization favors the presence of homogeneous areas over the entire HS cube and tends to smooth the image contours. To address this, we proposed to detect the spatial contours of the HS image from the panchromatic image and to relx the penalization of the spatial gradients on these contours. This leads to a quadratic regularization edge-preserving reconstruction method. To compute the solution of the corresponding normal equation, we paid particular attention to the implementation of a conjugated gradient algorithm in two ways. On the one hand, we have exploited the properties of the instrumental device to efficiently implement the computation of the direct and adjoint models at low computational cost. On the other hand, we took advantage of the configurable aspect of the device to reduce the condition number of the normal matrix and accelerate the convergence of the algorithm. To do so, we proposed to exploit so-called orthogonal configurations of the DMD. The second method [...]; Une image hyperspectrale (HS) d'une scène correspond à un cube de données avec deux dimensions spatiales et une dimension spectrale : elle peut être vue comme un grand nombre d'images de la scène dans différentes bandes spectrales ou comme un ensemble de spectres à chaque position spatiale. Un problème central de l'imagerie hyperspectrale est lié à la nature tridimensionnelle des données qui doivent être acquises avec des capteurs 2D. Bien que certains dispositifs optiques complexes ont cherché à imager l'ensemble du cube en une seule acquisition (imageurs dits "snapshot"), l'approche la plus classique consiste à effectuer un balayage, spatial, spectral ou autre de l'ensemble du cube. Plus récemment, des dispositifs effectuant des acquisitions de projections incomplètes du cube HS ont été proposés, associés à des méthodes de reconstruction pour obtenir le cube HS à partir d'un faible nombre de données (beaucoup moins de données que donnerait un balayage du cube). Les algorithmes associés à ces méthodes nécessitent des temps de calcul généralement longs. Cette thèse se place dans ce cadre et vise à proposer des méthodes de reconstruction d'images HS pour un dispositif pilotable. Cet instrument est composé de deux lignes 4f (assemblage de deux lentilles et d'un réseau de diffraction) symétriques et séparées par une matrice de micro-miroirs (DMD pour Digital Micromirror Device) placée dans le plan de symétrie. L'ensemble agit comme un filtre spatio-spectral programmable. La configuration du DMD permet de faire l'acquisition de différentes projections du cube. Notons que l'image panchromatique de la scène est acquise simplement et avec le même échantillonnage que les données HS en positionnant tous les miroirs en réflexion. L'objectif est de reconstruire le cube HS avec un faible nombre d'acquisitions pour des configurations aléatoires du DMD et avec un coût de calcul limité. Nous proposons deux méthodes de reconstruction qui prennent en compte les caractéristiques de l'imageur et exploitent la connaissance de l'image panchromatique. En particulier, nous nous sommes appuyés sur l'hypothèse que l'image HS est constituée de zones spatiales homogènes ayant des spectres similaires et que ces zones homogènes et les contours entre ces zones peuvent être détectés sur l'image panchromatique. La première méthode définit la solution comme minimisant un terme quadratique de fidélité aux données pénalisé par un terme de régularisation de type Tikhonov, soit une pénalisation quadratique des gradients dans les trois directions spatiales et spectrale. Cette pénalisation des gradients spatiaux favorisant la présence de zones homogènes sur l'ensemble du cube HS, elle a tendance à lisser les contours de l'image. Pour remédier à cela, nous avons proposé de détecter les contours spatiaux de l'image HS à partir de l'image panchromatique et de ne pas pénaliser les gradients spatiaux de part et d'autre de ces contours. On aboutit ainsi à une méthode de reconstruction par régularisation quadratique permettant de préserver les contours de l'image HS. Pour calculer la solution de l'équation normale correspondant à ce problème, nous avons porté une attention particulière à l'implémentation d'un algorithme de type gradients conjugués et ceci de deux manières. D'une part, nous avons exploité les propriétés du dispositif instrumental pour implémenter de façon efficace le calcul du modèle direct et adjoint à faible coût de calcul. D'autre part, nous avons profité de l'aspect configurable du dispositif pour réduire le conditionnement de la matrice normale et accélérer la convergence de l'algorithme. Pour ce faire, nous avons proposé d'exploiter des configurations dites orthogonales du DMD. Pour la deuxième méthode, [...]
- Published
- 2020
37. Aberration correction and sound speed quantification in ultrafast ultrasound imaging
- Author
-
Bendjador, Hanna, Physique pour la médecine (UMR 8063, U1273), Ecole Superieure de Physique et de Chimie Industrielles de la Ville de Paris (ESPCI Paris), Université Paris sciences et lettres (PSL)-Université Paris sciences et lettres (PSL)-Institut National de la Santé et de la Recherche Médicale (INSERM)-Centre National de la Recherche Scientifique (CNRS), Université Paris sciences et lettres, Mickaël Tanter, and STAR, ABES
- Subjects
Inverse problems ,Correction d'aberrations ,Vitesse du son ,Problèmes inverses ,Adaptive imaging ,Speed of sound ,Imagerie ultrasonore ultrarapide ,[PHYS.MECA.ACOU] Physics [physics]/Mechanics [physics]/Acoustics [physics.class-ph] ,Ultrafast Ultrasound imaging ,Aberration correction ,Imagerie adaptative ,[PHYS.MECA.ACOU]Physics [physics]/Mechanics [physics]/Acoustics [physics.class-ph] - Abstract
Echography relies on the transmission of ultrasound signals through biological tissues, and the processing of backscattered echoes. The rise of ultrafast ultrasound imaging gave access to physiological events faster than 10 000 frames per second. It allowed therefore the development of high-end techniques such as organs elasticity imaging or sensitive quantification of blood flows. During its propagation through complex or heterogeneous media, the acoustic wavefront may still suffer strong distorsions; hindering both the image quality and the ensuing quantitative assessments. Correcting such aberrations is the ultimate goal of the research work conducted during this PhD. By studying statistical properties of interferences between scatterers, a matrix formalism has been developed to optimise the angular coherence of backscattered echoes. Importantly, we succeeded for the first time, in correcting images and quantifying locally the speed of sound at ultrafast frame rates. Sound speed was proven to be a unique biomarker in the example of hepatic steatosis, and possibly separation of brain white and black matter. The phase correction method will be an interesting contribution to motion correction in the case of 3D tomography and vascular imaging, offering thus new horizons to ultrasound imaging., L’imagerie échographique repose sur la transmission de signaux ultrasonores à travers les tissus biologiques et l’analyse des échos rétro-diffusés. Donnant accès à des phénomènes physiologiques au-delà de 10 000 images par seconde, l’échographie ultrarapide a permis le développement de techniques inédites telles que l’imagerie de l’élasticité des organes ou la quantification ultrasensible des flux sanguins. Le front d’onde acoustique, lors de sa propagation à travers des milieux complexes ou hétérogènes peut toutefois subir de fortes déformations ; affectant tant la qualité de l’image, que les informations quantitatives sur le milieu. Corriger de telles aberrations est l’enjeu majeur des travaux de recherche effectués au cours de cette thèse. En étudiant les propriétés statistiques des interférences entre les diffuseurs, un formalisme mathématique a été développé pour optimiser la cohérence angulaire des signaux rétro-diffusés. Ainsi parvient- on, pour la première fois en temps réel, à corriger les images et quantifier localement la vitesse du son. Cette dernière constitue un bio-marqueur inédit dans les exemples de la stéatose hépatique, et possiblement de la séparation des substances blanche et grise du cerveau. La méthode de correction de phase proposée va également être un apport intéressant aux corrections de mouvement dans le cas de la tomographie 3D et de l’imagerie vasculaire, offrant de nouvelles perspectives à l’imagerie ultrasonore.
- Published
- 2020
38. analyse d'incertitude, analyse de sensibilité et apprentissage machine en biomécanique cardiovasculaire
- Author
-
Rapadamnaba, Robert, Institut Montpelliérain Alexander Grothendieck (IMAG), Université de Montpellier (UM)-Centre National de la Recherche Scientifique (CNRS), Université Montpellier, Bijan Mohammadi, and Franck Nicoud
- Subjects
Inverse problems ,Low complexity modelling ,[MATH.MATH-GM]Mathematics [math]/General Mathematics [math.GM] ,Analyse d'incertitude ,Problèmes inverses ,Analyse de sensibilité ,Uncertainty analysis ,Convolutional neural networks ,Modélisation à complexité réduite ,Functional imaging ,Réseau de neurones convolutionnels ,Sensitivity analysis ,Imagerie fonctionnelle - Abstract
This thesis follows on from a recent study conducted by a few researchers from University of Montpellier, with the aim of proposing to the scientific community an inversion procedure capable of noninvasively estimating patient-specific blood pressure in cerebral arteries. Its first objective is, on the one hand, to examine the accuracy and robustness of the inversion procedure proposed by these researchers with respect to various sources of uncertainty related to the models used, formulated assumptions and patient-specific clinical data, and on the other hand, to set a stopping criterion for the ensemble Kalman filter based algorithm used in their inversion procedure. For this purpose, uncertainty analysis and several sensitivity analyses are carried out. The second objective is to illustrate how machine learning, mainly focusing on convolutional neural networks, can be a very good alternative to the time-consuming and costly inversion procedure implemented by these researchers for cerebral blood pressure estimation.An approach taking into account the uncertainties related to the patient-specific medical images processing and the blood flow model assumptions, such as assumptions about boundary conditions, physical and physiological parameters, is first presented to quantify uncertainties in the inversion procedure outcomes. Uncertainties related to medical images segmentation are modelled using a Gaussian distribution and uncertainties related to modeling assumptions choice are analyzed by considering several possible hypothesis choice scenarii. From this approach, it emerges that the uncertainties on the procedure results are of the same order of magnitude as those related to segmentation errors. Furthermore, this analysis shows that the procedure outcomes are very sensitive to the assumptions made about the model boundary conditions. In particular, the choice of the symmetrical Windkessel boundary conditions for the model proves to be the most relevant for the case of the patient under study.Next, an approach for ranking the parameters estimated during the inversion procedure in order of importance and setting a stopping criterion for the algorithm used in the inversion procedure is presented. The results of this strategy show, on the one hand, that most of the model proximal resistances are the most important parameters for blood flow estimation in the internal carotid arteries and, on the other hand, that the inversion algorithm can be stopped as soon as a certain reasonable convergence threshold for the most influential parameter is reached.Finally, a new numerical platform, based on machine learning and allowing to estimate the patient-specific blood pressure in the cerebral arteries much faster than with the inversion procedure but with the same accuracy, is presented. The application of this platform to the patient-specific data used in the inversion procedure provides noninvasive and real-time estimate of patient-specific cerebral pressure consistent with the inversion procedure estimation.; Cette thèse fait suite à une étude récente, menée par quelques chercheurs de l'Université de Montpellier, dans le but de proposer à la communauté scientifique une procédure d'inversion capable d'estimer de manière non invasive la pression dans les artères cérébrales d'un patient.Son premier objectif est, d'une part, d'examiner la précision et la robustesse de la procédure d'inversion proposée par ces chercheurs, en lien avec diverses sources d'incertitude liées aux modèles utilisés, aux hypothèses formulées et aux données cliniques du patient, et d'autre part, de fixer un critère d'arrêt pour l'algorithme basé sur le filtre de Kalman d'ensemble utilisé dans leur procédure d'inversion. À cet effet, une analyse d'incertitude et plusieurs analyses de sensibilité sont effectuées. Le second objectif est d'illustrer comment l'apprentissage machine, orienté réseaux de neurones convolutifs, peut être une très bonne alternative à la longue et coûteuse procédure mise en place par ces chercheurs pour l'estimation de la pression.Une approche prenant en compte les incertitudes liées au traitement des images médicales du patient et aux hypothèses formulées sur les modèles utilisés, telles que les hypothèses liées aux conditions limites, aux paramètres physiques et physiologiques, est d'abord présentée pour quantifier les incertitudes sur les résultats de la procédure. Les incertitudes liées à la segmentation des images sont modélisées à l'aide d'une distribution gaussienne et celles liées au choix des hypothèses de modélisation sont analysées en testant plusieurs scénarios de choix d'hypothèses possibles. De cette démarche, il ressort que les incertitudes sur les résultats de la procédure sont du même ordre de grandeur que celles liées aux erreurs de segmentation. Par ailleurs, cette analyse montre que les résultats de la procédure sont très sensibles aux hypothèses faites sur les conditions aux limites du modèle du flux sanguin. En particulier, le choix des conditions limites symétriques de Windkessel pour le modèle s'avère être le plus approprié pour le cas du patient étudié.Ensuite, une démarche permettant de classer les paramètres estimés à l'aide de la procédure par ordre d'importance et de fixer un critère d'arrêt pour l'algorithme utilisé dans cette procédure est proposée. Les résultats de cette stratégie montrent, d'une part, que la plupart des résistances proximales sont les paramètres les plus importants du modèle pour l'estimation du débit sanguin dans les carotides internes et, d'autre part, que l'algorithme d'inversion peut être arrêté dès qu'un certain seuil de convergence raisonnable de ces paramètres les plus influents est atteint.Enfin, une nouvelle plateforme numérique basée sur l'apprentissage machine permettant d'estimer la pression artérielle spécifique au patient dans les artères cérébrales beaucoup plus rapidement qu'avec la procédure d'inversion mais avec la même précision, est présentée. L'application de cette plateforme aux données du patient utilisées dans la procédure d'inversion permet une estimation non invasive et en temps réel de la pression dans les artères cérébrales du patient cohérente avec l'estimation de la procédure d'inversion.
- Published
- 2020
39. Eulerian methods for inverse problems using optimal transport
- Author
-
Heitz, Matthieu, Laboratoire d'InfoRmatique en Image et Systèmes d'information (LIRIS), Institut National des Sciences Appliquées de Lyon (INSA Lyon), Institut National des Sciences Appliquées (INSA)-Université de Lyon-Institut National des Sciences Appliquées (INSA)-Université de Lyon-Centre National de la Recherche Scientifique (CNRS)-Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-École Centrale de Lyon (ECL), Université de Lyon-Université Lumière - Lyon 2 (UL2), Université de Lyon, David Coeurjolly, Nicolas Bonneel, and STAR, ABES
- Subjects
Optimization ,Computer graphics ,[INFO.INFO-CV] Computer Science [cs]/Computer Vision and Pattern Recognition [cs.CV] ,Transport optimal ,Problèmes inverses ,Inverse Problems ,Vision par ordinateur ,Machine learning ,Optimal transport ,Informatique graphique ,[INFO.INFO-CV]Computer Science [cs]/Computer Vision and Pattern Recognition [cs.CV] ,Computer vision ,Optimisation - Abstract
The goal of this thesis is to develop new numerical methods to address inverse problems using optimal transport. Inverse problems appear in many disciplines such as astronomy, geophysics or medical imaging, but also in fields closer to the focus of this thesis, namely computer vision, computer graphics, and machine learning. They are difficult problems by nature as they are often not well posed (infinite number of solutions, instabilities), and those that involve non-linear models such as optimal transport yield additional challenges. However, they are important problems to solve since they give access to quantities that are not directly observable, which provides major insight in many cases. Existing techniques for inverse problems in signal/image processing and machine learning often treat histograms as Euclidean data, hence they fail to grasp the underlying relationships between the bins, defined by the geometry of the domain. Optimal transport addresses this issue by building on the distance between bins to produce a distance between histograms (and more generally probability distributions). In this thesis, we adapt two well-known machine learning tasks to the optimal transport framework: dictionary learning and metric learning. Our methods address these tasks as optimization problems and rely on the entropic regularization of optimal transport, and automatic differentiation. The regularization provides fast, robust and smooth approximations of the transport, which are essential features for efficient optimization schemes. Automatic differentiation provides a fast and reliable alternative to manual analytical derivation, resulting in flexible frameworks. We motivate our algorithms with applications in image processing and natural language processing, Cette thèse a pour but de développer de nouvelles méthodes numériques pour résoudre des problèmes inverses en transport optimal. On trouve les problèmes inverses dans divers disciplines telles que l’astronomie, la géophysique, ou l’imagerie médicale, mais aussi dans des domaines plus proches du sujet de cette thèse, à savoir la vision par ordinateur, l’informatique graphique, et l’apprentissage automatique. Les problèmes inverses sont en général difficiles à résoudre car ils sont souvent mal posés (nombre infini de solutions, instabilités), et les modèles non-linéaires du transport optimal apportent des défis supplémentaires. Cependant, ces problèmes sont importants à résoudre car ils nous permettent d’obtenir des résultats sur des quantités qui ne sont pas directement observables, ce qui peut apporter de précieuses informations dans de nombreux cas. Les techniques existantes pour résoudre les problèmes en traitement d’image et du signal et en apprentissage automatique considèrent souvent les histogrammes comme des vecteurs euclidiens. Elles ne parviennent donc pas à saisir et traiter correctement les relations sous-jacentes entre les bins des histogrammes, définies par la géométrie du domaine. Le transport optimal résout ce problème en définissant une distance entre histogrammes (et plus généralement entre distributions de probabilité) basée sur les distances entre les bins. Dans cette thèse, nous adaptons deux tâches classiques de l’apprentissage automatique à la géométrie du transport optimal : l’apprentissage de dictionnaire et l’apprentissage de métrique. Nos méthodes résolvent ces tâches en tant que problèmes d’optimisation et sont fondées sur la régularisation entropique du transport optimal, et la différentiation automatique. La régularisation fournit des approximations rapides, robustes et régulières (lisses) du transport, ce qui est essentiel pour obtenir des algorithmes d’optimisation efficaces. La différentiation automatique apporte une alternative rapide et fiable à la dérivation analytique manuelle, ce qui conduit à des méthodes flexibles. Nous illustrons nos deux algorithmes sur des applications en traitement d’image et en traitement du langage naturel
- Published
- 2020
40. Modèles et algorithmes dédiés pour la résolution de problèmes inverses parcimonieux en traitement du signal et de l'image
- Author
-
Bourguignon, Sébastien, Laboratoire des Sciences du Numérique de Nantes (LS2N), Université de Nantes - UFR des Sciences et des Techniques (UN UFR ST), Université de Nantes (UN)-Université de Nantes (UN)-École Centrale de Nantes (ECN)-Centre National de la Recherche Scientifique (CNRS)-IMT Atlantique Bretagne-Pays de la Loire (IMT Atlantique), Institut Mines-Télécom [Paris] (IMT)-Institut Mines-Télécom [Paris] (IMT), Université de Nantes, Pierre Chainais, and ANR-16-CE33-0005,MIMOSA,Programmation mixte en nombres entiers pour l'optimisation de critères d'approximation parcimonieuse(2016)
- Subjects
ultrasonic imaging ,[SPI.ACOU]Engineering Sciences [physics]/Acoustics [physics.class-ph] ,imagerie ultrasonore ,astrophysics ,nondestructive testing ,hyperspectral imaging ,inverse problems ,optimisation ,sparsity ,traitement du signal ,[INFO.INFO-RO]Computer Science [cs]/Operations Research [cs.RO] ,recherche opérationnelle ,problèmes inverses ,parcimonie ,[INFO.INFO-TS]Computer Science [cs]/Signal and Image Processing ,contrôle non destructif ,imagerie hyperspectrale ,signal processing ,optimization ,astrophysique ,operations research - Abstract
Dans de nombreux problèmes inverses rencontrés en traitement du signal et de l'image, le manque d'information contenue dans les données peut être compensé par la prise en compte d'une contrainte de parcimonie sur la solution recherchée. L'hypothèse de parcimonie suppose que l'objet d'intérêt peut s'exprimer, de manière exacte ou approchée, comme la combinaison linéaire d'un petit nombre d'éléments choisis dans un dictionnaire adapté.Je présenterai différentes contributions apportées dans la construction de modèles parcimonieux. Dans plusieurs contextes applicatifs, nous cherchons à raffiner les représentations classiques reliant les données aux grandeurs d'intérêt à estimer, afin de les rendre plus fidèles à la réalité des processus observés. Cet enrichissement de modèle, s'il permet d'améliorer la qualité des solutions obtenues, s'opère au détriment d'une augmentation de la complexité calculatoire. Nous proposons donc des solutions algorithmiques dédiées, relevant essentiellement de l'optimisation mathématique.Un premier volet envisage la restauration de données d'imagerie hyperspectrale en astronomie, où l'observation de champs profonds depuis le sol s'effectue dans des conditions très dégradées. Le débruitage et la déconvolution sont abordés sous une hypothèse de parcimonie des spectres recherchés dans un dictionnaire de formes élémentaires. Des algorithmes d'optimisation capables de gérer la grande dimension des données sont proposés, reposant essentiellement sur l'optimisation de critères pénalisés par la norme l_1, par une approche de type descente par coordonnée.Une deuxième application concerne la déconvolution parcimonieuse pour le contrôle non destructif par ultrasons. Nous construisons, d'une part, un modèle "à haute résolution", permettant de suréchantillonner la séquence parcimonieuse recherchée par rapport aux données, pour lequel nous adaptons les algorithmes classiques de déconvolution. D'autre part, nous proposons de raffiner le modèle convolutif standard en intégrant des phénomènes de propagation acoustique, débouchant sur un modèle non invariant par translation. Ces travaux sont ensuite étendus à l'imagerie ultrasonore, par la construction de modèles de données adaptés et l'optimisation de critères favorisant la parcimonie.Nous abordons enfin des travaux plus génériques menés sur l'optimisation globale de critères parcimonieux impliquant la "norme" l_0 (le nombre de coefficients non nuls dans la décomposition recherchée). Alors que l'essentiel des travaux en estimation parcimonieuse privilégie des formulations sous-optimales adaptées aux problèmes de grande taille, nous nous intéressons à la recherche de solutions exactes des problèmes l_0 au moyen d'algorithmes branch-and-bound. De tels modèles parcimonieux, s'ils s'avèrent plus coûteux en temps de calcul, peuvent fournir de meilleures solutions et restent de complexité abordable sur des problèmes de taille modérée. Des applications sont proposées pour la déconvolution de signaux monodimensionnels et pour le démélange spectral.La présentation de quelques pistes de recherche à court et moyen terme conclura cet exposé.
- Published
- 2020
41. Emerging crack front identification from tangential surface displacements
- Author
-
Andrieux, Stéphane and Baranger, Thouraya Nouri
- Subjects
- *
CRACK propagation (Fracture mechanics) , *ELASTIC solids , *CAUCHY problem , *MECHANICAL loads , *DISPLACEMENT (Mechanics) , *FRACTURE mechanics , *PROBLEM solving - Abstract
Abstract: We present in this Note an identification method for the crack front of a crack emerging at the surface of an elastic solid, provided displacements field or its tangential components are given on a part free of loading of the external surface. The method is based on two steps. The first one is the solution of a Cauchy problem in order to expand the displacement field within the solid up to a surface enclosing the unknown crack. Then the reciprocity gap method is used in order to determine the displacement jump on the crack and then the crack itself. We prove then an identifiability result. The method is illustrated with two synthetic examples: a crossing crack with linear crack front and an elliptic emerging crack. [Copyright &y& Elsevier]
- Published
- 2012
- Full Text
- View/download PDF
42. On lack-of-knowledge theory in structural mechanics
- Author
-
Louf, François, Enjalbert, Paul, Ladevèze, Pierre, and Romeuf, Thierry
- Subjects
- *
STRUCTURAL analysis (Engineering) , *INVERSE problems , *STOCHASTIC analysis , *UNCERTAINTY (Information theory) , *MATHEMATICAL models , *MODEL validation - Abstract
Abstract: Today, the validation of complex structural models – i.e. the assessment of their quality compared to an experimental reference – remains a major issue. Strictly speaking, the validation problem consists in comparing the response of the numerical model (whether deterministic or stochastic) with complete reality. A first answer to this problem, using Lack-Of-Knowledge (LOK) theory, was introduced at LMT-Cachan. This theory is an attempt to “model the unknown” by taking all the sources of uncertainties, including modeling errors, into account through the concept of basic LOKs. In this article, we introduce basic LOKs associated with both the amplitudes and directions of excitations. These basic LOKs are propagated rigorously throughout the mechanical model in order to determine intervals (with stochastic bounds) within which lies a given quantity of interest (stress or displacement). Then, we introduce a strategy for the reduction of lack of knowledge, which we illustrate through an academic example. [Copyright &y& Elsevier]
- Published
- 2010
- Full Text
- View/download PDF
43. An adaptive procedure for defect identification problems in elasticity
- Author
-
Gutiérrez, Sergio and Mura, J.
- Subjects
- *
ELASTICITY , *INVERSE problems , *ANALYTICAL mechanics , *ASYMPTOTIC homogenization , *CONTINUUM mechanics , *MATHEMATICAL optimization - Abstract
Abstract: In the context of inverse problems in mechanics, it is well known that the most typical situation is that neither the interior nor all the boundary is available to obtain data to detect the presence of inclusions or defects. We propose here an adaptive method that uses loads and measures of displacements only on part of the surface of the body, to detect defects in the interior of an elastic body. The method is based on Small Amplitude Homogenization, that is, we work under the assumption that the contrast on the values of the Lamé elastic coefficients between the defect and the matrix is not very large. The idea is that given the data for one loading state and one location of the displacement sensors, we use an optimization method to obtain a guess for the location of the inclusion and then, using this guess, we adapt the position of the sensors and the loading zone, hoping to refine the current guess. Numerical results show that the method is quite efficient in some cases, using in those cases no more than three loading positions and three different positions of the sensors. [Copyright &y& Elsevier]
- Published
- 2010
- Full Text
- View/download PDF
44. An inverse hyper-spherical harmonics-based formulation for reconstructing 3D volumetric lung deformations
- Author
-
Santhanam, Anand P., Min, Yugang, Mudur, Sudhir P., Rastogi, Abhinav, Ruddy, Bari H., Shah, Amish, Divo, Eduardo, Kassab, Alain, Rolland, Jannick P., and Kupelian, Patrick
- Subjects
- *
HARMONIC analysis (Mathematics) , *BIOMECHANICS , *INVERSE problems , *SPIROMETRY , *ELASTICITY , *DEFORMATIONS (Mechanics) , *LUNG physiology - Abstract
Abstract: A method to estimate the deformation operator for the 3D volumetric lung dynamics of human subjects is described in this paper. For known values of air flow and volumetric displacement, the deformation operator and subsequently the elastic properties of the lung are estimated in terms of a Green''s function. A Hyper-Spherical Harmonic (HSH) transformation is employed to compute the deformation operator. The hyper-spherical coordinate transformation method discussed in this paper facilitates accounting for the heterogeneity of the deformation operator using a finite number of frequency coefficients. Spirometry measurements are used to provide values for the airflow inside the lung. Using a 3D optical flow-based method, the 3D volumetric displacement of the left and right lungs, which represents the local anatomy and deformation of a human subject, was estimated from 4D-CT dataset. Results from an implementation of the method show the estimation of the deformation operator for the left and right lungs of a human subject with non-small cell lung cancer. Validation of the proposed method shows that we can estimate the Young''s modulus of each voxel within a 2% error level. [Copyright &y& Elsevier]
- Published
- 2010
- Full Text
- View/download PDF
45. Unique determination of unknown boundaries in an elastic plate by one measurement
- Author
-
Morassi, Antonino and Rosset, Edi
- Subjects
- *
INVERSE problems , *ELASTIC plates & shells , *NEUMANN problem , *DIFFERENTIAL equations , *BOUNDARY element methods , *ISOTROPY subgroups - Abstract
Abstract: In this article we study two inverse problems for a thin elastic plate subjected to a given couple field applied at its boundary. One problem consists in determining an unknown portion of the exterior boundary of the plate subjected to homogeneous Neumann conditions, while the other problem concerns with the determination of a rigid inclusion inside the plate. In both cases, under the assumption that the plate is made by isotropic material, we prove uniqueness with one measurement. [Copyright &y& Elsevier]
- Published
- 2010
- Full Text
- View/download PDF
46. Nodal predictive error model and Bayesian approach for thermal diffusivity and heat source mapping
- Author
-
Massard, H., Fudym, Olivier, Orlande, H.R.B., and Batsale, J.C.
- Subjects
- *
PREDICTION models , *BAYES' estimation , *THERMAL diffusivity , *HEAT transfer , *IMAGE processing , *INVERSE problems , *ERROR analysis in mathematics - Abstract
Abstract: This article aims at solving a two-dimensional inverse heat conduction problem in order to retrieve both the thermal diffusivity and heat source field in a thin plate. A spatial random heat pulse is applied to the plate and the thermal response is analysed. The inverse approach is based on the minimisation of a nodal predictive error model, which yields a linear estimation problem. As a result of this approach, the sensitivity matrix is directly filled with experimental data, and thus is partially noisy. Bayesian estimators, such as the Maximum A Posteriori and a Markov Chain Monte Carlo approach (Metropolis–Hastings), are implemented and compared with the Ordinary Least Squares solution. Simulated temperature measurements are used in the inverse analysis. The nodal strategy relies on the availability of temperature measurements with fine spatial resolution and high frequency, typical of nowadays infrared cameras. The effects of both the measurement errors and of the model errors on the inverse problem solution are also analysed. [Copyright &y& Elsevier]
- Published
- 2010
- Full Text
- View/download PDF
47. An inverse problem in the economic theory of demand
- Author
-
Ekeland, Ivar and Djitté, Ngalla
- Subjects
- *
PARTIAL differential equations , *LORENZ curve , *SYSTEMS theory , *BESSEL functions - Abstract
Abstract: Given an exchange economy consisting of k consumers, there is an associated collective demand function, which is the sum of the individual demand functions. It maps the price system p to a goods bundle . Conversely, given a map , it is natural to ask whether it is the collective demand function of a market economy. We answer that question in the case when k is less than the number of goods n. The proof relies on finding convex solutions to a strongly nonlinear system of partial differential equations. [Copyright &y& Elsevier]
- Published
- 2006
- Full Text
- View/download PDF
48. Multi-physical modeling of thermographic inspection methods and fast imaging
- Author
-
Ratsakou, Almpion, Laboratoire d'Intégration des Systèmes et des Technologies (LIST), Direction de Recherche Technologique (CEA) (DRT (CEA)), Commissariat à l'énergie atomique et aux énergies alternatives (CEA)-Commissariat à l'énergie atomique et aux énergies alternatives (CEA), Université Paris-Saclay, Dominique Lesselier, and Laboratoire d'Intégration des Systèmes et des Technologies (LIST (CEA))
- Subjects
Inverse problems ,Thermography ,Problèmes inverses ,Modélisation ,Non-destructive testing ,Modeling ,Multi-physical imaging ,Imagerie multi-physique ,Thermographie ,Contrôle non-destructif ,[SPI.SIGNAL]Engineering Sciences [physics]/Signal and Image processing ,Simulation - Abstract
Thermographic inspection is a popular nondestructive testing (NdT) technique that provides images of temperature distribution over large areas at surfaces of tested workpieces. Detecting delaminations between metallic layers is the matter here. Simulation of these inspections indeed helps to complement experimental studies, evaluate performance in terms of detection and support model-based algorithms. A semi-analytical model based on a truncated region eigenfunction expansion for simulation of thermographic inspection is focused onto. The problem is solved in the Laplace domain w.r.t time, and the temperature distribution approximated by expanding it on a tensor product basis. Considered sources are lamps providing thermal excitation but may also be eddy current sources (leading to a coupled electromagnetic and heat problem). The description of the delaminations as thin air gaps between the workpiece layers proves to be equivalent with introduction of a surface resistance to the heat flow, enabling treatment via the applied modal approach without additional discretisation. Complementary computations by industry (Finite Element Method) and in-house (Finite Integration Technique) codes confirm the accuracy of the developments. Then, much attention is put on imaging and detection. A two-step procedure is devised, first denoising of raw signals and detection of any possible defect using a thermographic signal reconstruction leading to high spatial and temporal resolution in the transverse plane, completed by proper edge detection, second an iterative optimization being employed, with results of the first step used for regularization of a least-square scheme to characterize thicknesses and depths. All the above is illustrated by comprehensive numerical simulations in conditions close to practice.; L’inspection thermographique est une technique populaire de contrôle non destructif qui fournit des images de distributions de température sur de grandes étendues aux surfaces des pièces testées. Détecter les délaminations entre couches métalliques est le sujet ici. La simulation de ces inspections contribue en effet à compléter les études expérimentales, à évaluer les performances en termes de détection, et à être support d'algorithmes basés sur modèles. On se focalise sur un modèle semi-analytique basé sur un développement tronqué en fonctions propres par région. Le problème est résolu dans le domaine de Laplace en temps, et la distribution de température approximée par un développement sur une base produit tensoriel. Les sources considérées sont des lampes flash, mais aussi des sources courants de Foucault (conduisant à un couplage électromagnétisme et chaleur). La description des délaminages sous forme de minces couches d'air se révèle équivalente à l'introduction d'une résistance superficielle au flux de chaleur permettant le traitement via l'approche modale sans discrétisation supplémentaire. Des calculs complémentaires par des codes commercial (méthode des éléments finis) et interne (technique d'intégration finie) confirment l'exactitude. Puis une grande attention est donnée à l'imagerie et la détection. Une procédure en deux étapes est conçue : débruitage des signaux bruts et détection de tout éventuel défaut en utilisant une reconstruction de signal thermographique conduisant à une haute résolution spatiale et temporelle dans le plan transverse, complété par une détection de frontière, puis optimisation itérative, les résultats de la première étape étant utilisées pour la régularisation d'un schéma moindres carrés afin de caractériser épaisseurs et profondeurs. Tout ce qui précède est illustré par de nombreuses simulations numériques dans des conditions proches de l'application.
- Published
- 2020
49. Shape reconstruction of deposits inside a steam generator using eddy current measurements
- Author
-
Girardon, Hugo, STAR, ABES, Centre de Mathématiques Appliquées - Ecole Polytechnique (CMAP), École polytechnique (X)-Centre National de la Recherche Scientifique (CNRS), Institut Polytechnique de Paris, and Houssem Haddar
- Subjects
Courants de Foucault ,[INFO.INFO-TS] Computer Science [cs]/Signal and Image Processing ,Inverse Problems ,[SPI.ELEC] Engineering Sciences [physics]/Electromagnetism ,Méthode des Level Set ,Shape Optimization ,Eddy Currents ,Optimisation de forme ,Level Set method ,[INFO.INFO-MO]Computer Science [cs]/Modeling and Simulation ,Asymptotic models ,[SPI.ELEC]Engineering Sciences [physics]/Electromagnetism ,[INFO.INFO-TS]Computer Science [cs]/Signal and Image Processing ,Problèmes inverses ,Modèles asymptotiques ,[MATH.MATH-AP]Mathematics [math]/Analysis of PDEs [math.AP] ,[INFO.INFO-MO] Computer Science [cs]/Modeling and Simulation ,[MATH.MATH-AP] Mathematics [math]/Analysis of PDEs [math.AP] - Abstract
Non-destructive testing is an essential tool to assess the safety of the facilities within nuclear power plants. In particular, conductive deposits on U-tubes in steam generators constitute a safety issue as they may block the cooling loop. To detect these deposits, eddy-current probes are introduced inside the U-tubes to generate currents and measuring back an impedance signal. We develop a shape optimization technique with regularized gradient descent to invert these measurements and recover the deposit shape. To deal with the unknown geometry, and its possibly complex topological nature, we propose to model it using a level set function.The methodology is first validated on synthetic axisymmetric configurations and fast convergence is ensured by careful adaptation of the gradient steps and regularization parameters. Using the actual domain, from which the acquisitions are made, we then consider a more realistic modeling that incorporates the support plate and the presence of imperfections on the tube interior section. We employ in particular an asymptotic model to take into account these imperfections and treat them as additional unknowns in our inverse problem. A multi-objective optimization strategy, based on the use of different operating frequencies, is then developed to solve this problem. We present various numerical examples with synthetic and experimental data showing the viability of our approach.The focus is then placed on the transposition of the 2D-axisymmetric work to more generic 3D configurations. Solving Maxwell eddy-current equations in 3D raises modeling issues related to the choice of the problem formulation as well as high computational costs that need to be reduced before discussing the reconstruction algorithm. Using the knowledge acquired with 2D-axisymmetric reconstruction, an efficient inversion strategy is then proposed and implemented on 3D synthetic data. Validating numerical examples demonstrate the feasibility of the inversion even for large data at a relatively moderate cost and with good accuracy and robustness with respect to noise and modeling errors., Le contrôle non destructif est un outil essentiel pour évaluer la sûreté des infrastructures dans les centrales nucléaires. En particulier, la présence de dépôts conducteurs dans les tubes en U des générateurs de vapeur constitue un enjeu de la sûreté en bloquant le circuit d'eau secondaire. Pour détecter ces dépôts, des sondes à courants de Foucault sont insérées dans les tubes en U pour générer des courants et mesurer en retour un signal d'impédance. Pour inverser ces mesures et reconstruire la forme du dépôt, nous développons une méthode d'optimisation de forme avec descente de gradient régularisée. Du fait du caractère inconnu et possiblement complexe de la géométrie et de la topologie du dépôt, nous nous proposons de le modéliser par le biais d'une fonction level-set. La méthodologie est validée dans un premier temps sur des configurations axisymétriques artificielles et une rapide convergence est assurée par un choix réfléchi des paramètres de régularisation ainsi qu'une adaptation fine des pas de descente. En nous appuyant sur la configuration réelle dans laquelle sont réalisées les mesures expérimentales, nous considérons ensuite une modélisation plus réaliste incorporant la plaque entretoise ainsi que la présence d'imperfections sur la paroi intérieure du tube. Plus précisément, nous utilisons un modèle asymptotique pour prendre en compte ces imperfections et nous les traitons comme de nouvelles inconnues dans notre problème inverse. Une stratégie d'optimisation multi-critères se basant sur l'utilisation de différentes fréquences est ensuite développée pour résoudre le problème. Nous présentons différents résultats numériques sur des tests artificiels ou réels pour montrer la validité de note approche. Nous nous focalisons ensuite sur la transposition du modèle 2D-axisymétrique à des configurations 3D plus génériques. La résolution des équations de Maxwell en présence de courants de Foucault en 3D pose plusieurs problèmes de modélisation de part le choix de la formulation du problème ainsi que des coûts de calculs conséquents à réduire avant de pouvoir élaborer l'algorithme de reconstruction. Avec l'expérience acquise dans la reconstruction en 2D-axisymétrique, nous proposons ensuite une stratégie d'inversion efficace que nous mettons en œuvre sur des données artificielles 3D. La validation des exemples numériques prouve ainsi la faisabilité de l'inversion pour des problèmes de taille conséquente pour des coûts modérés et avec une bonne précision et robustesse par rapport au bruit et aux erreurs de modélisation.
- Published
- 2020
50. Contraintes géométriques et approches variationnelles pour l'analyse d'image
- Author
-
Martins Antunes, Daniel and STAR, ABES
- Subjects
Graph theory ,Inverse problems ,[INFO.INFO-DM] Computer Science [cs]/Discrete Mathematics [cs.DM] ,Problèmes inverses ,Partial Differential Equations ,Théorie des graphes ,Calcul discret ,Discrete calculus ,Equations aux dérivées Partielles - Abstract
Several problems in image processing belong to the class of inverse problems, and hypotheses should be made to have a well-defined formulation, i.e., a formulation in which a solution exists and it is unique. A possibility is to use geometric criteria to regularize the problem, e.g., to favor solutions with smooth contours or short perimeters. This process is called regularization.However, it is likely the case that the objects in the scene have unknown mathematical representations and that such geometric measurements should be computed in place, considering only their visual representation: In the case of image processing, a digital image. Usually, such measurements are computed without considering the nature of the digital domain, and consequently, are not guaranteed to converge neither approximate the expected Euclidean quantity. The regularization is thus incorrect or not precise, and the solutions biased.Recently, several digital estimators of geometric properties such as tangent and curvature were proven multigrid convergent. In other words, the estimated values computed in the digital representation of a shape converges towards the values computed in its Euclidean representation as the digital mesh becomes finer and finer. However, there exist few models in the image processing literature that make use of them. That is because such estimators are more difficult to integrate in an optimization framework.In this thesis, we investigate the use of multigrid convergent estimators and their applications in image processing. In particular, we aim to integrate regularizers based on convergent estimators of curvature in image segmentation problems. We present four combinatorial models based on the elastica energy (a classical geometric regularization term combining perimeter and curvature) with applications in image segmentation. Next, we evaluate our results and compare with similar methods. The results have shown to be very competitive with the state of art., Beaucoup de problèmes en analyse d’images sont caractérisés comme des problèmes inverses, et des hypothèses s'avèrent nécessaire pour obtenir un formulation bien posée, c’est-à-dire que le problème ait une solution et que celle-ci soit unique. Une approche possible consiste à utiliser des critères géométriques pour régulariser le problème, par exemple pour favoriser des solutions avec des contours lisses ou de faible périmètre.Cependant, dans le cadre de l’analyse d’image; nous ne disposons pas de la représentation mathématique des objets dans une scène observée. Nous devons utiliser les seules données discrètes (les couleurs des pixels de l’image) qui approchent ces objets et les mesures géométriques sont alors délicates. Les méthodes classiques prennent peu en compte la nature discrète des données dans leur mesure. En conséquence, nous n’avons pas de garanties de convergence ou même d’approximation des mesures effectuées par rapport aux mesures euclidiennes attendues. La régularisation dans le processus de traitement d’image est alors incorrecte ou peu précise, et les solutions trouvées sont alors biaisées.Récemment, plusieurs estimateurs discrets de propriétés géométriques, notamment liés à la longueur, à la tangente et à la courbure, ont été prouvé convergents multigrilles. Autrement dit la valeur mesurée par ces estimateurs sur la représentation discrète d’une forme converge vers la valeur mesurée sur sa forme euclidienne quand on utilise des grilles de discrétisations de plus en plus fines. Néanmoins, on constate que la littérature d’analyse d’image comporte peu de modèles qui utilisent des estimateurs convergents multigrille. Cela vient du fait qu’il est plus difficile des les intégrer dans les algorithmes de résolution.Dans cette thèse, nous explorons l’utilisation d’estimateurs convergents multigrille dans des applications en analyse d’image. Plus spécifiquement nous cherchons à intégrer des régularisations basées sur des estimateurs convergents de courbure dans des processus de segmentation d’image. Nous présentons quatre modèles variationnels combinatoires basés sur l’énergie dite “Elastica” (combinaison classique de régularisation géométrique utilisant la longueur et la courbure) avec application en segmentation d’image. Nos résultats sont ensuite évaluées et comparées avec des méthodes similaires, et nos modèles s’avèrent très compétitifs avec l’état de l’art.
- Published
- 2020
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.