36 results on '"constrained optimization"'
Search Results
2. Le réaménagement des friches urbaines à l’échelle d’un territoire industriel : une approche d'optimisation économique.
- Author
-
AMELLER, Joaquin, RINAUDO, Jean-Daniel, and MERLY, corinne
- Subjects
COST benefit analysis ,BROWNFIELDS ,SCIENTIFIC literature ,CONSTRAINED optimization ,DEVELOPED countries ,ENVIRONMENTAL economics - Abstract
Copyright of Revue d'Économie Régionale & urbaine is the property of Librairie Armand Colin and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2023
- Full Text
- View/download PDF
3. Allocation de commande pour l’électrotechnique et l’électronique de puissance
- Author
-
Kreiss, Jérémie, Institut National des Sciences Appliquées de Lyon (INSA Lyon), Université de Lyon-Institut National des Sciences Appliquées (INSA), INSA Lyon, and Xuefang Lin-Shi
- Subjects
Allocation de commande ,gestion des saturations ,commande de convertisseurs DC/DC en parallèle ,[SPI.NRJ]Engineering Sciences [physics]/Electric power ,control of parallel interconnection of DC/DC converters ,constraints management ,Control allocation ,constrained optimization ,optimisation sous contraintes ,[SPI.AUTO]Engineering Sciences [physics]/Automatic - Abstract
This thesis is about using control allocation for electrotechnics and power electronics. It is composed of two parts. The first one is linked with control allocation theory whereas the second one is related to designing control law for parallele interconnection of power converters. Control allocation provides methods for controlling input redundant systems. However, definitions and characterizations of input redundant systems suffer from a lack of uniformity. As a result, the first part of this thesis presents new definitions and generalized characterizations of such systems, while taking input and state constraints into account. The application framework of geometric control allocation is also extended to take input constraints into account.Using those theoritical developments, the second part of this thesis show that the parallel interconnection of DC/DC converters is an input redundant system. Control laws, based on control allocation are then used to bring stability and performance conditions. Those contributions are highlighted by simulations and experiments.; Cette thèse s’inscrit dans le cadre de l’utilisation de l’allocation de commande dans le domaine de l’électrotechnique et l’électronique de puissance. Elle comporte deux volets, le premier orienté sur la théorie de l’allocation de commande et le second en lien avec la conception de lois de commande pour les convertisseurs en parallèle. L’allocation de commande donne des solutions pour commander des systèmes redondants en entrée. Toutefois les définitions et caractérisations de cette classe de systèmes souffrent d’un manque d’uniformité. C’est pourquoi dans le premier volet, cette thèse présente de nouvelles définitions et caractérisations générales de systèmes linéaires redondants en entrée en prenant en compte les contraintes d’entrée et d’état. Le cadre d’application de la technique d’allocation dite "géométrique" est également étendu pour prendre en compte des contraintes d’entrée. À la lumière de ces contributions, nous montrons dans le second volet que le système de convertisseurs continus en parallèle alimentant une charge unique est redondant en entrée. Sur ce système, des techniques de commande basées sur l’allocation de commande sont utilisées en apportant des preuves de stabilité et de performance. Ces développements sont appuyés par des simulations et des expérimentations.
- Published
- 2019
4. Control allocation for electrotechnics and power electronics
- Author
-
Kreiss, Jérémie, Institut National des Sciences Appliquées de Lyon (INSA Lyon), Université de Lyon-Institut National des Sciences Appliquées (INSA), INSA Lyon, Xuefang Lin-Shi, and Kreiss, Jérémie
- Subjects
[SPI.AUTO] Engineering Sciences [physics]/Automatic ,Allocation de commande ,gestion des saturations ,commande de convertisseurs DC/DC en parallèle ,[SPI.NRJ]Engineering Sciences [physics]/Electric power ,control of parallel interconnection of DC/DC converters ,constraints management ,Control allocation ,constrained optimization ,[SPI.NRJ] Engineering Sciences [physics]/Electric power ,optimisation sous contraintes ,[SPI.AUTO]Engineering Sciences [physics]/Automatic - Abstract
This thesis is about using control allocation for electrotechnics and power electronics. It is composed of two parts. The first one is linked with control allocation theory whereas the second one is related to designing control law for parallele interconnection of power converters. Control allocation provides methods for controlling input redundant systems. However, definitions and characterizations of input redundant systems suffer from a lack of uniformity. As a result, the first part of this thesis presents new definitions and generalized characterizations of such systems, while taking input and state constraints into account. The application framework of geometric control allocation is also extended to take input constraints into account.Using those theoritical developments, the second part of this thesis show that the parallel interconnection of DC/DC converters is an input redundant system. Control laws, based on control allocation are then used to bring stability and performance conditions. Those contributions are highlighted by simulations and experiments., Cette thèse s’inscrit dans le cadre de l’utilisation de l’allocation de commande dans le domaine de l’électrotechnique et l’électronique de puissance. Elle comporte deux volets, le premier orienté sur la théorie de l’allocation de commande et le second en lien avec la conception de lois de commande pour les convertisseurs en parallèle. L’allocation de commande donne des solutions pour commander des systèmes redondants en entrée. Toutefois les définitions et caractérisations de cette classe de systèmes souffrent d’un manque d’uniformité. C’est pourquoi dans le premier volet, cette thèse présente de nouvelles définitions et caractérisations générales de systèmes linéaires redondants en entrée en prenant en compte les contraintes d’entrée et d’état. Le cadre d’application de la technique d’allocation dite "géométrique" est également étendu pour prendre en compte des contraintes d’entrée. À la lumière de ces contributions, nous montrons dans le second volet que le système de convertisseurs continus en parallèle alimentant une charge unique est redondant en entrée. Sur ce système, des techniques de commande basées sur l’allocation de commande sont utilisées en apportant des preuves de stabilité et de performance. Ces développements sont appuyés par des simulations et des expérimentations.
- Published
- 2019
5. De l'équation de prescription de courbure scalaire aux équations de contrainte en relativité générale sur une variété asymptotiquement hyperbolique
- Author
-
Gicquaud, Romain
- Subjects
- *
SCALAR field theory , *CURVATURE , *CONSTRAINED optimization , *GENERAL relativity (Physics) , *ASYMPTOTIC expansions , *EXPONENTIAL functions , *ALGEBRAIC varieties , *BOUNDARY value problems , *EINSTEIN field equations - Abstract
Abstract: Two problems concerning asymptotically hyperbolic manifolds with an inner boundary are studied. First, we study scalar curvature presciption with either Dirichlet or mean curvature prescription interior boundary condition. Then we apply those results to the Lichnerowicz equation with (future or past) apparent horizon interior boundary condition. In the last part we show how to construct TT-tensors. Thus we obtain Cauchy data with constant mean curvature for Einstein vacuum equations. [Copyright &y& Elsevier]
- Published
- 2010
- Full Text
- View/download PDF
6. Sur l'optimisation d'actionneurs pour le contrôle d'Écoulements.
- Author
-
Favier, Julien, Cordier, Laurent, and Kourta, Azeddine
- Subjects
- *
REDUCED-order models , *PROPER orthogonal decomposition , *SPATIO-temporal variation , *MATHEMATICAL optimization , *NAVIER-Stokes equations , *CALIBRATION - Abstract
The objective of this work is to construct reduced-order models based on POD ("Proper Orthogonal Decomposition") that are able to accurately reproduce the spatio-temporal dynamics of separated flows. The growing interest concerning these models comes from their potential use in the resolution of large scale constrained optimization problems, in the context of flow control. The general approach consists in substituting the high-fidelity model of the Navier-Stokes equations by an approximate model, cheaper to compute and capturing the essential features of the original dynamics. POD, which is the optimal decomposition in terms of energy, allows to approximate the flow dynamics in a subspace spanned by a few number of modes. Different calibration methods are developed here in order to improve the accuracy of the reduced-order models, and thus make this approach suitable for flow control issues. Essentially, the idea of the calibration methods is to determine in the equations of the POD reduced-order models auxiliary parameters that are computed by resolving appropriate constrained minimization problems. [ABSTRACT FROM AUTHOR]
- Published
- 2007
- Full Text
- View/download PDF
7. Affectation heuristique de cellules à des commutateurs dans les réseaux cellulaires pour mobiles.
- Author
-
Houéto, F. and pierre, S.
- Abstract
Copyright of Annals of Telecommunications is the property of Springer Nature and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2001
- Full Text
- View/download PDF
8. Méthodes de décomposition non-linéaire pour l'imagerie X spectrale
- Author
-
Hohweiller, Tom, Centre de Recherche en Acquisition et Traitement de l'Image pour la Santé (CREATIS), Université Jean Monnet [Saint-Étienne] (UJM)-Hospices Civils de Lyon (HCL)-Institut National des Sciences Appliquées de Lyon (INSA Lyon), Université de Lyon-Institut National des Sciences Appliquées (INSA)-Université de Lyon-Institut National des Sciences Appliquées (INSA)-Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Centre National de la Recherche Scientifique (CNRS)-Institut National de la Santé et de la Recherche Médicale (INSERM), Université de Lyon, Nicolas Ducros, and Bruno Sixou
- Subjects
X-Ray Imaging ,Optimisation sous contraintes ,Decomposition ,Problème inverse ,Tomodensitometry ,Image Processing ,Décomposition ,Spectral data ,Basis Material Decomposition ,Décomposition en base de matériaux ,Imagerie spectrale ,Tomodensitométrie ,Imagerie par rayons X ,Données spectrales ,Inverse problem ,Régularisation ,Constrained optimization ,Traitement de l'image ,[SPI.SIGNAL]Engineering Sciences [physics]/Signal and Image processing ,Simulation ,Spectral imagery ,Regulation - Abstract
Spectral tomodensitometry is a new emerging x-ray imaging modality. If the dual-energy principle was already known for quite some time, new developments on photon-counting detectors now allowing acquiring more energy bins than before. This modality allows reducing some artifacts presents in x-ray imaging, such as beam hardening, but mostly to decompose the data into the chemical composition of the imaged tissue. It also enables the use of new markers (i.e. gold) with an energic discontinuity. The use of these markers also allows to locate and quantify them in the patient, granting great potential for medical imaging. Decomposition in the projection domain followed by a tomographic reconstruction is a classical processing for those spectral data. However, decomposition methods in the projection domain are unstable for a high number of energy bins. Classical calibration technic is numerically unstable for more than two energy bins. This thesis aims to developed new material decomposition methods in the projections domains. After expressing the spectral forward model, the decomposition problem is expressed and dealt as a non-linear inverse problem. It will be solved by minimizing a cost function composed by a term characterizing the fidelity of the decomposition regarding the data and an \textit{a priori} of the decomposed material maps. We will firstly present an adaptation of the cost function that takes into account the Poissonian noise on the data. This formulation allows having better decomposed maps for a high level of noise than classical formulation. Then, two constrained algorithms will be presented. The first one, a projected Gauss-Newton algorithm, that enforces positivity on the decomposed maps, allows having better decomposed maps than an unconstrained algorithm. To improve the first algorithm, another one was developed that also used an egality constrain. The equality allows having images with fewer artifacts than before. These methods are tested on a numerical phantom of a mouse and thorax. To speed up the decomposition process, an automatic choice of parameters is presented, which allow faster decomposition while keeping good maps. Finally, the methods are tested on experimental data that are coming from a spectral scanner prototype.; La tomodensitométrie spectrale est une modalité d’imagerie par rayons X émergente. Si le principe de la double énergie est plus ancien, des développements récents sur des détecteurs à comptage de photons permettent d’acquérir des données résolues en énergie sur plusieurs plages. Cette modalité permet de réduire un certain nombre d’artéfacts classiques dont ceux liés au durcissement de spectre, mais surtout de remonter à la composition chimique des tissus. Les données spectrales permettent également d’utiliser de nouveaux agents de contraste (comme l’or par exemple) qui présentent des discontinuités énergétiques. La possibilité d’utiliser d’autres marqueurs et de quantifier leurs présences dans le patient donne à cette modalité un fort potentiel dans le domaine de l’imagerie médicale. Une approche classique pour le traitement des données spectrales est d’effectuer une décomposition en base de matériaux préalables à la reconstruction tomographique. Cependant, les méthodes de décomposition dans le domaine des projections avec un grand nombre de plages d’énergies n’en sont qu’à leurs débuts. Les techniques classiques par calibration, ne sont plus numériquement stables lorsqu’il y a plus de deux plages disponibles. Le but de cette thèse est de développer de nouvelles méthodes de décomposition des données spectrales dans le domaine des projections. Après avoir formalisé le problème direct de la tomodensitométrie spectrale, le problème de décomposition en base de matériaux sera exprimé et traité comme un problème inverse non linéaire. Il sera résolu en minimisant une fonction de coût incluant un terme caractérisant la fidélité de la décomposition par rapport aux données et un \textit{a priori} sur les cartes de matériaux projetées. Ces travaux présenteront tout d’abord une adaptation de la fonctionnelle prenant en compte la nature Poissonienne du bruit. Cette formulation permet d’obtenir de meilleures décompositions pour de forts niveaux de bruit par rapport à la formulation classique. Ensuite, deux algorithmes de minimisation incluant une contrainte de positivité additionnelle seront proposés. Le premier, un algorithme de Gauss-Newton projeté, permet d’obtenir des cartes rapidement et de meilleure qualité que des méthodes non contraintes. Pour améliorer les résultats du premier algorithme, une seconde méthode, de type ADMM, ajoute une contrainte d’égalité. Cette contrainte a permis de diminuer les artefacts présents dans l’image. Ces méthodes ont été évaluées sur des données numériques de souris et de thorax humain. Afin d’accélérer et de simplifier les méthodes, un choix automatique des hyperparamètres est proposé qui permet de diminuer fortement le temps de calcul tout en gardant de bonnes décompositions. Finalement, ces méthodes sont testées sur des données expérimentales provenant d’un prototype de scanner spectral.
- Published
- 2019
9. Non-linear decomposition method for spectral CT
- Author
-
Hohweiller, Tom, Imagerie Tomographique et Radiothérapie, Centre de Recherche en Acquisition et Traitement de l'Image pour la Santé (CREATIS), Université Jean Monnet [Saint-Étienne] (UJM)-Hospices Civils de Lyon (HCL)-Institut National des Sciences Appliquées de Lyon (INSA Lyon), Université de Lyon-Institut National des Sciences Appliquées (INSA)-Université de Lyon-Institut National des Sciences Appliquées (INSA)-Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Centre National de la Recherche Scientifique (CNRS)-Institut National de la Santé et de la Recherche Médicale (INSERM)-Université Jean Monnet [Saint-Étienne] (UJM)-Hospices Civils de Lyon (HCL)-Institut National des Sciences Appliquées de Lyon (INSA Lyon), Université de Lyon-Centre National de la Recherche Scientifique (CNRS)-Institut National de la Santé et de la Recherche Médicale (INSERM), Université de Lyon, INSA de Lyon, Bruno Sixou, Nicolas Ducros, Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Université de Lyon-Institut National des Sciences Appliquées de Lyon (INSA Lyon), Université de Lyon-Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA)-Hospices Civils de Lyon (HCL)-Université Jean Monnet - Saint-Étienne (UJM)-Institut National de la Santé et de la Recherche Médicale (INSERM)-Centre National de la Recherche Scientifique (CNRS)-Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA)-Hospices Civils de Lyon (HCL)-Université Jean Monnet - Saint-Étienne (UJM)-Institut National de la Santé et de la Recherche Médicale (INSERM)-Centre National de la Recherche Scientifique (CNRS), and Hohweiller, Tom
- Subjects
régularisation ,[SDV.IB.IMA]Life Sciences [q-bio]/Bioengineering/Imaging ,X-ray imaging ,[INFO.INFO-IM] Computer Science [cs]/Medical Imaging ,material decomposition ,spectral imaging ,constrained optimization ,regularization ,problèmes inverses ,Imagerie par rayons X ,décomposition en matériaux ,[SDV.IB.IMA] Life Sciences [q-bio]/Bioengineering/Imaging ,imagerie spectrale ,[INFO.INFO-IM]Computer Science [cs]/Medical Imaging ,inverse problem ,optimisation sous contrainte - Abstract
Spectral tomodensitometry is a new emerging x-ray imaging modality. If the dual-energy principle was already known for quite some time, new developments on photon-counting detectors now allowing acquiring more energy bins than before. This modality allows reducing some artifacts presents in x-ray imaging, such as beam hardening, but mostly to decompose the data into the chemical composition of the imaged tissue. It also enables the use of new markers (i.e. gold) with an energic discontinuity. The use of these markers also allows to locate and quantify them in the patient, granting great potential for medical imaging. Decomposition in the projection domain followed by a tomographic reconstruction is a classical processing for those spectral data. However, decomposition methods in the projection domain are unstable for a high number of energy bins. Classical calibration technic is numerically unstable for more than two energy bins. This thesis aims to developed new material decomposition methods in the projections domains. After expressing the spectral forward model, the decomposition problem is expressed and dealt as a non-linear inverse problem. It will be solved by minimizing a cost function composed by a term characterizing the fidelity of the decomposition regarding the data and an a priori of the decomposed material maps. We will firstly present an adaptation of the cost function that takes into account the Poissonian noise on the data. This formulation allows having better decomposed maps for a high level of noise than classical formulation. Then, two constrained algorithms will be presented. The first one, a projected Gauss-Newton algorithm, that enforces positivity on the decomposed maps, allows having better decomposed maps than an unconstrained algorithm. To improve the first algorithm, another one was developed that also used an egality constrain. The equality allows having images with fewer artifacts than before. These methods are tested on a numerical phantom of a mouse and thorax. To speed up the decomposition process, an automatic choice of parameters is presented, which allow faster decomposition while keeping good maps. Finally, the methods are tested on experimental data that are coming from a spectral scanner prototype., La tomodensitométrie spectrale est une modalité d’imagerie par rayons X émergente. Si le principe de la double énergie est plus ancien, des développements récents sur des détecteurs à comptage de photons permettent d’acquérir des données résolues en énergie sur plusieurs plages. Cette modalité permet de réduire un certain nombre d’artéfacts classiques dont ceux liés au durcissement de spectre, mais surtout de remonter à la composition chimique des tissus. Les données spectrales permettent également d’utiliser de nouveaux agents de contraste (comme l’or par exemple) qui présentent des discontinuités énergétiques. La possibilité d’utiliser d’autres marqueurs et de quantifier leurs présences dans le patient donne à cette modalité un fort potentiel dans le domaine de l’imagerie médicale. Une approche classique pour le traitement des données spectrales est d’effectuer une décomposition en base de matériaux préalables à la reconstruction tomographique. Cependant, les méthodes de décomposition dans le domaine des projections avec un grand nombre de plages d’énergies n’en sont qu’à leurs débuts. Les techniques classiques par calibration, ne sont plus numériquement stables lorsqu’il y a plus de deux plages disponibles.Le but de cette thèse est de développer de nouvelles méthodes de décomposition des données spectrales dans le domaine des projections. Après avoir formalisé le problème direct de la tomodensitométrie spectrale, le problème de décomposition en base de matériaux sera exprimé et traité comme un problème inverse non linéaire. Il sera résolu en minimisant une fonction de coût incluant un terme caractérisant la fidélité de la décomposition par rapport aux données et un a priori sur les cartes de matériaux projetées. Ces travaux présenteront tout d’abord une adaptation de la fonctionnelle prenant en compte la nature Poissonienne du bruit. Cette formulation permet d’obtenir de meilleures décompositions pour de forts niveaux de bruit par rapport à la formulation classique. Ensuite, deux algorithmes de minimisation incluant une contrainte de positivité additionnelle seront proposés. Le premier, un algorithme de Gauss-Newton projeté, permet d’obtenir des cartes rapidement et de meilleure qualité que des méthodes non contraintes. Pour améliorer les résultats du premier algorithme, une seconde méthode, de type ADMM, ajoute une contrainte d’égalité. Cette contrainte a permis de diminuer les artefacts présents dans l’image. Ces méthodes ont été évaluées sur des données numériques de souris et de thorax humain. Afin d’accélérer et de simplifier les méthodes, un choix automatique des hyperparamètres est proposé qui permet de diminuer fortement le temps de calcul tout en gardant de bonnes décompositions. Finalement, ces méthodes sont testées sur des données expérimentales provenant d’un prototype de scanner spectral.
- Published
- 2019
10. Non-linear decomposition methods for spectral X-ray imaging
- Author
-
Hohweiller, Tom, STAR, ABES, Centre de Recherche en Acquisition et Traitement de l'Image pour la Santé (CREATIS), Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Université de Lyon-Institut National des Sciences Appliquées de Lyon (INSA Lyon), Institut National des Sciences Appliquées (INSA)-Université de Lyon-Institut National des Sciences Appliquées (INSA)-Hospices Civils de Lyon (HCL)-Université Jean Monnet [Saint-Étienne] (UJM)-Institut National de la Santé et de la Recherche Médicale (INSERM)-Centre National de la Recherche Scientifique (CNRS), Université de Lyon, Nicolas Ducros, and Bruno Sixou
- Subjects
X-Ray Imaging ,Optimisation sous contraintes ,Decomposition ,Problème inverse ,Tomodensitometry ,Image Processing ,Décomposition ,Spectral data ,Basis Material Decomposition ,Décomposition en base de matériaux ,Imagerie spectrale ,Tomodensitométrie ,Imagerie par rayons X ,Données spectrales ,Inverse problem ,Régularisation ,Constrained optimization ,[SPI.SIGNAL]Engineering Sciences [physics]/Signal and Image processing ,Traitement de l'image ,Simulation ,Spectral imagery ,Regulation ,[SPI.SIGNAL] Engineering Sciences [physics]/Signal and Image processing - Abstract
Spectral tomodensitometry is a new emerging x-ray imaging modality. If the dual-energy principle was already known for quite some time, new developments on photon-counting detectors now allowing acquiring more energy bins than before. This modality allows reducing some artifacts presents in x-ray imaging, such as beam hardening, but mostly to decompose the data into the chemical composition of the imaged tissue. It also enables the use of new markers (i.e. gold) with an energic discontinuity. The use of these markers also allows to locate and quantify them in the patient, granting great potential for medical imaging. Decomposition in the projection domain followed by a tomographic reconstruction is a classical processing for those spectral data. However, decomposition methods in the projection domain are unstable for a high number of energy bins. Classical calibration technic is numerically unstable for more than two energy bins. This thesis aims to developed new material decomposition methods in the projections domains. After expressing the spectral forward model, the decomposition problem is expressed and dealt as a non-linear inverse problem. It will be solved by minimizing a cost function composed by a term characterizing the fidelity of the decomposition regarding the data and an \textit{a priori} of the decomposed material maps. We will firstly present an adaptation of the cost function that takes into account the Poissonian noise on the data. This formulation allows having better decomposed maps for a high level of noise than classical formulation. Then, two constrained algorithms will be presented. The first one, a projected Gauss-Newton algorithm, that enforces positivity on the decomposed maps, allows having better decomposed maps than an unconstrained algorithm. To improve the first algorithm, another one was developed that also used an egality constrain. The equality allows having images with fewer artifacts than before. These methods are tested on a numerical phantom of a mouse and thorax. To speed up the decomposition process, an automatic choice of parameters is presented, which allow faster decomposition while keeping good maps. Finally, the methods are tested on experimental data that are coming from a spectral scanner prototype., La tomodensitométrie spectrale est une modalité d’imagerie par rayons X émergente. Si le principe de la double énergie est plus ancien, des développements récents sur des détecteurs à comptage de photons permettent d’acquérir des données résolues en énergie sur plusieurs plages. Cette modalité permet de réduire un certain nombre d’artéfacts classiques dont ceux liés au durcissement de spectre, mais surtout de remonter à la composition chimique des tissus. Les données spectrales permettent également d’utiliser de nouveaux agents de contraste (comme l’or par exemple) qui présentent des discontinuités énergétiques. La possibilité d’utiliser d’autres marqueurs et de quantifier leurs présences dans le patient donne à cette modalité un fort potentiel dans le domaine de l’imagerie médicale. Une approche classique pour le traitement des données spectrales est d’effectuer une décomposition en base de matériaux préalables à la reconstruction tomographique. Cependant, les méthodes de décomposition dans le domaine des projections avec un grand nombre de plages d’énergies n’en sont qu’à leurs débuts. Les techniques classiques par calibration, ne sont plus numériquement stables lorsqu’il y a plus de deux plages disponibles. Le but de cette thèse est de développer de nouvelles méthodes de décomposition des données spectrales dans le domaine des projections. Après avoir formalisé le problème direct de la tomodensitométrie spectrale, le problème de décomposition en base de matériaux sera exprimé et traité comme un problème inverse non linéaire. Il sera résolu en minimisant une fonction de coût incluant un terme caractérisant la fidélité de la décomposition par rapport aux données et un \textit{a priori} sur les cartes de matériaux projetées. Ces travaux présenteront tout d’abord une adaptation de la fonctionnelle prenant en compte la nature Poissonienne du bruit. Cette formulation permet d’obtenir de meilleures décompositions pour de forts niveaux de bruit par rapport à la formulation classique. Ensuite, deux algorithmes de minimisation incluant une contrainte de positivité additionnelle seront proposés. Le premier, un algorithme de Gauss-Newton projeté, permet d’obtenir des cartes rapidement et de meilleure qualité que des méthodes non contraintes. Pour améliorer les résultats du premier algorithme, une seconde méthode, de type ADMM, ajoute une contrainte d’égalité. Cette contrainte a permis de diminuer les artefacts présents dans l’image. Ces méthodes ont été évaluées sur des données numériques de souris et de thorax humain. Afin d’accélérer et de simplifier les méthodes, un choix automatique des hyperparamètres est proposé qui permet de diminuer fortement le temps de calcul tout en gardant de bonnes décompositions. Finalement, ces méthodes sont testées sur des données expérimentales provenant d’un prototype de scanner spectral.
- Published
- 2019
11. Optimisation des plans de trame dans le système AMRT/CNC d'Eutelsat.
- Author
-
Carlier, Jacques and Prins, Christian
- Abstract
Copyright of Annals of Telecommunications is the property of Springer Nature and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 1988
- Full Text
- View/download PDF
12. Synthèse des filtres numériques non récursifs à phase linéaire et coefficients de longueur finie.
- Author
-
Siohan, Pierre and Benslimane, Acyl
- Abstract
Cet article présente différentes méthodes de synthèse des filtres numériques à phase linéaire et coefficients quantifiés. Un problème d'approximation en variables discrètes est posé dont on recherche la solution au sens de Chebyshev. L'algorithme optimal proposé associe l'algorithme de Remez à une technique de séparation et évaluation progressive ( Sep). L'utilisation de ce type d'algorithme pouvant conduire dans certains cas à des temps de calcul sur ordinateur relativement importants, deux algorithmes de recherche locale sont ensuite envisagés. L'application de ces algorithmes avec ou sans contraintes est illustrée par des exemples. This paper presents some different methods for the design of finite impulse response linear phase digital filters with finite wordlength coefficients. An approximation problem with discrete variables is stated for which we search a solution in a Chebyshev sense. The optimal algorithm proposed associates the Remez algorithm and a branch and bound technique (BaB). The use of this kind of algorithm may sometimes lead to relatively important computer time, so two local search algorithms are also considered. The application of these algorithms with or without constraints is illustrated by examples. [ABSTRACT FROM AUTHOR]
- Published
- 1984
- Full Text
- View/download PDF
13. Modèle probabiliste d'un langage en reconnaissance de la parole.
- Author
-
Derouault, Anne-Marie and Jelinek, Fred
- Abstract
Dans les diverses tâches de reconnaissance de la parole, en particulier celles qui utilisent un large vocabulaire, il est nécessaire d'avoir un modèle de langage qui participe au choix des candidats pour la suite de la phrase. L'idée de construire un modèle probabiliste adapté à cette tâche provient naturellement du fait que la succession des mots dans une phrase est soumise à des contraintes d'ordres grammatical et sémantique. Le principe est d'estimer la probabilité conditionnelle de l'apparition d'un mot, le début de la phrase étant fixé. Après avoir posé le problème du modèle adapté à un large vocabulaire et une tâche naturelle, les auteurs présentent un outil théorique (Source de Markov en théorie de l'information), utile à sa formalisation, et les méthodes automatiques d'estimation des paramètres nécessaires. Puis ils exposent l'expérience d'un modèle particulier pour l'anglais, et ses résultats. In speech recognition with a large size vocabulary, a language model is used to direct the choice of the word candidates along the sentence being decoded. The word succession is subject to syntactic and semantic constraints. A probabilistic language model should estimate the conditional probability of utterrance of any word, given the past sequence. In this paper, the authors introduce the language modelling problem for natural tasks. They give an information theoretic tool for its formalisation: the notion of Markov source. The automatic training and parameters estimation are showed. Then a particular model experiment for natural english is related. [ABSTRACT FROM AUTHOR]
- Published
- 1984
- Full Text
- View/download PDF
14. ALLOCATION DYNAMIQUE D’UN PORTEFEUILLE ACTION : DEUX ESSAIS D’IMPLEMENTATION DU MODELE BLACK-LITTERMAN ET L’OPTIMISATION PAR ESSAIM PSO
- Author
-
al Mahdi Koraich, mohamed Belahsen, and Fouad Amara
- Subjects
Mathematical optimization ,Empirical research ,Computer science ,Stock exchange ,Bayesian probability ,Constrained optimization ,Strategic Allocation, Tactical Allocation, Particle Swarm Optimization (PSO), Black-Litterman, Markowitz, Multi-objective (MOPSO). JEL classification: C11, C13,C22, C41, C51, C61, G11 ,Particle swarm optimization ,Capital asset pricing model ,Black–Litterman model ,MATLAB ,computer ,computer.programming_language - Abstract
In this paper, we improve new tools for financial decision-making based on the analysis of the performance of the portfolios using the optimization models (Particle Swarm Optimization) and Bayesian analysis (Black -Litterman) considered an extension of the CAPM. In order to demonstrate the efficiency of these new constraint optimization models in finance, our article is focused in the first part, on a theoretical analysis of the models used in the management process. The second part will be dedicated to an empirical study conducted on all securities of the Casablanca Stock Exchange, demonstrating the advantages and disadvantages of each adopted approach implemented under MATLAB., Finance & Finance Internationale, No 10 (2018)
- Published
- 2018
- Full Text
- View/download PDF
15. Random Matrix Theory for Hyperspectral Imaging
- Author
-
Terreaux, Eugénie, STAR, ABES, Sondra, CentraleSupélec, Université Paris-Saclay (COmUE) (SONDRA), ONERA-CentraleSupélec-Université Paris Saclay (COmUE), Université Paris Saclay (COmUE), Jean-Philippe Ovarlez, and Frédéric Pascal
- Subjects
[SPI.OTHER]Engineering Sciences [physics]/Other ,Optimisation sous contraintes ,Hyperspectral imaging ,Théorie des matrices aléatoires ,[SPI.OTHER] Engineering Sciences [physics]/Other ,Linear model ,Model order selection ,Modèle linéaire ,Unmixing ,Estimation robuste ,Bruit CES ,Random matrix theory ,Robust estimation ,CES noise ,Imagerie hyperspectrale ,Estimation d'ordre de modèle ,Démélange spectral ,Constrained optimization - Abstract
Hyperspectral imaging generates large data due to the spectral and spatial high resolution, as it is the case for more and more other kinds of applications. For hyperspectral imaging, the data complexity comes from the spectral and spatial heterogeneity, the non-gaussianity of the noise and other physical processes. Nevertheless, this complexity enhances the wealth of collected informations, that need to be processed with adapted methods. Random matrix theory and robust processes are here suggested for hyperspectral imaging application: the random matrix theory is adapted to large data and the robustness enables to better take into account the non-gaussianity of the data. This thesis aims to enhance the model order selection on a hyperspectral image and the unmixing problem. As the model order selection is concerned, three new algorithms are developped, and the last one, more robust, gives better performances. One financial application is also presented. As for the unmixing problem, three methods that take into account the peculierities of hyperspectral imaging are suggested. The random matrix theory is of great interest for hyperspectral image processing, as demonstrated in this thesis. Differents methods developped here can be applied to other field of signal processing requiring the processing of large data., La finesse de la résolution spectrale et spatiale des images hyperspectrales en font des données de très grande dimension. C'est également le cas d'autres types de données, où leur taille tend à augmenter pour de plus en plus d'applications. La complexité des données provenant de l'hétérogénéité spectrale et spatiale, de la non gaussianité du bruit et des processus physiques sous-jacents, renforcent la richesse des informations présentes sur une image hyperspectrale. Exploiter ces informations demande alors des outils statistiques adaptés aux grandes données mais aussi à leur nature non gaussienne. Des méthodes reposant sur la théorie des matrices aléatoires, théorie adaptée aux données de grande dimension, et reposant sur la robustesse, adaptée aux données non gaussiennes, sont ainsi proposées dans cette thèse, pour des applications à l'imagerie hyperspectrale. Cette thèse propose d'améliorer deux aspects du traitement des images hyperspectrales : l'estimation du nombre d'endmembers ou de l'ordre du modèle et le problème du démélange spectral. En ce qui concerne l'estimation du nombre d'endmembers, trois nouveaux algorithmes adaptés au modèle choisi sont proposés, le dernier présentant de meilleures performances que les deux autres, en raison de sa plus grande robustesse.Une application au domaine de la finance est également proposée. Pour le démélange spectral, trois méthodes sont proposées, qui tiennent comptent des diff érentes particularités possibles des images hyperspectrales. Cette thèse a permis de montrer que la théorie des matrices aléatoires présente un grand intérêt pour le traitement des images hyperspectrales. Les méthodes développées peuvent également s'appliquer à d'autres domaines nécessitant le traitement de données de grandes dimensions.
- Published
- 2018
16. Solveurs performants pour l'optimisation sous contraintes en identification de paramètres
- Author
-
Nifa, Naoufal, Laboratoire de mécanique des sols, structures et matériaux (MSSMat), CentraleSupélec-Centre National de la Recherche Scientifique (CNRS), Université Paris-Saclay, Denis Aubry, and STAR, ABES
- Subjects
Inverse problems ,Optimisation sous contraintes ,[SPI.OTHER]Engineering Sciences [physics]/Other ,[SPI.OTHER] Engineering Sciences [physics]/Other ,Problèmes inverses ,Block preconditioners ,Préconditionneurs par blocs ,Saddle point systems ,Systèmes point-Selle ,Constrained optimization - Abstract
This thesis aims at designing efficient numerical solution methods to solve linear systems, arising in constrained optimization problems in some structural dynamics and vibration applications (test-analysis correlation, model error localization,hybrid model, damage assessment, etc.). These applications rely on solving inverse problems, by means of minimization of an energy-based functional. This latter involves both data from a numerical finite element model and from experimental tests, which leads to high quality models, but the associated linear systems, that have a saddle-point coefficient matrices, are long and costly to solve. We propose two different classes of methods to deal with these problems. First, a direct factorization method that takes advantage of the special structures and properties of these saddle point matrices. The Gaussian elimination factorization is implemented in order to factorize the saddle point matrices block-wise with small blocks of orders 2 and using a fill-in reducing topological ordering. We obtain significant gains in memory cost (up to 50%) due to enhanced factors sparsity in comparison to literature. The second class is based on a double projection of the generated saddle point system onto the nullspace of the constraints. The first projection onto the kinematic constraints is proposed as an explicit process through the computation of a sparse null basis. Then, we detail the application of a constraint preconditioner within a Krylov subspace solver, as an implicit second projection of the system onto the nullspace of the sensors constraints. We further present and compare different approximations of the constraint preconditioner. The approach is implemented in a parallel distributed environment using the PETSc library. Significant gains in computational cost and memory are illustrated on several industrial applications., Cette thèse vise à concevoir des solveurs efficaces pour résoudre des systèmes linéaires, résultant des problèmes d'optimisation sous contraintes dans certaines applications de dynamique des structures et vibration (la corrélation calcul-essai, la localisation d'erreur, le modèle hybride, l'évaluation des dommages, etc.). Ces applications reposent sur la résolution de problèmes inverses, exprimés sous la forme de la minimisation d'une fonctionnelle en énergie. Cette fonctionnelle implique à la fois, des données issues d'un modèle numérique éléments finis, et des essais expérimentaux. Ceci conduit à des modèles de haute qualité, mais les systèmes linéaires point-selle associés, sont coûteux à résoudre. Nous proposons deux classes différentes de méthodes pour traiter le système. La première classe repose sur une méthode de factorisation directe profitant de la topologie et des propriétés spéciales de la matrice point-selle. Après une première renumérotation pour regrouper les pivots en blocs d'ordre 2. L'élimination de Gauss est conduite à partir de ces pivots et en utilisant un ordre spécial d'élimination réduisant le remplissage. Les résultats numériques confirment des gains significatifs en terme de remplissage, jusqu'à deux fois meilleurs que la littérature pour la topologie étudiée. La seconde classe de solveurs propose une approche à double projection du système étudié sur le noyau des contraintes, en faisant une distinction entre les contraintes cinématiques et celles reliées aux capteurs sur la structure. La première projection est explicite en utilisant une base creuse du noyau. La deuxième est implicite. Elle est basée sur l'emploi d'un préconditionneur contraint avec des méthodes itératives de type Krylov. Différentes approximations des blocs du préconditionneur sont proposées. L'approche est implémentée dans un environnement distribué parallèle utilisant la bibliothèque PETSc. Des gains significatifs en terme de coût de calcul et de mémoire sont illustrés sur plusieurs applications industrielles.
- Published
- 2017
17. Accélération algorithmique et matérielle des méthodes d’estimation de cartes d’abondances en imagerie hyperspectrale
- Author
-
Legendre, Maxime, Institut de Recherche en Communications et en Cybernétique de Nantes (IRCCyN), Mines Nantes (Mines Nantes)-École Centrale de Nantes (ECN)-Ecole Polytechnique de l'Université de Nantes (EPUN), Université de Nantes (UN)-Université de Nantes (UN)-PRES Université Nantes Angers Le Mans (UNAM)-Centre National de la Recherche Scientifique (CNRS), Ecole Centrale de Nantes (ECN), and Jérôme Idier
- Subjects
Hyperspectral imaging ,Graphics Processing Unit (GPU) ,[INFO.INFO-TS]Computer Science [cs]/Signal and Image Processing ,parallel computing ,Imagerie hyperspectrale ,processeur de carte graphique (GPU) ,points-intérieurs ,calcul parallèle ,interior-points ,constrained optimization ,optimisation sous contraintes - Abstract
Hyperspectral imaging consists in collecting the reflectance spectrum for each pixel of an image. This measurement technique is used in airborne remote sensing, astrophysics, or microscopy. Processing the large data volume of a hyperspectral image requires a method with both restrained computational cost and limited memory usage. The method proposed in this thesis aims at estimating the abundance maps (component's proportions in each image pixel) by constrained least squares criterion minimization with the addition of a penalization term to ensure the maps spatial regularity. The work done intends to reduce the computing time of an interior point optimization method. Algorithmic modifications based on separable majorization are proposed. It results in a method both faster and more adapted to parallel computing tools. An implementation on Graphics Processing Units (GPU) is achieved and applied in a large scale experiment where a high number of hyperspectral images from Mars Express exploration mission are processed. The developed method is also used in a vegetation monitoring project on the french atlantic coast.; L'imagerie hyperspectrale consiste en une mesure du spectre de réflectance en chacun des pixels d'une image. Cette technique de mesure est utilisée pour la télédétection aéroportée, en astrophysique ou encore en microscopie. Le traitement du grand volume de données que représente une image hyperspectrale nécessite à la fois des méthodes présentant un coût de calcul maîtrisé et un besoin mémoire raisonnable. Le traitement proposé dans cette thèse a pour objectif l'estimation de cartes d'abondances (proportions de plusieurs constituants dans chaque pixel de l'image) par minimisation d'un critère de type moindres carrés sous des contraintes de positivité et de somme à un, additionné d'un terme de pénalisation pour assurer une régularité spatiale des cartes. Les travaux réalisés ont pour objectif la réduction du temps de calcul d'une méthode d'optimisation de type points-intérieurs. Des modifications algorithmiques basées sur la notion d'approximation majorante séparable sont proposées. Il en résulte une méthode à la fois plus rapide et plus adaptée aux outils de calcul parallèle. Une implémentation sur processeurs de cartes graphiques (GPU) est réalisée et appliquée à grande échelle pour traiter un grand nombre d'images hyperspectrales issues de la mission d'exploration spatiale Mars Express. La méthode développée est également utilisée dans un projet de suivi de la végétation sur la côte atlantique française.
- Published
- 2015
18. Algorithmic and hardware acceleration of abundance maps estimation methods in hyperspectral imaging
- Author
-
Legendre, Maxime, Institut de Recherche en Communications et en Cybernétique de Nantes (IRCCyN), Mines Nantes (Mines Nantes)-École Centrale de Nantes (ECN)-Ecole Polytechnique de l'Université de Nantes (EPUN), Université de Nantes (UN)-Université de Nantes (UN)-PRES Université Nantes Angers Le Mans (UNAM)-Centre National de la Recherche Scientifique (CNRS), Ecole Centrale de Nantes (ECN), and Jérôme Idier
- Subjects
Hyperspectral imaging ,Graphics Processing Unit (GPU) ,[INFO.INFO-TS]Computer Science [cs]/Signal and Image Processing ,parallel computing ,Imagerie hyperspectrale ,processeur de carte graphique (GPU) ,points-intérieurs ,calcul parallèle ,interior-points ,constrained optimization ,optimisation sous contraintes - Abstract
Hyperspectral imaging consists in collecting the reflectance spectrum for each pixel of an image. This measurement technique is used in airborne remote sensing, astrophysics, or microscopy. Processing the large data volume of a hyperspectral image requires a method with both restrained computational cost and limited memory usage. The method proposed in this thesis aims at estimating the abundance maps (component's proportions in each image pixel) by constrained least squares criterion minimization with the addition of a penalization term to ensure the maps spatial regularity. The work done intends to reduce the computing time of an interior point optimization method. Algorithmic modifications based on separable majorization are proposed. It results in a method both faster and more adapted to parallel computing tools. An implementation on Graphics Processing Units (GPU) is achieved and applied in a large scale experiment where a high number of hyperspectral images from Mars Express exploration mission are processed. The developed method is also used in a vegetation monitoring project on the french atlantic coast.; L'imagerie hyperspectrale consiste en une mesure du spectre de réflectance en chacun des pixels d'une image. Cette technique de mesure est utilisée pour la télédétection aéroportée, en astrophysique ou encore en microscopie. Le traitement du grand volume de données que représente une image hyperspectrale nécessite à la fois des méthodes présentant un coût de calcul maîtrisé et un besoin mémoire raisonnable. Le traitement proposé dans cette thèse a pour objectif l'estimation de cartes d'abondances (proportions de plusieurs constituants dans chaque pixel de l'image) par minimisation d'un critère de type moindres carrés sous des contraintes de positivité et de somme à un, additionné d'un terme de pénalisation pour assurer une régularité spatiale des cartes. Les travaux réalisés ont pour objectif la réduction du temps de calcul d'une méthode d'optimisation de type points-intérieurs. Des modifications algorithmiques basées sur la notion d'approximation majorante séparable sont proposées. Il en résulte une méthode à la fois plus rapide et plus adaptée aux outils de calcul parallèle. Une implémentation sur processeurs de cartes graphiques (GPU) est réalisée et appliquée à grande échelle pour traiter un grand nombre d'images hyperspectrales issues de la mission d'exploration spatiale Mars Express. La méthode développée est également utilisée dans un projet de suivi de la végétation sur la côte atlantique française.
- Published
- 2015
19. Regularized primal-dual methods for nonlinearly constrained optimization
- Author
-
Omheni, Riadh, XLIM (XLIM), Université de Limoges (UNILIM)-Centre National de la Recherche Scientifique (CNRS), Université de Limoges, and Paul Armand
- Subjects
Convergence theory ,Nonlinear programming ,Optimisation numérique ,Regularization ,Théorie de convergence ,Optimisation avec contraintes ,Numerical optimization ,Régularisation ,Programmation non linéaire ,Méthode primale-duale ,[MATH.MATH-OC]Mathematics [math]/Optimization and Control [math.OC] ,Constrained optimization ,Primal-dual methods - Abstract
This thesis focuses on the design, analysis, and implementation of efficient and reliable algorithms for solving nonlinearly constrained optimization problems. We present three new strongly primal-dual algorithms to solve such problems. The first feature of these algorithms is that the control of the iterates is done in both primal and dual spaces during the whole minimization process, hence the name “strongly primal-dual”. In particular, the globalization is performed by applying a backtracking line search algorithm based on a primal-dual merit function. The second feature is the introduction of a natural regularization of the linear system solved at each iteration to compute a descent direction. This allows our algorithms to perform well when solving degenerate problems for which the Jacobian of constraints is rank deficient. The third feature is that the penalty parameter is allowed to increase along the inner iterations, while it is usually kept constant. This allows to reduce the number of inner iterations. A detailed theoretical study including the global convergence analysis of both inner and outer iterations, as well as an asymptotic convergence analysis is presented for each algorithm. In particular, we prove that these methods have a high rate of convergence : superlinear or quadratic. These algorithms have been implemented in a new solver for nonlinear optimization which is called SPDOPT. The good practical performances of this solver have been demonstrated by comparing it to the reference codes IPOPT, ALGENCAN and LANCELOT on a large collection of test problems.; Cette thèse s’inscrit dans le cadre de la conception, l’analyse et la mise en œuvre d’algorithmes efficaces et fiables pour la résolution de problèmes d’optimisation non linéaire avec contraintes. Nous présentons trois nouveaux algorithmes fortement primaux-duaux pour résoudre ces problèmes. La première caractéristique de ces algorithmes est que le contrôle des itérés s’effectue dans l’espace primal-dual tout au long du processus de la minimisation, d’où l’appellation “fortement primaux-duaux”. En particulier, la globalisation est effectuée par une méthode de recherche linéaire qui utilise une fonction de mérite primale-duale. La deuxième caractéristique est l’introduction d’une régularisation naturelle du système linéaire qui est résolu à chaque itération pour calculer une direction de descente. Ceci permet à nos algorithmes de bien se comporter pour résoudre les problèmes dégénérés pour lesquels la jacobienne des contraintes n’est pas de plein rang. La troisième caractéristique est que le paramètre de pénalisation est autorisé à augmenter au cours des itérations internes, alors qu’il est généralement maintenu constant. Cela permet de réduire le nombre d’itérations internes. Une étude théorique détaillée incluant l’analyse de convergence globale des itérations internes et externes, ainsi qu’une analyse asymptotique a été présentée pour chaque algorithme. En particulier, nous montrons qu’ils jouissent d’un taux de convergence rapide, superlinéaire ou quadratique. Ces algorithmes sont implémentés dans un nouveau solveur d’optimisation non linéaire qui est appelé SPDOPT. Les bonnes performances de ce solveur ont été montrées en effectuant des comparaisons avec les codes de références IPOPT, ALGENCAN et LANCELOT sur une large collection de problèmes.
- Published
- 2014
20. 3D geographic data for simulating the impact of urban regulations on building morphology
- Author
-
Brasebin, Mickaël, Brasebin, Mickaël, Cartographie et Géomatique (COGIT), Laboratoire des Sciences et Technologies de l'Information Géographique (LaSTIG), École nationale des sciences géographiques (ENSG), Institut National de l'Information Géographique et Forestière [IGN] (IGN)-Institut National de l'Information Géographique et Forestière [IGN] (IGN)-École nationale des sciences géographiques (ENSG), Institut National de l'Information Géographique et Forestière [IGN] (IGN)-Institut National de l'Information Géographique et Forestière [IGN] (IGN), Université Paris-Est, Sébastien Mustière, Univserité Paris-Est, Christiane Weber, and Julien Perret
- Subjects
building generation ,Spatial analysis ,3D GIS ,ACM: H.: Information Systems/H.2: DATABASE MANAGEMENT/H.2.8: Database Applications/H.2.8.3: Spatial databases and GIS ,[SHS.GEO]Humanities and Social Sciences/Geography ,génération de bâtiments ,[INFO] Computer Science [cs] ,constrained optimization ,optimisation sous contraintes ,Urban regulation ,Règles d'urbanisme ,3D geographic data ,Données géographiques 3D ,SIG 3D ,[INFO]Computer Science [cs] ,Analyse spatiale ,plan local d’urbanisme ,urban local plan - Abstract
3D geographic data are very frequent and represent territories in various ways. Such data are often used to better understand cities and their underlying phenomena by integrating different information (environmental, economic, etc.) to support urban planning. On a local scale, the French Local Urban Plan (PLU) describes constraints that regulate the urban development, notably through tri-dimensional constraints (for example by defining a maximal height or by limiting built area) that new buildings must respect. These constraints are compiled in a textual format. They are difficult to understand for non experts and their impact for a given territory is complex to assess.The aim of this thesis is to demonstrate how 3D geographic data enable the exploitation of local urban regulation constraints through two different uses : the verification of the respect of constraints and the generation of building configurations. Our method relies on a model of the urban environment, representing relevant objects according to regulations. This model supports the formulation of the constraints with the OCL language. The generation of building configurations is processed by an optimization method based on a trans-dimensional simulated annealing relying on a rule checker., Les données géographiques 3D sont de plus en plus courantes et modélisent de manières variées le territoire. Elles sont souvent utilisées pour mieux comprendre la ville et ses phénomènes sous-jacents en intégrant de nombreuses informations (environnementales, économiques, etc.) pour l’appui à l’aménagement du territoire. À l’échelle locale, le plan local d’urbanisme (PLU) décrit les connaissances régulant le développement urbain, incluant des contraintes tri-dimensionnelles (par exemple : hauteur maximale d’un bâtiment ou surface de plancher) que doivent respecter les nouveaux bâtiments. Ces contraints sont rédigées dans un format textuel, difficile de compréhension pour le non-initié et dont l’interprétation sur un territoire donné est complexe.L’objectif de cette thèse est de montrer comment les données géographiques 3D permettent d’exploiter les règlements locaux d’urbanisme à travers deux usages : la vérification de règles d’urbanisme et la proposition de configurations bâties. Notre méthodologie s’appuie sur une modélisation de l’espace urbain, représentant les objets pertinents mentionnés dans les règlements, support d’une formalisation des règles avec le langage OCL. La proposition de configurations bâties est réalisée grâce à une méthode d’optimisation basée sur un recuit simulé trans-dimensionnel et une technique de vérification du respect des règles.
- Published
- 2014
21. Une conception néo-poppérienne de l'explication en sciences sociales et ses difficultés internes
- Author
-
Philippe Mongin, Haldemann, Antoine, Groupement de Recherche et d'Etudes en Gestion à HEC (GREGH), and Ecole des Hautes Etudes Commerciales (HEC Paris)-Centre National de la Recherche Scientifique (CNRS)
- Subjects
Explanation in social sciences ,Explication en science sociale ,explication scientifique ,difficultés internes ,economic explanation ,explication en science sociale ,explication économique ,principe de rationalité ,optimisation sous contraintes ,logique de la situation ,popper ,sciences sociales ,[SHS.ECO.ECO] Humanities and Social Sciences/Economics and Finance/domain_shs.eco.eco ,constrained optimization ,internal difficulties ,neo-Popperian concept ,Philosophy ,[SHS.ECO.ECO]Humanities and Social Sciences/Economics and Finance/domain_shs.eco.eco ,scientific explanation ,rationality principle ,explanation ,social sciences ,conception néo-poppérienne ,ComputingMilieux_MISCELLANEOUS ,situational logic ,Popper - Abstract
The paper investigates and objects to the neo-Popperian conception of explanation in social sciences that Maurice Lagueux propounds in his book Rationality and Explanation in Economics (2010). Inspired by Popper's (1967) famous article on the rationality principle, Lagueux makes this principle central to all social science explanations, including those of neo-classical economics. By retracing one of Lagueux's examples, i.e., Giffen goods, we will show that the rationality principle is neither necessary nor sufficient for a social science explanation. We will also discard as being ineffective the recourse to "situational logic", another move that Lagueux makes after Popper. The positive thesis underlying these objections was already sketched by Mongin (2001): far from unifying the social sciences, the rationality principle highlights their differences. Economics bases its explanations on specific principles, such as constrained optimization, whereas the other social sciences usually content themselves with reasoning only from the rationality principle., L'article examine et conteste la conception néo-poppérienne de l'explication en sciences sociales que propose Maurice Lagueux dans son ouvrage Rationality and Explanation in Economics (2010). Inspiré par l'article célèbre de Popper (1967) sur le principe de rationalité, Lagueux fait de celui-ci le centre de toutes les explications en sciences sociales, en y incluant celles de l'économie néo-classique. Reprenant l'un des exemples de Lagueux, celui des biens Giffen, on montrera que le principe de rationalité n'est ni nécessaire, ni suffisant à l'explication en science sociale. On écartera aussi comme non probant le recours à la "logique de la situation", qui est un autre emprunt de Lagueux à Popper. Déjà ébauchée par Mongin (2001), la thèse positive sous-jacente à ces objections est que le principe de rationalité, loin d'unifier les sciences sociales, est un marqueur de leurs différences. L'économie fait reposer ses explications sur des principes spécifiques, comme celui de l'optimisation sous contraintes, alors que les autres sciences sociales se satisfont généralement de raisonnements fondés sur le principe de rationalité seulement.
- Published
- 2012
22. Constraints Derivative-Free Optimization : two industrial applications in reservoir engineering and in engine calibration
- Author
-
Langouët, Hoël, IFP Energies nouvelles (IFPEN), Laboratoire d'Informatique, Signaux, et Systèmes de Sophia-Antipolis (I3S) / Equipe SYSTEMES, Signal, Images et Systèmes (Laboratoire I3S - SIS), Laboratoire d'Informatique, Signaux, et Systèmes de Sophia Antipolis (I3S), Université Nice Sophia Antipolis (... - 2019) (UNS), COMUE Université Côte d'Azur (2015-2019) (COMUE UCA)-COMUE Université Côte d'Azur (2015-2019) (COMUE UCA)-Centre National de la Recherche Scientifique (CNRS)-Université Côte d'Azur (UCA)-Université Nice Sophia Antipolis (... - 2019) (UNS), COMUE Université Côte d'Azur (2015-2019) (COMUE UCA)-COMUE Université Côte d'Azur (2015-2019) (COMUE UCA)-Centre National de la Recherche Scientifique (CNRS)-Université Côte d'Azur (UCA)-Laboratoire d'Informatique, Signaux, et Systèmes de Sophia Antipolis (I3S), COMUE Université Côte d'Azur (2015-2019) (COMUE UCA)-COMUE Université Côte d'Azur (2015-2019) (COMUE UCA)-Centre National de la Recherche Scientifique (CNRS)-Université Côte d'Azur (UCA), Université Nice Sophia Antipolis, and Éric Thierry(et@i3s.unice.fr)
- Subjects
engine calibration ,evolutionary algorithm ,Derivative-free optimization ,reservoir characterization ,optimisation multi-objectifs ,algorithme évolutionnaire ,constrained optimization ,multi-objvective optimization ,optimisation sans dérivées ,optimisation sous contraintes ,caractérisation de réservoir ,trust region method ,calibration moteur ,[MATH.MATH-OC]Mathematics [math]/Optimization and Control [math.OC] ,calage historique de données sismiques et de production ,méthode de région de confiance ,history matching - Abstract
Optimization takes place in many IFPEN applications: for instance estimation of parameters of numerical models from experimental data in geosciences or for engine calibration. These optimization problems consist in minimizing a complex function, expensive to estimate, and for which derivatives are often not available. Moreover, additional difficulties arise with the introduction of nonlinear constraints and even several objectives to be minimized. In this thesis, we developed the SQA method (Sequential Quadratic Approximation), an extension of a derivative-free optimization method proposed by M.J.D Powell for optimization with constraints with known or unknown derivatives. This method consists in solving optimization sub-problems based on local quadratic interpolation models of objective function and derivative-free constraints built with a limited number of function evaluations. If the solution of this sub-problem does not progress toward a solution of the original problem, new simulations are performed to try to improve the model quality. Numerical results on benchmarks show that SQA is an effective method for constrained derivative-free optimization. Finally, SQA has been tested with success on two industrial applications in reservoir engineering and in engine calibration. An other problem studied in this thesis is multi-objective minimization under constraints. The MO-CMA-ES method (Multi-Objective - Covariance Matrix Adaptation - Evolution Strategy) adapted to take into account constraints has been successful to determine different compromises for an engine calibration application.; L'optimisation intervient dans de nombreuses applications IFPEN, notamment dans l'estimation de paramètres de modèles numériques à partir de données en géosciences ou en calibration des moteurs. Dans ces applications, on cherche à minimiser une fonction complexe, coûteuse à estimer, et dont les dérivées ne sont pas toujours disponibles. A ces difficultés s'ajoutent la prise en compte de contraintes non linéaires et parfois l'aspect multi-objectifs. Au cours de cette thèse, nous avons développé la méthode SQA (Sequential Quadradic Approximation), une extension de la méthode d'optimisation sans dérivées de M.J.D. Powell pour la prise en compte de contraintes à dérivées connues ou non. Cette méthode est basée sur la résolution de problèmes d'optimisation simplifiés basés sur des modèles quadratiques interpolant la fonction et les contraintes sans dérivées, construits à partir d'un nombre limité d'évaluations de celles-ci. Si la résolution de ce sous-problème ne permet pas une progression pour l'optimisation originale, de nouvelles simulations sont réalisées pour tenter d'améliorer les modèles. Les résultats de SQA sur différents benchmarks montrent son efficacité pour l'optimisation sans dérivées sous contraintes. Enfin, SQA a été appliqué avec succès à deux applications industrielles en ingénierie de réservoir et en calibration des moteurs. Une autre problématique majeure en optimisation étudiée dans cette thèse est la minimisation multi-objectifs sous contraintes. La méthode évolutionnaire Multi-Objective Covariance Matrix Adaptation, adaptée à la prise en compte des contraintes, s'est révélée très performante dans l'obtention de compromis pour la calibration des moteurs.
- Published
- 2011
23. Optimisation sans dérivées sous contraintes : deux applications industrielles en ingénierie de réservoir et en calibration des moteurs
- Author
-
Langouët, Hoël, IFP Energies nouvelles (IFPEN), Laboratoire d'Informatique, Signaux, et Systèmes de Sophia-Antipolis (I3S) / Equipe SYSTEMES, Signal, Images et Systèmes (Laboratoire I3S - SIS), Laboratoire d'Informatique, Signaux, et Systèmes de Sophia Antipolis (I3S), Université Nice Sophia Antipolis (... - 2019) (UNS), COMUE Université Côte d'Azur (2015-2019) (COMUE UCA)-COMUE Université Côte d'Azur (2015-2019) (COMUE UCA)-Centre National de la Recherche Scientifique (CNRS)-Université Côte d'Azur (UCA)-Université Nice Sophia Antipolis (... - 2019) (UNS), COMUE Université Côte d'Azur (2015-2019) (COMUE UCA)-COMUE Université Côte d'Azur (2015-2019) (COMUE UCA)-Centre National de la Recherche Scientifique (CNRS)-Université Côte d'Azur (UCA)-Laboratoire d'Informatique, Signaux, et Systèmes de Sophia Antipolis (I3S), COMUE Université Côte d'Azur (2015-2019) (COMUE UCA)-COMUE Université Côte d'Azur (2015-2019) (COMUE UCA)-Centre National de la Recherche Scientifique (CNRS)-Université Côte d'Azur (UCA), Université Nice Sophia Antipolis, and Éric Thierry(et@i3s.unice.fr)
- Subjects
engine calibration ,evolutionary algorithm ,Derivative-free optimization ,reservoir characterization ,optimisation multi-objectifs ,algorithme évolutionnaire ,constrained optimization ,multi-objvective optimization ,optimisation sans dérivées ,optimisation sous contraintes ,caractérisation de réservoir ,trust region method ,calibration moteur ,[MATH.MATH-OC]Mathematics [math]/Optimization and Control [math.OC] ,calage historique de données sismiques et de production ,méthode de région de confiance ,history matching - Abstract
Optimization takes place in many IFPEN applications: for instance estimation of parameters of numerical models from experimental data in geosciences or for engine calibration. These optimization problems consist in minimizing a complex function, expensive to estimate, and for which derivatives are often not available. Moreover, additional difficulties arise with the introduction of nonlinear constraints and even several objectives to be minimized. In this thesis, we developed the SQA method (Sequential Quadratic Approximation), an extension of a derivative-free optimization method proposed by M.J.D Powell for optimization with constraints with known or unknown derivatives. This method consists in solving optimization sub-problems based on local quadratic interpolation models of objective function and derivative-free constraints built with a limited number of function evaluations. If the solution of this sub-problem does not progress toward a solution of the original problem, new simulations are performed to try to improve the model quality. Numerical results on benchmarks show that SQA is an effective method for constrained derivative-free optimization. Finally, SQA has been tested with success on two industrial applications in reservoir engineering and in engine calibration. An other problem studied in this thesis is multi-objective minimization under constraints. The MO-CMA-ES method (Multi-Objective - Covariance Matrix Adaptation - Evolution Strategy) adapted to take into account constraints has been successful to determine different compromises for an engine calibration application.; L'optimisation intervient dans de nombreuses applications IFPEN, notamment dans l'estimation de paramètres de modèles numériques à partir de données en géosciences ou en calibration des moteurs. Dans ces applications, on cherche à minimiser une fonction complexe, coûteuse à estimer, et dont les dérivées ne sont pas toujours disponibles. A ces difficultés s'ajoutent la prise en compte de contraintes non linéaires et parfois l'aspect multi-objectifs. Au cours de cette thèse, nous avons développé la méthode SQA (Sequential Quadradic Approximation), une extension de la méthode d'optimisation sans dérivées de M.J.D. Powell pour la prise en compte de contraintes à dérivées connues ou non. Cette méthode est basée sur la résolution de problèmes d'optimisation simplifiés basés sur des modèles quadratiques interpolant la fonction et les contraintes sans dérivées, construits à partir d'un nombre limité d'évaluations de celles-ci. Si la résolution de ce sous-problème ne permet pas une progression pour l'optimisation originale, de nouvelles simulations sont réalisées pour tenter d'améliorer les modèles. Les résultats de SQA sur différents benchmarks montrent son efficacité pour l'optimisation sans dérivées sous contraintes. Enfin, SQA a été appliqué avec succès à deux applications industrielles en ingénierie de réservoir et en calibration des moteurs. Une autre problématique majeure en optimisation étudiée dans cette thèse est la minimisation multi-objectifs sous contraintes. La méthode évolutionnaire Multi-Objective Covariance Matrix Adaptation, adaptée à la prise en compte des contraintes, s'est révélée très performante dans l'obtention de compromis pour la calibration des moteurs.
- Published
- 2011
24. Identification optimale et commande prédictive : applications en génie des procédés
- Author
-
Flila, Saïda, Laboratoire d'automatique et de génie des procédés (LAGEP), Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Université de Lyon-École Supérieure Chimie Physique Électronique de Lyon-Centre National de la Recherche Scientifique (CNRS), Université Claude Bernard - Lyon I, Hassan Hammouri, and Pascal Dufour
- Subjects
Optimisation sous contraintes ,[SPI.OTHER]Engineering Sciences [physics]/Other ,Design of experiment ,Sensibilité paramètrique ,Résolution numérique ,Plan d'expérience ,Observer ,Systèmes non-linéaires ,Numerical resolution ,Identification optimale en ligne ,Observateurs non-linéaires ,MPC ,Nonlinear system ,Parametric sensitivity ,Online optimal input design ,Constrained optimization ,Commande prédictive - Abstract
The main aim of this work is to give a new approach of optimal control during the phase of identification. The question is how to tune the control action to be applied during the experiment optimize a criterion which is function of the sensitivities of the mesure with respect to the parameters of the model to be identified. This approach coupling constrained predictive controller and estimator solves on line the problem of identification by using the observer. In that sense, it is an approach allowing an optimal and automatic design of experiment, while performing at the same time the identification of one parameter of the specified model. The real time aspect was taken into account in the formulation of the solution. In this context, we introduced two strategies for optimal identification : the first one is based on a nonlinear model of prediction and the second one is based on a linear time varying model that may be used if the real time aspect becomes a critical parameter for the implementation of the approach. This approach of on line optimal identification was applied on two concrete problems in Chemical Engineering. These examples show the performance and the feasibility of this approach.; L'objectif principal de ce travail a été d'apporter une nouvelle contribution quant à l'approche de contrôle optimal pendant la phase d'identification. Il s'agissait de trouver la commande à appliquer pendant l'expérience qui permet d'optimiser un critère qui est fonction des sensibilités des sorties par rapport aux paramètres du modèle à identifier. Cette approche couplant contrôleur prédictif sous contraintes et estimateur a résolu en ligne le problème d'identification à chaque instant en utilisant l'observateur. En ce sens, c'est une approche permettant d'automatiser et d'optimiser le design d'expérience, tout en réalisant conjointement l'identification d'un paramètre du modèle spécifié. L'aspect temps réel a été pris en compte dans la formulation de la solution apportée. Dans ce contexte, nous avons introduit deux stratégies de commande pour l'identification optimale. La première était basée sur un modèle de prédiction non linéaire et la seconde sur un modèle linéaire temps variant. Si le temps devient un paramètre critique pour l'implémentation de l'approche, cette dernière vise à réduire le temps alloué à l'optimisation. L'approche d'identification optimale en ligne a été appliquée à deux problèmes concrets du Génie des Procédés (réaction de saponification et cuisson de peintures). Ces exemples ont permis de vérifier en simulation, l'efficacité et la faisabilité de cette approche.
- Published
- 2010
25. Technique de réduction adaptative de l'espace de recherche pour les méthodes d'optimisation par recherche locale
- Author
-
Benoît Miramond, Miramond, Benoît, Equipes Traitement de l'Information et Systèmes (ETIS - UMR 8051), and CY Cergy Paris Université (CY)-Centre National de la Recherche Scientifique (CNRS)-Ecole Nationale Supérieure de l'Electronique et de ses Applications (ENSEA)
- Subjects
Flexibility (engineering) ,Mathematical optimization ,business.industry ,Computer science ,[SPI.NANO] Engineering Sciences [physics]/Micro and nanotechnologies/Microelectronics ,Principal (computer security) ,loi adaptative ,Constrained optimization ,Function (mathematics) ,recuit simulé ,Search algorithm ,Simulated annealing ,Combinatorial optimization ,Local search (optimization) ,recherche locale ,[SPI.NANO]Engineering Sciences [physics]/Micro and nanotechnologies/Microelectronics ,business ,Algorithm ,optimisation contrainte - Abstract
National audience; When applied to practical problems, tuning parameters of optimization methods can be a critical problem for engineer users. In this article we suggest a novel approach to consider constrained optimization problems. Its principal caracteristics are flexibility, adaptativity and user friendship. Indeed constraints are totally separated from the cost function. It allows to be directly coupled with any local search algorithm in order to explore the solution space which is reduced in an adaptive manner. Its implementation is compared to other existing methods with discrete and continuous classical problems. Results show that the method approaches the best results thus offering a good trade-off between flexibity and quality for the solutions.
- Published
- 2008
26. Conception Optimale Systémique des Composants des Chaînes de Traction Electrique
- Author
-
Mester, Victor, Laboratoire d’Électrotechnique et d’Électronique de Puissance - ULR 2697 (L2EP), Centrale Lille-Haute Etude d'Ingénieurs-Université de Lille-Arts et Métiers Sciences et Technologies, HESAM Université (HESAM)-HESAM Université (HESAM), Ecole Centrale de Lille, Pascal Brochet(pascal.brochet@ec-lille.fr), Composants Electrique des Véhicules Urbains (CEVU), Centrale Lille-Université de Lille-Arts et Métiers Sciences et Technologies, HESAM Université - Communauté d'universités et d'établissements Hautes écoles Sorbonne Arts et métiers université (HESAM)-HESAM Université - Communauté d'universités et d'établissements Hautes écoles Sorbonne Arts et métiers université (HESAM)-JUNIA (JUNIA), Université catholique de Lille (UCL)-Université catholique de Lille (UCL), Pascal Brochet, Laboratoire d’Électrotechnique et d’Électronique de Puissance - ULR 2697 [L2EP], Laboratoire d’Électrotechnique et d’Électronique de Puissance - EA 2697 (L2EP), and Arts et Métiers Sciences et Technologies
- Subjects
Multiphysic Model ,[SPI.OTHER]Engineering Sciences [physics]/Other ,Model Multi-physique ,Drive Train ,Design Methodology ,Energy Efficiency ,Orientation de la Conception ,Analyse de la Sensibilité ,Constrained Optimization ,Hybrid Vehicle ,Vehicle Dynamics ,Epuisement de Ressources Pétrolières ,Surface de Rendement ,Global Optimal Design ,Global Warming ,Specifications ,Conception Optimale Systémique ,Méthodologie de la Conception ,Optimisation sous Contraintes ,Plans d'Expériences ,Efficacité Energétique ,Multi-modèle ,Modèle Eléments Finis ,Véhicule Electrique ,Véhicule Hybride ,Performances du Véhicule ,Dynamique du Véhicule ,Chaîne de Traction ,Cahier des Charges ,Machines Electriques ,Dimensionnement ,Moteur Synchrone à Aimants Permanents ,Réchauffement Climatique ,Sizing ,Electric Vehicle ,Efficiency Surface ,Finite Element Model ,Electric Motor ,Experimental Design ,[SPI.NRJ]Engineering Sciences [physics]/Electric power ,Vehicle Performances ,Design Orientation ,Sensitivity Analysis ,Multimodel ,Oil Depletion ,P.M. Motor - Abstract
Given the actual international concerns about global warming and oil depletion, there are increased interests on sustainable development. Thus, in order to preserve our actual mobility habits, it is very important to find new solutions for clean and efficient propulsion. Therefore, the global optimal design in the field of electric drive train is of major interest.The present dissertation proposes a rational methodology for global optimal design and uses it to design electric drive trains. The methodology is general and is managed by constrained optimization. It allows different levels of granularity within the design model. A graphical user interface was developed in order to easily apply this methodology to various practical cases of design. Two objectives were considered. The first relates to the definition of the component specifications, the second one to the detailed design of one or more components of the drive train taking into account the whole system. These applications highlight the advantages of suggested methodology and the importance of a systemic approach.; Les préoccupations actuelles sur le réchauffement climatique et la déplétion des ressources fossiles exigent une mutation basée sur le développement durable. Ainsi, afin de garder nos acquis en termes de mobilité, il est extrêmement important de trouver des solutions de propulsion propres et efficaces. C'est pourquoi, la conception optimale systémique des chaînes de traction électrique est un enjeu majeur.La thèse présente une méthodologie rationnelle pour la conception optimale systémique appliquée à la conception des chaînes de traction électrique. La méthodologie est générale et se base sur l'optimisation sous contraintes. Elle intègre l'utilisation de différents niveaux de granularité au sein du modèle de conception. Une interface a été développée afin d'appliquer aisément cette méthodologie à des cas pratiques variés. Deux objectifs ont été traités, le premier concerne la définition des cahiers des charges des composants, le deuxième concerne la conception détaillée d'un composant de la chaîne de traction en prenant en compte l'ensemble du système. Ces applications mettent en évidence les avantages de la méthodologie proposée et l'importance de l'approche systémique.
- Published
- 2007
27. On the optimization of flow control actuators
- Author
-
Favier, Julien, Cordier, Laurent, Kourta, Azeddine, Laboratoire de Mécanique, Modélisation et Procédés Propres (M2P2), Centre National de la Recherche Scientifique (CNRS)-École Centrale de Marseille (ECM)-Aix Marseille Université (AMU), Laboratoire d'Etudes Aérodynamiques (LEA), Centre National de la Recherche Scientifique (CNRS)-ENSMA-Université de Poitiers, PRISME, Laboratoire Pluridisciplinaire de Recherche en Ingénierie des Systèmes, Mécanique et Energétique (PRISME), Université d'Orléans (UO)-Ecole Nationale Supérieure d'Ingénieurs de Bourges (ENSI Bourges)-Université d'Orléans (UO)-Ecole Nationale Supérieure d'Ingénieurs de Bourges (ENSI Bourges), Aix Marseille Université (AMU)-École Centrale de Marseille (ECM)-Centre National de la Recherche Scientifique (CNRS), and Université de Poitiers-ENSMA-Centre National de la Recherche Scientifique (CNRS)
- Subjects
separation ,Flow control ,reduced-order model ,ACM ,POD ,[PHYS.MECA.MEFL]Physics [physics]/Mechanics [physics]/Fluid mechanics [physics.class-ph] ,calibration ,constrained optimization ,[SPI.MECA.MEFL]Engineering Sciences [physics]/Mechanics [physics.med-ph]/Fluids mechanics [physics.class-ph] - Abstract
International audience; L'objectif de ce travail est de construire par POD (@ Proper Orthogonal Decomposition A) des mod'eles d'ordre r ́eduit permettant de reproduire de mani'ere fiable la dynamique spatio-temporelle d'un ́ecoulement d ́ecoll ́e. L'int ́erˆet croissant pour ces mod'eles r ́eduits de dynamique s'explique par leur utilisation potentielle dans la r ́esolution de probl'emes d'optimisation sous contraintes de grande taille, rencontr ́es en controˆle d' ́ecoulements. La d ́emarche g ́en ́erale consiste 'a remplacer le mod'ele d ́etaill ́e de l' ́ecoulement (les ́equations de Navier-Stokes), par un mod'ele approch ́e, plus rapide 'a r ́esoudre et contenant les caract ́eristiques essentielles de la dynamique. La POD, optimale au sens de la reconstruction ́energ ́etique, permet d'approximer la dynamique de l' ́ecoulement dans un sous-espace g ́en ́er ́e par un petit nombre de modes. Diff ́erentes m ́ethodes de calibration sont ici d ́evelopp ́ees afin d'am ́eliorer la pr ́ediction du mod'ele de dimension r ́eduite, et ainsi rendre cette approche utilisable dans le cadre d'une probl ́ematique de contrˆole d' ́ecoulements. Essentiellement, ces m ́ethodes consistent 'a ajouter aux ́equations du mod'ele des termes suppl ́ementaires calcul ́es comme solutions d'un probl'eme de minimisation sous contraintes.
- Published
- 2007
28. Optimisation sous contrainte en probabilité
- Author
-
Andrieu, Laetitia, Optimisation et commande (OC), Unité de Mathématiques Appliquées (UMA), École Nationale Supérieure de Techniques Avancées (ENSTA Paris)-École Nationale Supérieure de Techniques Avancées (ENSTA Paris), Ecole des Ponts ParisTech, and Guy Cohen
- Subjects
[MATH]Mathematics [math] ,constrained optimization ,optimisation sous contraintes - Abstract
La décision dans l'incertain est un theme de recherche particulièrement actif à l'heure actuelle, en raison notamment de ses nombreuses applications dans différents domaines de l'ingéniérie (télécommunications, transports,...), de la gestion et de la finance, etc. La formulation de ces problèmes en termes de problèmes d'optimisation sous contraintes est une approche classique. Cependant, dans un contexte aléatoire (ou stochastique), la nature des contraintes prises en compte requiert une attention particulière : -les contraintes à satisfaire "presque sûrement" sont généralement irréalistes ou anti-économiques (on ne dimensionne pas les réseaux pour écouler le traffic des heures de pointe de l'année), en dehors bien sûr des relations mathématiques qui représentent les lois de la Physique ; -les contraintes à satisfaire "en espérance", quoique mathématiquement agréables, n'ont pas de signification pratique très utile dans la mesure où le respect d'une inégalité sur l'espérance ne garantit rien sur la fréquence des dépassements de cette inégalité; -les contraintes à satisfaire avec une certaine probabilité sont généralement celles qui ont le plus de signification pratique, mais elles sont dificiles à traiter mathématiquement; -d'autres mesures de risque ont été récemment proposées CVaR, ordres stochastiques,...), notamment dans le domaine de la finance, pour aller dans le sens d'un traitement mathématique plus facile (préservation de la convexité par exemple), mais avec une certaine perte de l'interprétation intuitive qu'on peut leur donner. Sur le plan théorique, l'une des difficultés fondamentales que soulève le traitement des contraintes en probabilité est que ces contraintes s'expriment essentiellement comme l'espérance d'une fonction indicatrice d'ensemble, fonction à la fois non convexe et discontinue: le traitement de telles quantités par des méthodes d'approximation stochastique est donc très difficile. Dans cette thèse, trois voies sont explorées pour contourner ces difficultés : -le recours à d'autres formulations du risque qui amènent à des problèmes mathématiques plus simples ; -des méthodes d'intégration par parties ou de changement de variables dans le calcul de l'espérance permettent, sous certaine condition, de remplacer la fonction indicatrice par sa primitive, évidemment plus régulière, et donc plus facile à traiter du point de vue de l'approximation stochastique: on obtient ainsi des éstimateurs non biaisés mais présentant une certaine variance ; -des méthodes de "lissage" remplaçant la fonction indicatrice par une approximation "adoucie", ce qui introduit un certain biais dans l'estimation, biais que l'on cherche ensuite à faire tendre asymptotiquement vers zéro. Ces méthodes sont évaluées et comparées à la fois sur les plans théorique et numérique, en utilisant pour cela deux exemples issus l'un d'un problème de parcours optimal avec risque et l'autre d'un problème d'investissement en finance.; La décision dans l'incertain est un theme de recherche particulièrement actif à l'heure actuelle, en raison notamment de ses nombreuses applications dans différents domaines de l'ingéniérie (télécommunications, transports,...), de la gestion et de la finance, etc. La formulation de ces problèmes en termes de problèmes d'optimisation sous contraintes est une approche classique. Cependant, dans un contexte aléatoire (ou stochastique), la nature des contraintes prises en compte requiert une attention particulière : -les contraintes à satisfaire "presque sûrement" sont généralement irréalistes ou anti-économiques (on ne dimensionne pas les réseaux pour écouler le traffic des heures de pointe de l'année), en dehors bien sûr des relations mathématiques qui représentent les lois de la Physique ; -les contraintes à satisfaire "en espérance", quoique mathématiquement agréables, n'ont pas de signification pratique très utile dans la mesure où le respect d'une inégalité sur l'espérance ne garantit rien sur la fréquence des dépassements de cette inégalité; -les contraintes à satisfaire avec une certaine probabilité sont généralement celles qui ont le plus de signification pratique, mais elles sont dificiles à traiter mathématiquement; -d'autres mesures de risque ont été récemment proposées CVaR, ordres stochastiques,...), notamment dans le domaine de la finance, pour aller dans le sens d'un traitement mathématique plus facile (préservation de la convexité par exemple), mais avec une certaine perte de l'interprétation intuitive qu'on peut leur donner. Sur le plan théorique, l'une des difficultés fondamentales que soulève le traitement des contraintes en probabilité est que ces contraintes s'expriment essentiellement comme l'espérance d'une fonction indicatrice d'ensemble, fonction à la fois non convexe et discontinue: le traitement de telles quantités par des méthodes d'approximation stochastique est donc très difficile. Dans cette thèse, trois voies sont explorées pour contourner ces difficultés : -le recours à d'autres formulations du risque qui amènent à des problèmes mathématiques plus simples ; -des méthodes d'intégration par parties ou de changement de variables dans le calcul de l'espérance permettent, sous certaine condition, de remplacer la fonction indicatrice par sa primitive, évidemment plus régulière, et donc plus facile à traiter du point de vue de l'approximation stochastique: on obtient ainsi des éstimateurs non biaisés mais présentant une certaine variance ; -des méthodes de "lissage" remplaçant la fonction indicatrice par une approximation "adoucie", ce qui introduit un certain biais dans l'estimation, biais que l'on cherche ensuite à faire tendre asymptotiquement vers zéro. Ces méthodes sont évaluées et comparées à la fois sur les plans théorique et numérique, en utilisant pour cela deux exemples issus l'un d'un problème de parcours optimal avec risque et l'autre d'un problème d'investissement en finance.
- Published
- 2004
29. Modeling and optimization of automotive claw-pole alternator
- Author
-
ALBERT, Laurent, Laboratoire d'électrotechnique de Grenoble (LEG), Centre National de la Recherche Scientifique (CNRS)-Institut National Polytechnique de Grenoble (INPG), Institut National Polytechnique de Grenoble - INPG, and CHILLET Christian(christian.chillet@leg.ensieg.inpg.fr)
- Subjects
Alternateur à griffes ,optimisation multi objectif ,magnetic equivalent circuit ,[SPI.NRJ]Engineering Sciences [physics]/Electric power ,Claw-pole alternator ,multi objectives optimization ,réseau de réluctances ,analytical modeling ,constrained optimization ,modélisation analytique ,optimisation sous contraintes - Abstract
JURY M. Yves BRUNET ,Président M. Pascal BROCHET ,Rapporteur M. Bernard MULTON ,Rapporteur M. Christian CHILLET ,Directeur de thèse M. Frédéric WURTZ ,Co-encadrant M. Antoine JAROSZ ,Examinateur; Nowadays, automotive electricity generators are claw-pole alternators. They have a good power-to-weight ratio and an attractive cost, but their efficiency is low. As on board electricity demand is rising, electricity generation impact on fuel consumption is no more negligible. Our work aims therefore at making a model of claw-pole alternator behavior, according to building parameters, in order to use it in an optimization software to increase efficiency and / or power-to-weight ratio. Our claw-pole alternator model is built using a magnetic equivalent circuit, with analytical expressions of the reluctances. In order to compute the alternator output current, the magnetic equivalent circuit is linked with an analytical model of the rectifier bridge. Then analytical model of alternator losses is presented. Next, this model is used with a gradient constrained optimization software. It leads to solutions set that satisfy product specifications, handling a high number of variable parameters (18 building parameters are optimized together). This approach presents different possible evolutions to improve claw-pole alternator efficiency. Finally, a multi objectives optimization method is used to find the best compromise between high efficiency and high power-to-weight ratio.; Les générateurs d'électricité actuels dans les automobiles sont des alternateurs à griffes. Ils présentent une bonne puissance massique à un prix compétitif, mais ont, en contrepartie, un mauvais rendement. Ainsi, comme le besoin en énergie électrique embarquée est en constante évolution, il en résulte que l'impact de la génération d'électricité sur la consommation de carburant n'est plus négligeable. Les travaux de cette thèse ont pour but de modéliser le comportement de l'alternateur à griffes en fonction des paramètres de construction pour pouvoir, par la suite, utiliser des processus informatiques pour optimiser le rendement et / ou la puissance massique. La méthodologie choisie pour modéliser cet alternateur repose sur la théorie des réseaux de réluctances analytiques. Pour déterminer le courant débité par l'alternateur, le réseau de réluctance est couplé à un modèle analytique du redresseur. Ensuite un modèle analytique est établi pour l'ensemble des pertes. Ce modèle est ensuite intégré dans un logiciel d'optimisation sous contraintes de type gradient. Ceci permet alors d'obtenir un ensemble de solutions répondant à des cahiers des charges bien définis avec un nombre important de paramètres variables (18 paramètres de construction sont optimisés). Cette approche présente différentes évolutions possibles pour améliorer le rendement des alternateurs à griffes. Pour finir, une méthode fondée sur des optimisations multi objectifs est proposée pour déterminer le meilleur compromis entre un rendement élevé et une bonne puissance massique.
- Published
- 2004
30. Modélisation et optimisation des alternateurs à griffes. Application au domaine automobile
- Author
-
ALBERT, Laurent, Laboratoire d'électrotechnique de Grenoble (LEG), Centre National de la Recherche Scientifique (CNRS)-Institut National Polytechnique de Grenoble (INPG), Institut National Polytechnique de Grenoble - INPG, and CHILLET Christian(christian.chillet@leg.ensieg.inpg.fr)
- Subjects
Alternateur à griffes ,optimisation multi objectif ,magnetic equivalent circuit ,[SPI.NRJ]Engineering Sciences [physics]/Electric power ,Claw-pole alternator ,multi objectives optimization ,réseau de réluctances ,analytical modeling ,constrained optimization ,modélisation analytique ,optimisation sous contraintes - Abstract
JURY M. Yves BRUNET ,Président M. Pascal BROCHET ,Rapporteur M. Bernard MULTON ,Rapporteur M. Christian CHILLET ,Directeur de thèse M. Frédéric WURTZ ,Co-encadrant M. Antoine JAROSZ ,Examinateur; Nowadays, automotive electricity generators are claw-pole alternators. They have a good power-to-weight ratio and an attractive cost, but their efficiency is low. As on board electricity demand is rising, electricity generation impact on fuel consumption is no more negligible. Our work aims therefore at making a model of claw-pole alternator behavior, according to building parameters, in order to use it in an optimization software to increase efficiency and / or power-to-weight ratio. Our claw-pole alternator model is built using a magnetic equivalent circuit, with analytical expressions of the reluctances. In order to compute the alternator output current, the magnetic equivalent circuit is linked with an analytical model of the rectifier bridge. Then analytical model of alternator losses is presented. Next, this model is used with a gradient constrained optimization software. It leads to solutions set that satisfy product specifications, handling a high number of variable parameters (18 building parameters are optimized together). This approach presents different possible evolutions to improve claw-pole alternator efficiency. Finally, a multi objectives optimization method is used to find the best compromise between high efficiency and high power-to-weight ratio.; Les générateurs d'électricité actuels dans les automobiles sont des alternateurs à griffes. Ils présentent une bonne puissance massique à un prix compétitif, mais ont, en contrepartie, un mauvais rendement. Ainsi, comme le besoin en énergie électrique embarquée est en constante évolution, il en résulte que l'impact de la génération d'électricité sur la consommation de carburant n'est plus négligeable. Les travaux de cette thèse ont pour but de modéliser le comportement de l'alternateur à griffes en fonction des paramètres de construction pour pouvoir, par la suite, utiliser des processus informatiques pour optimiser le rendement et / ou la puissance massique. La méthodologie choisie pour modéliser cet alternateur repose sur la théorie des réseaux de réluctances analytiques. Pour déterminer le courant débité par l'alternateur, le réseau de réluctance est couplé à un modèle analytique du redresseur. Ensuite un modèle analytique est établi pour l'ensemble des pertes. Ce modèle est ensuite intégré dans un logiciel d'optimisation sous contraintes de type gradient. Ceci permet alors d'obtenir un ensemble de solutions répondant à des cahiers des charges bien définis avec un nombre important de paramètres variables (18 paramètres de construction sont optimisés). Cette approche présente différentes évolutions possibles pour améliorer le rendement des alternateurs à griffes. Pour finir, une méthode fondée sur des optimisations multi objectifs est proposée pour déterminer le meilleur compromis entre un rendement élevé et une bonne puissance massique.
- Published
- 2004
31. Stochastic programming with probabilistic constraint
- Author
-
Andrieu, Laetitia and Ponts Paristech, Ecole Des
- Subjects
[MATH] Mathematics [math] ,constrained optimization ,optimisation sous contraintes - Abstract
La décision dans l'incertain est un theme de recherche particulièrement actif à l'heure actuelle, en raison notamment de ses nombreuses applications dans différents domaines de l'ingéniérie (télécommunications, transports,...), de la gestion et de la finance, etc. La formulation de ces problèmes en termes de problèmes d'optimisation sous contraintes est une approche classique. Cependant, dans un contexte aléatoire (ou stochastique), la nature des contraintes prises en compte requiert une attention particulière : -les contraintes à satisfaire "presque sûrement" sont généralement irréalistes ou anti-économiques (on ne dimensionne pas les réseaux pour écouler le traffic des heures de pointe de l'année), en dehors bien sûr des relations mathématiques qui représentent les lois de la Physique ; -les contraintes à satisfaire "en espérance", quoique mathématiquement agréables, n'ont pas de signification pratique très utile dans la mesure où le respect d'une inégalité sur l'espérance ne garantit rien sur la fréquence des dépassements de cette inégalité; -les contraintes à satisfaire avec une certaine probabilité sont généralement celles qui ont le plus de signification pratique, mais elles sont dificiles à traiter mathématiquement; -d'autres mesures de risque ont été récemment proposées CVaR, ordres stochastiques,...), notamment dans le domaine de la finance, pour aller dans le sens d'un traitement mathématique plus facile (préservation de la convexité par exemple), mais avec une certaine perte de l'interprétation intuitive qu'on peut leur donner. Sur le plan théorique, l'une des difficultés fondamentales que soulève le traitement des contraintes en probabilité est que ces contraintes s'expriment essentiellement comme l'espérance d'une fonction indicatrice d'ensemble, fonction à la fois non convexe et discontinue: le traitement de telles quantités par des méthodes d'approximation stochastique est donc très difficile. Dans cette thèse, trois voies sont explorées pour contourner ces difficultés : -le recours à d'autres formulations du risque qui amènent à des problèmes mathématiques plus simples ; -des méthodes d'intégration par parties ou de changement de variables dans le calcul de l'espérance permettent, sous certaine condition, de remplacer la fonction indicatrice par sa primitive, évidemment plus régulière, et donc plus facile à traiter du point de vue de l'approximation stochastique: on obtient ainsi des éstimateurs non biaisés mais présentant une certaine variance ; -des méthodes de "lissage" remplaçant la fonction indicatrice par une approximation "adoucie", ce qui introduit un certain biais dans l'estimation, biais que l'on cherche ensuite à faire tendre asymptotiquement vers zéro. Ces méthodes sont évaluées et comparées à la fois sur les plans théorique et numérique, en utilisant pour cela deux exemples issus l'un d'un problème de parcours optimal avec risque et l'autre d'un problème d'investissement en finance.
- Published
- 2004
32. Problèmes d’Optimisation Non Linéaire avec Contraintes en Tomographie de Réflexion 3D
- Author
-
Delbos, Frédéric and Sinoquet, Delphine
- Subjects
programmation quadratique successive ,Seismic reflexion tomography ,convex quadratic optimization ,[MATH.MATH-OC] Mathematics [math]/Optimization and Control [math.OC] ,information a priori ,constrained optimization ,prior information ,optimisation sous contraintes ,problèmes inverses ,optimisation quadratique convexe ,problèmes de moindre-carrés ,augemnted Lagrangian ,inverse problem ,least-square problem ,lagrangien augmenté ,Tomographie de réflexion ,sequential quadratic programming - Abstract
Seismic reflection tomography allows the determination of a subsurface model from the traveltimes of seismic waves reflecting on geologic interfaces. The solution model of this inverse problem is a model that minimizes a least-squares functional measuring the mismatch between observed traveltimes and traveltimes calculated by raytracing in this model. My thesis subject consists in studying the resolution of this non linear minimization problem. The main difficulties come first from the size of the data space (around 50000 traveltimes) and of the model space (around 50000 unknowns), secondly from the conditioning problems due to the structure of the model vector (containing different sorts of unknowns : velocities in the geologic layers, transmission interfaces or reflecting interfaces). Thirdly, the non linearity of the modelling operator of traveltimes and the complexity of wave propagation in subsurface often imply an ill-posed minimization problem (Delprat-Jannaud, F., and Lailly, P., 1993). To ensure its well-posedness, curvature regularization is used. In addition, introduction of geological a priori information thanks to constrained optimization reduces uncertainties on the model solution.A classical line search Gauss-Newton method was used to solve unconstrained optimization problems in seismic reflection tomography (Chauvier, L., Masson, R., and Sinoquet, D., 2000). At each Gauss-Newton step, the (approximate) solution of a quadratic model of the objective function is computed using a conjugate gradient algorithm. This method generally allows to solve the minimization problem, but in some cases we noticed that the line search method is neither able to find a solution nor to decrease significantly the objective function. This difficulty is likely to be due to a too ill-conditioned Hessian matrix. To overcome this, we have proposed and implemented an original trust-region Gauss-Newton method coupled with a truncated conjugate gradient algorithm (Delbos, F., Sinoquet, D., Gilbert, J. C., and Masson, R., 2001) where the trust-region parameters (for example the trust-region radius) are automatically tuned by the solver. This method provides more stable and accurate results. In fact, it better solves intricate examples where the Hessian matrix is strongly ill-conditioned.The second part of my thesis consists in studying constrained optimization problems in seismic reflection tomography. The constraints we want to introduce in the optimization problem are of multiple types. They could be non linear (for example we could constrain the impact points of the rays on one interface to be located in a particular area) but in a first approach we prefer to limit ourselves with linear constraints. Even if the linearity brings simplifications, our optimization problems are still very difficult to solve because of the huge number of constraints (around 10000) and their different types.A widely used method to solve constrained non linear optimization problem is an interior point approach. However, we suspect this method to require significantly more resolutions of the forward problem, a raytracing solver, which is a drawback when this one is expensive in CPU time. Hence, we preferred to choose a Sequential Quadratic Programming (SQP) method because we had supposed that, as (Gauss-) newtonnian method, it does not require more iterations than the Gauss-Newton algorithm in the unconstrained case. This assumption proved to be exact. In the context of seismic tomography problems, a version of the augmented Lagrangian (AL) algorithm has been proposed by Glowinski and Tran (1993) to solve the tangent quadratic problem (TQP) of the SQP method. The solver QPAL we have developped in this thesis takes inspiration from that work and goes further by improving the efficiency of its augmented Lagrangian QP solver : it uses the classical multiplier method of Hesteness (1969) and Powell (1969) to minimize the dual fonction and it uses a GP-AC-GC algorithm to solve the Lagrange problem of the AL method. We have shown on a various concrete inversion that our nonlinear optimization method gives nice results :• the number of Gauss-Newton iterations has the same order of magnitude than the number of Gauss-Newton iterations necessary in the unconstrained case (around 10 iterations),• our nonlinear optimization method is efficient even for a large number of constraints,• the introduction of geological a priori information thanks to constrained optimization reduces uncertainties on the model solution., La tomographie de réflexion de données sismiques permet la d´détermination d’un modèle de sous-sol à partir des temps de trajet des ondes sismiques se réfléchissant sur les interfaces géologiques. Le modèle solution de ce problème inverse est le modèle qui minimise une fonctionnelle moindres-carrés mesurant les écarts entre les temps de trajet mesurés et les temps de trajet calculés par tracé de rayons dans ce modèle. Le sujet de ma thèse est l’étude de la résolution numérique de ce problème non linéaire de minimisation.Les principales difficultés proviennent tout d’abord de la taille de l’espace des données (de l’ordre de 500000) et de l’espace des modèles (de l’ordre de 50000 inconnues), puis des problèmes de conditionnement liés à la structure du vecteur modèle (différents types d’inconnues interviennent : les vitesses dans les couches géologiques, les interfaces en transmission ou en réflexion). Enfin, la non linéarité de l’opérateur de modélisation des temps de trajet et la complexité de la propagation des ondes dans le sous-sol conduisent souvent à un problème de minimisation mal posé. Une régularisation sur la courbure du modèle permet d’avoir un problème de minimisation mathématique bien posé. De plus, l’introduction d’informations géologiques a priori par résolution sous contraintes du problème inverse permet de réduire les incertitudes sur le modèle solution.Classiquement, une méthode de Gauss-Newton couplée avec une méthode de recherche linéaire était utilisée pour résoudre les problèmes d’optimisation sans contrainte en tomographie de réflexion sismique (Chauvier, L., Masson, R., and Sinoquet, D., 2000). A chaque itération de Gauss-Newton, une solution (approchée) d’un modèle quadratique de la fonction coût non linéaire est calculée en utilisant l’algorithme du gradient conjugué. Cette méthode permet en général de résoudre les problèmes de minimisation traités en tomographie. Cependant, nous avons remarqué pour certains cas que la méthode de recherche linéaire était non seulement incapable de trouver une solution, mais encore de faire décroitre de manière significative la fonction coût. Ces difficultés sont principalement dues à une matrice Hessienne mal conditionnée. Afin de pallier à ces difficultés, lapremière partie de ma thèse a consisté à remplacer la recherche linéaire par une méthode de région de confiance, et à développer un algorithme de gradient conjugué tronqué pour minimiser le modèle quadratique de la fonction coût non linéaire. Les différents paramètres de la méthode des régions de confiance (par exemple le rayon de la région de confiance) sont automatiquement réglés par le solveur. Cette méthode donne des résultats plus stables et plus précis. Elle permet de mieux résoudre les exemples complexes où le Hessien est très mal conditionné.La deuxième partie de ma thèse consiste à étudier la résolution des problèmes d’optimisation avec contraintes en tomographie de réflexion sismique. Les contraintes à ajouter dans la résolution de nos problèmes d’optimisation peuvent être de types très différents. Elles peuvent être non linéaires (nous pourrions par exemple contraindre les points d’impact des rayons sur une interface à être localisés dans une région particulière), mais dans une première approche nous préférons nous limiter à des contraintes linéaires. Même si la linéarité apporte des simplifications, nos problèmes d’optimisation restent encore très difficiles à résoudre notamment à cause du nombre élevé de contraintes (de l’ordre de 10000) et de leurs types différents.Actuellement, une méthode souvent utilisée pour résoudre les problèmes d’optimisation non linéaire avec contraintes est l’approche par points intérieurs. Cependant, nous soupçonnons que cette méthode demande significativement plus de résolutions du problème direct, le tracé de rayon, ce qui est un inconvénient lorsque celui-ci coûte cher en temps CPU. Ainsi, nous avons préféré une méthode de Programmation Quadratique Successive (PQS) car nous supposions que, comme méthode (Gauss-) Newtonnienne, elle ne demanderait pas plus d’itérations (donc d’évaluation de fonctions), que l’algorithme de Gauss-Newton dans le cas sans contrainte. Cette précision s’est avérée exacte. Glowinski et Tran, en 1993, ont développé et testé une méthode PQS dans laquelle le problème quadratique tangent (PQT) est résolu via une méthode de Lagrangien Augmenté. Nous nous sommes inspirés de cette première approche en améliorant la résolution des PQT. Le code QPAL que nous avons développé pendant cette thèse a montré son efficacité pour résoudre des problèmes quadratiques convexes de grandes tailles : il utilise d’une part la méthode classique des multiplicateurs de Hesteness et Powell pour minimiser la fonction duale et d’autre part l’algorithme GP-AC-GC pour résoudre les problèmes de Lagrange. Nous avons montré sur de nombreux cas tests ou réels que cette méthode donne des résultats convaincants :• le nombre d’évaluations de la fonction coût reste du même ordre de grandeur que celui obtenu par le solveur Gauss-Newtonnien sans contrainte,• cette méthode est capable de résoudre des problèmes de grande taille,• l’introduction d’informations a priori par l’inversion avec contraintes permet de réduire les incertitudes sur le modèle solution.
- Published
- 2004
33. Non linear constrained optimization problems for 3D reflection tomography
- Author
-
Delbos, Frédéric and Sinoquet, Delphine
- Subjects
programmation quadratique successive ,Seismic reflexion tomography ,convex quadratic optimization ,[MATH.MATH-OC] Mathematics [math]/Optimization and Control [math.OC] ,information a priori ,constrained optimization ,prior information ,optimisation sous contraintes ,problèmes inverses ,optimisation quadratique convexe ,problèmes de moindre-carrés ,augemnted Lagrangian ,inverse problem ,least-square problem ,lagrangien augmenté ,Tomographie de réflexion ,sequential quadratic programming - Abstract
Seismic reflection tomography allows the determination of a subsurface model from the traveltimes of seismic waves reflecting on geologic interfaces. The solution model of this inverse problem is a model that minimizes a least-squares functional measuring the mismatch between observed traveltimes and traveltimes calculated by raytracing in this model. My thesis subject consists in studying the resolution of this non linear minimization problem. The main difficulties come first from the size of the data space (around 50000 traveltimes) and of the model space (around 50000 unknowns), secondly from the conditioning problems due to the structure of the model vector (containing different sorts of unknowns : velocities in the geologic layers, transmission interfaces or reflecting interfaces). Thirdly, the non linearity of the modelling operator of traveltimes and the complexity of wave propagation in subsurface often imply an ill-posed minimization problem (Delprat-Jannaud, F., and Lailly, P., 1993). To ensure its well-posedness, curvature regularization is used. In addition, introduction of geological a priori information thanks to constrained optimization reduces uncertainties on the model solution.A classical line search Gauss-Newton method was used to solve unconstrained optimization problems in seismic reflection tomography (Chauvier, L., Masson, R., and Sinoquet, D., 2000). At each Gauss-Newton step, the (approximate) solution of a quadratic model of the objective function is computed using a conjugate gradient algorithm. This method generally allows to solve the minimization problem, but in some cases we noticed that the line search method is neither able to find a solution nor to decrease significantly the objective function. This difficulty is likely to be due to a too ill-conditioned Hessian matrix. To overcome this, we have proposed and implemented an original trust-region Gauss-Newton method coupled with a truncated conjugate gradient algorithm (Delbos, F., Sinoquet, D., Gilbert, J. C., and Masson, R., 2001) where the trust-region parameters (for example the trust-region radius) are automatically tuned by the solver. This method provides more stable and accurate results. In fact, it better solves intricate examples where the Hessian matrix is strongly ill-conditioned.The second part of my thesis consists in studying constrained optimization problems in seismic reflection tomography. The constraints we want to introduce in the optimization problem are of multiple types. They could be non linear (for example we could constrain the impact points of the rays on one interface to be located in a particular area) but in a first approach we prefer to limit ourselves with linear constraints. Even if the linearity brings simplifications, our optimization problems are still very difficult to solve because of the huge number of constraints (around 10000) and their different types.A widely used method to solve constrained non linear optimization problem is an interior point approach. However, we suspect this method to require significantly more resolutions of the forward problem, a raytracing solver, which is a drawback when this one is expensive in CPU time. Hence, we preferred to choose a Sequential Quadratic Programming (SQP) method because we had supposed that, as (Gauss-) newtonnian method, it does not require more iterations than the Gauss-Newton algorithm in the unconstrained case. This assumption proved to be exact. In the context of seismic tomography problems, a version of the augmented Lagrangian (AL) algorithm has been proposed by Glowinski and Tran (1993) to solve the tangent quadratic problem (TQP) of the SQP method. The solver QPAL we have developped in this thesis takes inspiration from that work and goes further by improving the efficiency of its augmented Lagrangian QP solver : it uses the classical multiplier method of Hesteness (1969) and Powell (1969) to minimize the dual fonction and it uses a GP-AC-GC algorithm to solve the Lagrange problem of the AL method. We have shown on a various concrete inversion that our nonlinear optimization method gives nice results :• the number of Gauss-Newton iterations has the same order of magnitude than the number of Gauss-Newton iterations necessary in the unconstrained case (around 10 iterations),• our nonlinear optimization method is efficient even for a large number of constraints,• the introduction of geological a priori information thanks to constrained optimization reduces uncertainties on the model solution., La tomographie de réflexion de données sismiques permet la d´détermination d’un modèle de sous-sol à partir des temps de trajet des ondes sismiques se réfléchissant sur les interfaces géologiques. Le modèle solution de ce problème inverse est le modèle qui minimise une fonctionnelle moindres-carrés mesurant les écarts entre les temps de trajet mesurés et les temps de trajet calculés par tracé de rayons dans ce modèle. Le sujet de ma thèse est l’étude de la résolution numérique de ce problème non linéaire de minimisation.Les principales difficultés proviennent tout d’abord de la taille de l’espace des données (de l’ordre de 500000) et de l’espace des modèles (de l’ordre de 50000 inconnues), puis des problèmes de conditionnement liés à la structure du vecteur modèle (différents types d’inconnues interviennent : les vitesses dans les couches géologiques, les interfaces en transmission ou en réflexion). Enfin, la non linéarité de l’opérateur de modélisation des temps de trajet et la complexité de la propagation des ondes dans le sous-sol conduisent souvent à un problème de minimisation mal posé. Une régularisation sur la courbure du modèle permet d’avoir un problème de minimisation mathématique bien posé. De plus, l’introduction d’informations géologiques a priori par résolution sous contraintes du problème inverse permet de réduire les incertitudes sur le modèle solution.Classiquement, une méthode de Gauss-Newton couplée avec une méthode de recherche linéaire était utilisée pour résoudre les problèmes d’optimisation sans contrainte en tomographie de réflexion sismique (Chauvier, L., Masson, R., and Sinoquet, D., 2000). A chaque itération de Gauss-Newton, une solution (approchée) d’un modèle quadratique de la fonction coût non linéaire est calculée en utilisant l’algorithme du gradient conjugué. Cette méthode permet en général de résoudre les problèmes de minimisation traités en tomographie. Cependant, nous avons remarqué pour certains cas que la méthode de recherche linéaire était non seulement incapable de trouver une solution, mais encore de faire décroitre de manière significative la fonction coût. Ces difficultés sont principalement dues à une matrice Hessienne mal conditionnée. Afin de pallier à ces difficultés, lapremière partie de ma thèse a consisté à remplacer la recherche linéaire par une méthode de région de confiance, et à développer un algorithme de gradient conjugué tronqué pour minimiser le modèle quadratique de la fonction coût non linéaire. Les différents paramètres de la méthode des régions de confiance (par exemple le rayon de la région de confiance) sont automatiquement réglés par le solveur. Cette méthode donne des résultats plus stables et plus précis. Elle permet de mieux résoudre les exemples complexes où le Hessien est très mal conditionné.La deuxième partie de ma thèse consiste à étudier la résolution des problèmes d’optimisation avec contraintes en tomographie de réflexion sismique. Les contraintes à ajouter dans la résolution de nos problèmes d’optimisation peuvent être de types très différents. Elles peuvent être non linéaires (nous pourrions par exemple contraindre les points d’impact des rayons sur une interface à être localisés dans une région particulière), mais dans une première approche nous préférons nous limiter à des contraintes linéaires. Même si la linéarité apporte des simplifications, nos problèmes d’optimisation restent encore très difficiles à résoudre notamment à cause du nombre élevé de contraintes (de l’ordre de 10000) et de leurs types différents.Actuellement, une méthode souvent utilisée pour résoudre les problèmes d’optimisation non linéaire avec contraintes est l’approche par points intérieurs. Cependant, nous soupçonnons que cette méthode demande significativement plus de résolutions du problème direct, le tracé de rayon, ce qui est un inconvénient lorsque celui-ci coûte cher en temps CPU. Ainsi, nous avons préféré une méthode de Programmation Quadratique Successive (PQS) car nous supposions que, comme méthode (Gauss-) Newtonnienne, elle ne demanderait pas plus d’itérations (donc d’évaluation de fonctions), que l’algorithme de Gauss-Newton dans le cas sans contrainte. Cette précision s’est avérée exacte. Glowinski et Tran, en 1993, ont développé et testé une méthode PQS dans laquelle le problème quadratique tangent (PQT) est résolu via une méthode de Lagrangien Augmenté. Nous nous sommes inspirés de cette première approche en améliorant la résolution des PQT. Le code QPAL que nous avons développé pendant cette thèse a montré son efficacité pour résoudre des problèmes quadratiques convexes de grandes tailles : il utilise d’une part la méthode classique des multiplicateurs de Hesteness et Powell pour minimiser la fonction duale et d’autre part l’algorithme GP-AC-GC pour résoudre les problèmes de Lagrange. Nous avons montré sur de nombreux cas tests ou réels que cette méthode donne des résultats convaincants :• le nombre d’évaluations de la fonction coût reste du même ordre de grandeur que celui obtenu par le solveur Gauss-Newtonnien sans contrainte,• cette méthode est capable de résoudre des problèmes de grande taille,• l’introduction d’informations a priori par l’inversion avec contraintes permet de réduire les incertitudes sur le modèle solution.
- Published
- 2004
34. Interior Point ans Quasi-Newton Methods
- Author
-
SEGALAT, Philippe, SEGALAT, Philippe, Laboratoire d'Arithmétique, de Calcul formel et d'Optimisation (LACO), Centre National de la Recherche Scientifique (CNRS)-Université de Limoges (UNILIM), Université de Limoges, and ARMAND Paul
- Subjects
recherche linéaire ,problèmes de grande taille ,Constrained Optimization ,[MATH] Mathematics [math] ,convergence superlinéaire ,interior point ,Optimisation numérique ,optimisation avec contraintes ,superlinear convergence ,algorithmes de points intérieurs ,[MATH]Mathematics [math] ,Numerical Optimization ,linesearch ,large scale problems ,quasi-Newton ,fortran - Abstract
This thesis is interested in interior point and quasi-Newton methods in Nonlinear Optimization and with their implementation. One presents the code NOPTIQ using the limited memory BFGS formulas to solve large scale problems. The originality of this approach is the use of these formulas within the framework of interior point methods. The storage requirement and the computing cost of one iteration are then low. One shows that NOPTIQ is robust and its performance are comparable with the reference codes l-BFGS-B and LANCELOT. One presents also an infeasible algorithm using the preceding methods to solve a nonlinear problem with inequality constraints and linear equality constraints. The idea is to penalize the problem using shift variables and a variant of the big-M method of linear programming. The q-superlinear convergence of the inner iterates and the global convergence of outer iterates are shown., Cette thèse s'intéresse à des méthodes de points intérieurs et de quasi-Newton en optimisation non linéaire et à leurs mises en oeuvre. On présente le code NOPTIQ utilisant les formules de BFGS à mémoire limitée pour résoudre des problèmes de grande taille. L'originalité de cette approche est l'emploi de ces formules dans le cadre des méthodes de points intérieurs. L'espace mémoire et le coût en opérations du calcul d'une itération sont alors faibles. Le code NOPTIQ est robuste et a des performances comparables avec les codes de références l-BFGS-B et LANCELOT. On présente aussi un algorithme non réalisable utilisant les méthodes précédentes pour résoudre un problème non linéaire avec contraintes d'inégalité et contraintes d'égalité linéaire. L'idée est de pénaliser le problème à l'aide de variables de décalage et d'une variante de la méthode big-M. La convergence q-superlinéaire des itérés internes et la convergence globale des itérés externes sont démontrées.
- Published
- 2002
35. Data validation of dynamical non-linear systems. Application to fault detection
- Author
-
Paris, Jean-Marc, Centre de Recherche en Automatique de Nancy (CRAN), Centre National de la Recherche Scientifique (CNRS)-Université de Lorraine (UL), Institut National Polytechnique de Lorraine, José Ragot, Didier Maquin, Université de Lorraine (UL)-Centre National de la Recherche Scientifique (CNRS), and UL, Thèses
- Subjects
No-linear programming ,Programmation non-linéaire ,Monitoring ,Systèmes non linéaires ,[PHYS.COND.CM-GEN] Physics [physics]/Condensed Matter [cond-mat]/Other [cond-mat.other] ,[PHYS.COND.CM-GEN]Physics [physics]/Condensed Matter [cond-mat]/Other [cond-mat.other] ,Optimisation sous contrainte ,Détection de défaut (ingénierie) ,Constrained optimization ,Fault detection ,Traitement du signal ,Détection défaut ,Monitorage - Abstract
Not available, La complexité croissante des processus industriels demande une automatisation de plus en plus développée. La commande et la maintenance de ces processus nécessitent le suivi des mesures pour permettre une bonne détection de défauts capteurs aussi rapidement que possible. Avant l'utilisation des données recueillies sur un processus, il est nécessaire d'implémenter une procédure de validation de données pour réconcilier les données avec le modèle du processus. Ce mémoire propose une méthode de validation de données de systèmes dynamiques non-linéaires. Les résultats obtenus par la validation de données sont ensuite utilisés pour détecter et localiser des défauts capteurs sur un processus. Tout d'abord, nous présentons une méthode de validation de données de systèmes dynamiques non-linéaires basée sur une procédure de linéarisation-estimation associée à une fenêtre glissante. L’évolution du système est observée à travers une fenêtre contenant un nombre fini d'observations. L’estimation consiste alors à résoudre un problème d'optimisation quadratique formule sur la fenêtre d'estimation sous contraintes linéarisées. La procédure linéarisation-estimation est répétée jusqu'à la convergence de l'estimation. Puis, nous présentons différentes méthodes de détection de défauts capteurs. La localisation d'un défaut est ensuite assurée par un banc d'estimateurs pilotes par différents ensembles de mesures. Il est important d'identifier mais aussi de corriger les défauts capteurs. Nous proposons une stratégie d'élimination en série ou la mesure en défaut est éliminée de la procédure de validation de données. L’efficacité des méthodes présentées est mise en évidence sur la simulation d'un processus hydraulique constitué d'un réseau de cuves interconnectées.
- Published
- 1998
36. Mesh refinement by subgradient methods
- Author
-
Cua, Charles, Institut d'Informatique et de Mathématiques Appliquées de Grenoble (IMAG), Université Joseph Fourier - Grenoble 1 (UJF)-Institut National Polytechnique de Grenoble (INPG)-Centre National de la Recherche Scientifique (CNRS), Université Joseph-Fourier - Grenoble I, Institut National Polytechnique de Grenoble - INPG, Jean Fonlupt, and Imag, Thèses
- Subjects
Finite element method ,Méthode gradient ,[INFO.INFO-MO]Computer Science [cs]/Modeling and Simulation ,Interpolation ,Méthode maille ,Gradient method ,Mesh method ,Geometrical shape ,Optimisation sous contrainte ,[INFO.INFO-MO] Computer Science [cs]/Modeling and Simulation ,Constrained optimization ,Approximation ,Méthode élément fini ,Forme géométrique - Abstract
Universités : Université scientifique et médicale de Grenoble et Institut national polytechnique de Grenoble; On étudie un aspect du problème général d'obtention des maillages de type éléments finis. On cherche à améliorer un maillage existant sans changer la topologie actuelle des tétraèdres. On propose des méthodes générales et algorithmiques d'optimisation classique de type méthodes de sous-gradient. On applique ces méthodes à des cas d'école et à des cas réels
- Published
- 1985
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.