7 results on '"Gradientenverfahren"'
Search Results
2. Fast Gradient-Based Iterative Regularization Methods for Nonlinear Ill-Posed Problems - Theory and Applications
- Author
-
Hubmer, Simon Gerhard
- Subjects
ill-posed problems ,inverse problems ,schlecht-gestellte Probleme ,Inverses Problem ,Inkorrekt gestelltes Problem ,zwei-Punkt Gradienten Methoden ,two-point gradient methods ,inverse Probleme ,Gradientenverfahren ,Iteration - Abstract
submitted by Dipl.-Ing. Simon Gerhard Hubmer, Bakk. Techn. Universität Linz, Dissertation, 2018
- Published
- 2018
3. Gradient-based nonlinear model predictive control with constraint transformation for fast dynamical systems
- Author
-
Käpernick, Bartosz, Graichen, Knut, and Petit, Nicolas
- Subjects
gradient method ,Beschränkung ,nonlinear model predictive control ,Parallelisierung ,Prädiktive Regelung ,Optimierungsproblem ,Model predictive control ,Nichtlineare Regelung ,constraint transformation ,Gradientenverfahren - Abstract
Model predictive control (MPC) is a modern control methodology that is based on the repetitive solution of an optimal control problem (OCP) at fixed time instances. The determined state of the system at the current sampling instance is used as initial value for the OCP and the computed control action is then injected to the plant. This procedure is repeated in the next sampling step where the OCP is resolved with the new state of the system. A model predictive controller provides a number of benefits compared to classic control methods. The desired control objective is formulated in a cost function while constraints are directly taken into account. Additionally, an MPC allows to control nonlinear and multivariable systems. However, the numerical solution of an optimal control problem requires in general a significant computational effort and hence limits the application of a model predictive controller. This is even more severe if an MPC is used to control fast dynamical systems with low sampling times. To this end, efficient algorithms, powerful hardware platforms or a combination of both have to be used to circumvent this difficulty. This thesis discusses an MPC scheme that is well-suited for controlling fast nonlinear dynamical systems in real-time. This goal is achieved by combining the efficient gradient method with a transformation technique to handle a particular class of constraints in a systematic way allowing to reformulate a constrained optimal control problem into an unconstrained counterpart to reduce the numerical burden. The related systematic and algorithmic conditions and properties are discussed in detail together with convergence and stability results. The performance of the approach is demonstrated in simulation and experimental studies.
- Published
- 2016
4. Gradient-based reconstruction algorithms for atmospheric tomography in Adaptive Optics systems for Extremely Large Telescopes
- Author
-
Saxenhuber, Daniela
- Subjects
gradient method ,reconstruction ,Adaptive Optik ,iterative Algorithmen ,tomography ,Gradientenverfahren ,Fernrohr ,adaptive optics ,Tomographie ,regularization ,Regularisierung ,Tomografie ,Rekonstruktion ,iterative solver - Abstract
Dipl.-Ing. Mag. Daniela Saxenhuber, Bakk.techn. Zusammenfassung in deutscher Sprache Universität Linz, Univ., Dissertation, 2016 OeBB
- Published
- 2016
5. Stability of coupled adaptive filters
- Author
-
Dallinger, Robert
- Subjects
mehrlagiges Perzeptron ,Neural Networks ,aktive Rauschunterdr��ckung ,l2-Stability ,Backpropagation ,Multilayer Perceptron ,Fehlerr��ckf��hrung ,Gradientenverfahren ,Active Noise Control ,Matrix Step-Size ,Multichannel Filtered-x LMS ,Matrixschrittweite ,Digital Signal Processing ,FxLMS ,Gekoppelte adaptive Filter ,Least-Mean-Squares Algorithm ,neuronale Netze ,Coupled Adaptive Filters ,ANC ,digitale Signalverarbeitung ,Parameter Convergence ,Wiener Model ,Parameterkonvergenz ,mehrkanaliger LMS mit gefiltertem Eingangssignal ,Gradient Methods ,l2-Stabilit��t - Abstract
Die L��sung vieler Problemstellungen im naturwissenschaftlichen und technischen Bereich beruht auf Kenntnis eines Systems, das nur teilweise durch Beobachtungen erfasst werden kann. Typischerweise wird in solchen F��llen ein passendes Modell gew��hlt, das einem Satz von gemessenen Daten hinreichend gut angepasst werden kann. In manchen F��llen sind diese Daten sehr umfangreich und es kann auf entsprechend leistungsstarke numerische Mittel zur��ckgegriffen werden. In anderen F��llen, handelt es sich bei diesen Daten um einige wenige Str��me von Messwerten, die gleich nach ihrem eintreffen mit geringem Rechenaufwand verarbeitet werden m��ssen. Diese Arbeit besch��ftigt sich ausschlie��lich mit letzterer Situation und betrachtet speziell das Verhalten sowie die Verl��sslichkeit von Gradientenverfahren, sowie von Strukturen die mehrere von diesen kombinieren. Kapitel 3 widmet sich sogenannten asymmetrischen Algorithmen. Dies sind Gradientenverfahren, bei denen die Regressionsrichtung nicht wie sonst ��blich der Richtung des Eingangsvektors entspricht. In einem ersten Schritt wird gezeigt, dass die korrespondierende homogene Rekursion potentiell divergieren kann, da deren Koeffzientenmatrix einen Singul��rwert gr����er eins besitzt. Simulationsexperimente f��r eine der wichtigsten Teilklassen asymmetrischer Algorithmen, den Least-Mean-Squares (LMS) Algorithmus mit Matrixschrittweite, er��ffnen jedoch die Einsicht, dass diese Divergenz selbst unter widrigsten Umst��nden in einigen F��llen nicht zutage tritt. Eine anschlie��ende detaillierte Analyse dieses Ph��nomens basierend auf geometrischen Argumenten f��hrt zu der Erkenntnis, dass nur dann Divergenz auftreten kann, wenn sich die Eigenr��ume der Schrittweitenmatrix unaufh��rlich ver��ndern. Der zweite Teil dieses Kapitels pr��sentiert zwei Methoden, mit deren Hilfe konkrete Algorithmen auf die Existenz eines solchen Verhaltens getestet werden k��nnen. Beide Methoden erlauben die Generierung ung��nstiger Anregungsfolgen, wobei in einem Fall analytische Mittel, im anderen Fall eine numerische Suche f��r deren Erzeugung eingesetzt wird. Das vierte Kapitel konzentriert sich auf konventionelle Gradientenverfahren, hier auch als symmetrische Algorithmen bezeichnet. Es wird allerdings nicht nur ein solcher Algorithmus isoliert betrachtet, sondern eine spezielle Struktur, die mehrere von diesen kombiniert, indem deren individuelle a priori Fehler gegenseitig linear und ohne Ged��chtnis interferieren. F��r diese Struktur werden einerseits Bedingungen f��r l2-Stabilit��t hergeleitet, basierend auf der L��sung von Systemen linearer Ungleichungen in Kombination mit der Theorie zu M-Matrizen. Andererseits erfolgt eine Analyse auf Basis der Inhalte von Kapitel 3. Mit Hilfe des Khatri-Rao Matrixprodukt lassen sich so kompakte Schranken angeben, die einen endlichen Grenzwert des Parameterfehlers garantieren. Schlie��lich wird der f��r die Praxis relevante Spezialfall behandelt, bei dem alle einzelnen Gradientenverfahren denselben Fehler benutzen um deren Parameter zu adaptieren. Es zeigt sich, dass das Verhalten einer solchen Struktur durch einen LMS Algorithmus mit Matrixschrittweite beschrieben werden kann, wodurch s��mtliche Erkenntnisse aus Kapitel 3 zur Anwendung gebracht werden k��nnen. Kapitel 5 wendet die zuvor entwickelte Theorie auf praktisch eingesetzte adaptive Systeme an. Dies erlaubt f��r das, in der digitalen Vorverzerrung von Leistungsverst��rkern eingesetzte, adaptive Wiener Modell, bestehend aus einem linearen Filter gefolgt von einer ged��chtnislosen Nichtlinearit��t, Bedingungen f��r l2-Stabilit��t und f��r einen begrenzten Parameterfehler anzugeben. ��quivalente Ergebnisse werden auch f��r den mehrkanaligen LMS Algorithmus mit gefiltertem Eingangssignal (MC-FXLMS), verwendet in der aktiven Rauschunterdr��ckung, hergeleitet. Abschlie��end wird ein k��nstliches neuronales Netz (ein mehrlagiges Perzeptron) betrachtet, das mittels Fehlerr��ckf��hrung trainiert wird. Das Resultat f��r ein solches Netz beliebiger Gr����e zeigt, dass Parameterkonvergenz kaum garantiert werden kann und wesentlich von der Qualit��t der Initialisierung abh��ngt., Nowadays, many disciplines in science and engineering deal with problems for which a solution relies on knowledge about the characteristics of one or more given systems that can only be ascertained based on restricted observations. This requires the fitting of an adequately chosen model, such that it "best" conforms to a set of measured data. Depending on the context, this fitting procedure may resort to a huge amount of recorded data and abundant numerical power, or contrarily, to only a few streams of samples, which have to be processed on the fly at low computational cost. This thesis, exclusively focuses on the latter scenario. It specifically studies unexpected behaviour and reliability of the widely spread and computationally highly efficient class of gradient type algorithms. Additionally, special attention is paid to systems that combine several of them. Chapter 3 is dedicated to so called asymmetric algorithms. These are gradient type algorithms that do not employ the (commonly used) unaltered input vector for regression. In a first step, it is shown that for such algorithms, the mapping matrix of the underlying homogeneous recursion has one singular value that is larger than one. This entails the risk of parameter divergence. Restricting to the most prominent subclass of asymmetric algorithms, the least-mean-squares (LMS) algorithm with matrix step-size, simulation experiments demonstrate that such divergence does not occur for all step-size matrices, even under worst case conditions. Motivated by this observation, the first part of this chapter dissects this phenomenon based on geometric arguments and comes to the novel insight that persistently changing eigenspaces of the step-size matrix are at the core of this worst case parameter divergence. In the second part, analytic as well as numeric methods are derived that allow to intentionally provoke this type of divergence, in order to assess specific algorithms. A combination of arbitrarily many symmetric algorithms, i.e., conventional LMS algorithms, is addressed in Chapter 4. It considers a structure of such algorithms that mutually interfere with each other via a linear memoryless coupling among their individual a priori errors. Conditions for l2-stability as well as boundedness of the parameter error are derived. The primer are obtained by the solution of a linear system of inequalities, resorting to the theory of M-matrices. The latter are compactly stated by means of the Khatri-Rao matrix product. Finally, a practically relevant case of coupling is analysed, where all of the individual adaptive schemes employ the same update error. This situation is found to be equivalent to an LMS algorithm with matrix step-size, making it accessible to the findings of Chapter 3. The such obtained theoretic apparatus is applied in Chapter 5 to types of adaptive systems that are encountered in real life. First, for an adaptive Wiener model in a configuration that is typically used in digital pre-distortion of microwave power amplifiers, consisting of a linear filter followed by a memoryless non-linearity, a condition for l2-stability and boundedness of its parameter error is identified. Resorting to the knowledge gained about asymmetric algorithms, this boundedness is then found to be extendible to less restrictive and practically more feasible constraints. Then, the multichannel filtered-x LMS is studied in context of active noise control, leading to sufficient bounds for l2-stability and boundedness of its parameter error. Finally, the theory of Chapters 3 and 4 is harnessed to confirm that parameter convergence of an arbitrarily sized multilayer perceptron trained by the backpropagation algorithm can barely be ensured and strongly depends on the quality of its parameter initialisation.
- Published
- 2016
- Full Text
- View/download PDF
6. Gradient based optimization in ligand-receptor docking
- Author
-
Fuhrmann, Jan and Herfet, Thorsten
- Subjects
Heuristik ,ligand-receptor docking ,search heuristics ,%22">Ligand ,Optimierung ,BALLDock ,Ligand ,Scoring-Funktion ,Gradientenverfahren ,Optmierungsheuristik ,scoring functions ,Algorithmus ,Ligand-Rezeptor Docking ,Lamarck ,ddc:004 ,ddc:620 - Abstract
In this work, we compared six global search heuristics and two scoring functions in the field of ligand-receptor docking. A new way for the gradient based minimization of a ligand whose position in space is defined by translation, orientation and a set of torsional flexible angles was implemented and thoroughly tested. The default local search method of a Lamarckian genetic algorithm was replaced by our novel gradient based approach and the new hybrid was compared to non-gradient global search heuristics. Finally, we present our docking program BALLDock, in which we incorporated our findings. In der vorliegenden Arbeit wurden sechs populationsbasierte Optmierungsheuristiken und zwei Scoring-Funktionen im Hinblick auf ihre Leistungsfähigkeit im Bereich Ligand-Rezeptor Docking miteinander verglichen. Parallel dazu wurde eine neuer Ansatz entwickelt, der die lokale, gradientenbasierte Optimierung partiell flexibler Moleküle, deren Position und Konformation durch Translation, Orientierung und eine Anzahl flexibler Bindungswinkel definiert ist, erlaubt. Danach wurde die gradientenfreie Methode zur lokalen Optimierung eines Lamarck genetischen Algorithmus durch das neuartige gradientbasierte Verfahren ersetzt und dessen Einfluss auf die Ergebnisse der globalen Suchheuristik analysiert. Abschließend wird das Dockingprogramm BALLDock vorgestellt, in das die neu gewonnenen Erkenntnisse einflossen.
- Published
- 2009
- Full Text
- View/download PDF
7. Preconditioned iterative methods for a class of nonlinear eigenvalue problems
- Author
-
S. I. Solov’ev
- Subjects
Nichtlineares Eigenwertproblem ,Inverse iteration ,Matrix-free methods ,Iterative method ,Preconditioned iterative method ,MathematicsofComputing_NUMERICALANALYSIS ,Conjugate gradient method ,Gradientenverfahren ,Nonlinear eigenvalue problem ,Gradient method ,ComputingMethodologies_SYMBOLICANDALGEBRAICMANIPULATION ,Discrete Mathematics and Combinatorics ,Präkonditionierung ,ddc:510 ,Divide-and-conquer eigenvalue algorithm ,Steepest descent method ,Eigenvalues and eigenvectors ,preconditioned iterative method ,Mathematics ,Numerical Analysis ,Algebra and Number Theory ,Mathematical analysis ,Konjugierte-Gradienten-Methode ,symmetric eigenvalue problem ,Symmetric eigenvalue problem ,Matrix multiplication ,Geometry and Topology - Abstract
This paper proposes new iterative methods for the efficient computation of the smallest eigenvalue of symmetric nonlinear matrix eigenvalue problems of large order with a monotone dependence on the spectral parameter. Monotone nonlinear eigenvalue problems for differential equations have important applications in mechanics and physics. The discretization of these eigenvalue problems leads to nonlinear eigenvalue problems with very large sparse ill-conditioned matrices monotonically depending on the spectral parameter. To compute the smallest eigenvalue of large-scale matrix nonlinear eigenvalue problems, we suggest preconditioned iterative methods: preconditioned simple iteration method, preconditioned steepest descent method, and preconditioned conjugate gradient method. These methods use only matrix–vector multiplications, preconditioner-vector multiplications, linear operations with vectors, and inner products of vectors. We investigate the convergence and derive grid-independent error estimates for these methods. Numerical experiments demonstrate the practical effectiveness of the proposed methods for a model problem.
- Full Text
- View/download PDF
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.