166 results on '"numerische Mathematik"'
Search Results
2. Algorithmen als Dreh- & Angelpunkt – Eine Analyse der Tätigkeiten in der Numerik
- Author
-
Burr, Laura
- Subjects
Numerik ,Prozesse und Arbeitsweisen von Mathematik-Studierenden ,Kompetenzmodellierung ,Stoffdidaktik ,Algorithmen ,Fortgeschrittene Hochschulmathematik ,Numerische Mathematik ,Numerische Methoden - Abstract
Numerische Mathematik, kurz Numerik, beschäftigt sich als Teilgebiet der Angewandten Mathematik bei der Lösung mathematischer Problemstellungen unter anderem mit der Entwicklung von Algorithmen und deren Analyse (Harbrecht, 2022). In den letzten Jahren wurden vermehrt innovative und meist technologiegestützte Lehr- und Lernkonzepte für Lehrveranstaltungen der Numerik entwickelt (z.B. Bishop, 2013; Martín-Caraballo & Tenorio-Villalón, 2015). Häufig werden hierbei jedoch Numerik-Kurse in ingenieurwissenschaftlichen Studiengängen betrachtet. Beiträge, die sich auf Numerik- Veranstaltungen für Mathematik-Studierende beziehen, fokussieren sich mehrheitlich auf das Lehren numerischer Methoden (z.B. Wang, 2004). Obwohl Kurse zur Numerik mittlerweile (fester) Bestandteil vieler mathematischer Studiengänge sind, steht die Untersuchung der intendierten Tätigkeiten der Studierenden in diesen Lehrveranstaltungen und der daraus resultierenden Kompetenzen noch aus. Da die Literatur zu den Tätigkeiten in der Numerik bislang lediglich Hinweise liefert, scheint es angebracht zu sein, zunächst zu untersuchen, welche Charakteristiken die Numerik kennzeichnen und inwiefern sie sich von anderen mathematischen Disziplinen unterscheidet.
- Published
- 2023
- Full Text
- View/download PDF
3. A locally modified finite element method for two-phase flow problems
- Author
-
Judakova, Gozel
- Subjects
Finite element method ,Two-phase flow problem ,518.6 ,Numerische Mathematik - Abstract
In this thesis, we extend the locally modified finite element method, which is introduced in [47], to second order in two space dimensions. The method is based on a fixed patch mesh, which is then refined into sub-elements, to resolve an interface locally. The splitting into sub-elements is slightly different from the one presented in [47] and leads in general to a better bound for the maximal angles within the triangles. We begin in the stationary case by analysing a locally modified second order finite element method applied to elliptic interface problems. We prove some auxiliary estimates in order to control the mismatch between continuous and discrete bilinear forms and then show an optimal a priori error estimates in the L2-norm and in the discrete energy norm. Furthermore, we study two-phase flow problems and show stability. For the discretization of the stationary Stokes interface problem, we apply a locally modified second order finite element scheme for the velocity and piecewise constant elements for the pressure. The technique used to check the inf-sup stability is a macroelement technique, which is tested by checking local stability and a relatively simple global stability. For that we use a two-level family of meshes, i.e. micro- and macrotriangulation. First, we show the stability locally for each macroelement by constructing a Fortin operator. There is only one rare case, where the macroelement is not stable and we must add further stabilization terms. Second, we define a subspace by introducing an appropriate projection and show the stability of the subspace. With the macroelement approach, we prove a discrete inf-sup condition for the P2 − P0 element and present optimal error estimations. Moreover, we consider Stokes interface problems with surface tension. In the variational formulation of these problems, we use a linear functional which describes the surface tension force. This functional depends on the location and the curvature of the interface. To handle the curvature, we apply a Laplace-Beltrami operator. Compared to one-phase flows, two-phase flows with a surface tension force have very high numerical complexity. Thus, we use the Rothe method. For time discretization, we use the implicit Euler method for the unsteady Stokes problem combined with a semi-implicit time integration of the surface tension force. For spatial discretization, we use the locally modified second order finite element method. In the final part of the thesis, we study a fluid-structure-interaction problem. We consider a rigid body model for falling particles and an unsteady Stokes problem for the fluid model. For spatial discretization, we use the locally modified finite element scheme and the implicit Euler method for time discretization. To evaluate the solution on the new spatial mesh, we use the discrete Stokes projection. We present detailed numerical studies for all three applications including a numerical convergence analysis., In dieser Arbeit erweitern wir die in [47] eingeführte lokal modifizierte Finite-Elemente- Methode auf die zweite Ordnung in zwei Raumdimensionen. Die Methode basiert auf einem fest strukturierten groben Gitter, das dann in Unterelemente verfeinert wird, um das Interface lokal aufzulösen. Die Aufteilung in Unterelemente unterscheidet sich von der in [47] vorgestellten und das führt zu einer besseren Begrenzung für der maximale Winkel des Dreiecks. Zunächst betrachten wir den stationären Fall und analysieren eine lokal modifizierte Finite-Elemente-Methode zweiter Ordnung für elliptische Interface-Problems. Wir beweisen einige Hilfs-Abschätzungen, um den Unterschied zwischen kontinuierlichen und diskreten bilinearen Formen zu kontrollieren. Dann zeigen wir optimale a priori-Fehlerschätzungen in der L2-Norm und in der diskreten Energie-Norm. Weiterhin untersuchen wir Zweiphasenströmungsprobleme und zeigen die Stabilität. Für die Diskretisierung des stationären Stokes-Interface-Problems verwenden wir lokal modifizierte Finite-Elemente-Schemata zweiter Ordnung für die Geschwindigkeit und stückweise konstante Elemente für den Druck. Um die inf-sup Stabilität zu überprüfen, verwenden wir die Makroelementtechnik, die durch die lokale Stabilität und eine relativ einfache globale Stabilität getestet wird. Dafür verwenden wir eine zweistufige Familie von Gittern, d.h. eine Mikro- und Makrotriangulation. Zunächst zeigen wir die lokale Stabilität für jedes Makroelement durch Konstruktion des Fortin-Operators. Es gibt nur einen seltenen Fall, in dem das Makroelement nicht stabil ist. Wir müssen in diesem Fall einen Stabilisierungsterm hinzufügen. Zweitens definieren wir einen Unterraum durch eine geeignete Projektion und zeigen die Stabilität des Unterraums. Mit Hilfe der Makroelementtechnik beweisen wir die diskrete Inf-Sup-Bedingung für die P2 − P0-Elemente und präsentieren die optimalen Fehlerschätzungen. Darüber hinaus betrachten wir die Stokes-Interface-Probleme mit der Oberflächenspannung. Bei der Variationsformulierung dieser Probleme verwenden wir ein lineares Funktional, das die Oberflächenspannungskraft beschreibt. Dieses Funktional hängt von dem Ort und der Krümmung des Interfaces ab. Daher wenden wir einen Laplace-Beltrami-Operator an, um die Krümmungsterm zu behandeln. Im Vergleich zu Einphasenströmungen haben Zweiphasenströmungen mit Oberflächenspannungskräften eine sehr hohe numerische Komplexität. Deswegen wenden wir die Rothe-Methode an. Für die Zeitdiskretisierung verwenden wir die implizite Euler-Methode für das instationäre Stokes-Problem in Kombination mit einer semi-impliziten Zeitintegration der Oberflächenspannungskraft. Für die räumliche Diskretisierung verwenden wir die lokal modifizierte Finite-Elemente-Methode zweiter Ordnung. Im letzten Teil dieser Arbeit betrachten wir ein Fluid-Struktur-Interaktionsproblem. Wir betrachten ein Starrkörpermodell für fallende Partikel und ein instationäres Stokes Problem für das Fluidmodel. Für die örtliche Diskretisierung verwenden wir das lokal modifizierte Finite-Elemente-Schema zweiter Ordnung und für die Zeitdiskretisierung das implizite Euler-Verfahren. Um die Lösung auf dem neuen räumlichen Gitter zu bewerten, entwickeln wir die diskrete Stokes-Projektion. Wir präsentieren detaillierte numerische Studien für alle drei Anwendungen, einschließlich einer numerischen Konvergenzanalyse.
- Published
- 2023
- Full Text
- View/download PDF
4. Numerical Analysis and Its Applications : 4th International Conference, NAA 2008 Lozenetz, Bulgaria, June 16-20, 2008, Revised Selected Papers
- Author
-
Svetozar D. Margenov, Lubin Georgiev Vulkov, Jerzy Wasniewski, Svetozar D. Margenov, Lubin Georgiev Vulkov, and Jerzy Wasniewski
- Subjects
- Burgas (2008), Kongress, Numerical analysis--Congresses, Numerische Mathematik--Burgas <2008>--Kongress, Numerische Mathematik
- Abstract
This book constitutes the thoroughly refereed post-conference proceedings of the 4th International Conference on Numerical Analysis and Its Applications, NAA 2008, held in Lozenetz, Bulgaria in June 2008. The 61 revised full papers presented together with 13 invited papers were carefully selected during two rounds of reviewing and improvement. The papers address all current aspects of numerical analysis and discuss a wide range of problems concerning recent achievements in physics, chemistry, engineering, and economics. A special focus is given to numerical approximation and computational geometry, numerical linear algebra and numerical solution of transcendental equations, numerical methods for differential equations, numerical modeling, and high performance scientific computing.
- Published
- 2009
5. A posteriori Error Estimation and Adaptivity for Model Order Reduction of Large-Scale Systems
- Author
-
Chellappa, Sridhar
- Subjects
518.5 ,Numerische Mathematik - Abstract
In this thesis, we study a posteriori error estimation and adaptivity with the goal of automatic model order reduction of large-scale systems. We propose efficient offline adaptive techniques that are aimed at (a) bringing down the significant offline cost often associated with generating reduced-order models and (b) minimizing the user interference in obtaining efficient reduced-order models. We consider adaptivity in two aspects: adaptive basis enrichment and adaptive training set sampling. The adaptive techniques we propose are enabled by efficient and sharp a posteriori error estimators. The error estimators not only guide the offline generation of reduced-order models, but also provide error certification for their online use. Starting with the class of parametric linear steady, time-harmonic, and dynamical systems, we introduce an inf-sup-constantfree error estimator targeted towards systems with small or vanishing inf-sup constant. This is especially true for many systems arising in electromagnetics. We incorporate the error estimator within a greedy algorithm to adaptively enrich the projection basis. We iteratively compute a data-driven surrogate model of the error estimator in order to enable the adaptive sampling of the training set. Following this, the adaptive techniques are then extended to the class of (parametric) nonlinear dynamical systems. We introduce an improved a posteriori error estimator for the output variable and employ it within a greedy algorithm to obtain a compact reduced-order model. Our improved error estimator is able to additively decompose the error contribution arising from the approximation of the state vector and the nonlinear vector via hyperreduction. Making use of this, we adaptively and simultaneously add/remove basis vectors to/from the two projection matrices. To address the curse of dimensionality often associated with parametric problems, we introduce two separate strategies to adaptively sample the training set. The first is a bottom-up sampling where a data-driven surrogate of the improved error estimator is utilised to iteratively add/remove parameter samples to/from a coarse training set. The second is a top-down approach in which we start from a fine training set and iteratively identify the most important samples to be retained. As a final contribution, the combined adaptive basis enrichment and adaptive training set sampling approach is extended to coupled systems. Throughout the thesis, we validate our theoretical results and algorithms by performing numerical experiments on several large-scale examples chosen to represent a wide range of applications., In dieser Arbeit untersuchen wir a posteriori-Fehlerabschätzung und Adaptivität mit dem Ziel der automatisierten Modellordnungsreduktion von Systemen mit großer Zustandsraumdimension. Wir stellen effiziente offline-adaptive Verfahren vor, die darauf abzielen, (a) die beträchtlichen offline-Rechenkosten zu senken, die oft mit der Erzeugung von Modellen reduzierter Ordnung verbunden sind, und (b) den Einfluss des Benutzers bei der Generierung effizienter Modelle reduzierter Ordnung zu minimieren. Wir betrachten zwei Aspekte des Konzepts der Adaptivität genauer: die adaptive Basisanreicherung und die adaptive Auswahl der Trainingsmengen. Die von uns vorgeschlagenen adaptiven Verfahren werden durch effiziente und genaue a posteriori-Fehlerschätzer ermöglicht. Die Fehlerschätzer werden nicht nur für die offline-Generierung von Modellen reduzierter Ordnung benötigt, sondern liefern auch eine Fehlerzertifizierung für deren Nutzung in der online-Phase. Ausgehend von der Klasse parametrischer linearer, stetiger, zeitharmonischer und dynamischer Systeme führen wir einen inf-sup-Konstantenfreien Fehlerschätzer ein, der auf Systeme mit einer sehr kleinen oder verschwindenden inf-sup-Konstante ausgerichtet ist. Dies gilt insbesondere für viele Systeme aus der Elektromagnetik. Wir integrieren den Fehlerschätzer in einen Greedy-Algorithmus zur adaptiven Anreicherung der Projektionsbasis. Wir berechnen iterativ ein datengetriebenes Ersatzmodell des Fehlerschätzers, um die adaptive Auswahl der Trainingsmenge zu ermöglichen. Im Anschluss daran werden die adaptiven Verfahren auf die Klasse der (parametrischen) nichtlinearen, dynamischen Systeme erweitert. Wir führen einen verbesserten a posteriori-Fehlerschätzer für die Ausgangsvariable ein und verwenden ihn in einem Greedy-Algorithmus, um ein (kompaktes) Modell reduzierter Ordnung zu erhalten. Unser verbesserter Fehlerschätzer ist in der Lage die Beiträge, die sich aus der Approximation des Zustandsvektors und des nichtlinearen Vektors ergeben, mithilfe von Hyperreduktion additiv zu zerlegen. Auf dieser Grundlage fügen wir adaptiv und simultan Basisvektoren zu den beiden Projektionsmatrizen hinzu bzw. entfernen sie. Um den “Fluch der Dimensionalität” zu umgehen, der oft mit parametrischen Problemen verbunden ist, führen wir zwei separate Strategien zur adaptiven Auswahl der Trainingsmenge ein. Bei der ersten handelt es sich um ein Bottom-up-Sampling, bei dem eine datengesteuerte Approximation des verbesserten Fehlerschätzers verwendet wird, um iterativ Parameterproben zu einer groben Trainingsmenge hinzuzufügen oder daraus zu entfernen. Der zweite ist ein Top-Down-Sampling-Ansatz, bei dem wir von einer feinen Trainingsmenge ausgehen und iterativ die wichtigsten Proben identifizieren, die beibehalten werden sollen. Als letzter Beitrag wird der kombinierte Ansatz der adaptiven Basisanreicherung und der adaptiven Trainingsmengenauswahl auf gekoppelte Systeme erweitert. Während der gesamten Arbeit validieren wir unsere theoretischen Ergebnisse und Algorithmen durch numerische Experimente an mehreren groß angelegten Beispielen, die ein breites Spektrum von Anwendungen repräsentieren.
- Published
- 2022
6. Numerical Methods for Stochastic Control Problems with Applications in Financial Mathematics
- Author
-
Herzog, Roland, Jensen, Max, Schmidt, Thorsten, Technische Universität Chemnitz, Blechschmidt, Jan, Herzog, Roland, Jensen, Max, Schmidt, Thorsten, Technische Universität Chemnitz, and Blechschmidt, Jan
- Abstract
This thesis considers classical methods to solve stochastic control problems and valuation problems from financial mathematics numerically. To this end, (linear) partial differential equations (PDEs) in non-divergence form or the optimality conditions known as the (nonlinear) Hamilton-Jacobi-Bellman (HJB) equations are solved by means of finite differences, volumes and elements. We consider all of these three approaches in detail after a thorough introduction to stochastic control problems and discuss various solution terms including classical solutions, strong solutions, weak solutions and viscosity solutions. A particular role in this thesis play degenerate problems. Here, a new model for the optimal control of an energy storage facility is developed which extends the model introduced in [Chen, Forsyth (2007)]. This four-dimensional HJB equation is solved by the classical finite difference Kushner-Dupuis scheme [Kushner, Dupuis (2001)] and a semi-Lagrangian variant which are both discussed in detail. Additionally, a convergence proof of the standard scheme in the setting of parabolic HJB equations is given. Finite volume schemes are another classical method to solve partial differential equations numerically. Sharing similarities to both finite difference and finite element schemes we develop a vertex-centered dual finite volume scheme. We discuss convergence properties and apply the scheme to the solution of HJB equations, which has not been done in such a broad context, to the best of our knowledge. Astonishingly, this is one of the first times the finite volume approach is systematically discussed for the solution of HJB equations. Furthermore, we give many examples which show advantages and disadvantages of the approach. Finally, we investigate novel tailored non-conforming finite element approximations of second-order PDEs in non-divergence form, utilizing finite-element Hessian recovery strategies to approximate second derivatives in the equation. We study a
- Published
- 2022
7. Efficient modelling of kinetic plasmas
- Author
-
Allmann-Rahn, Florian (M. Sc.)
- Subjects
Plasma ,Weltraum ,ddc:530 ,Hochleistungsrechnen ,Numerische Mathematik ,Simulation - Abstract
Accurate modelling of kinetic plasmas is computationally demanding. In order to accelerate Vlasov simulations, here low-rank approximations are utilized to compress the distribution function. A long-standing problem of Vlasov solvers has been that that positivity of the distribution function and energy conservation are not guaranteed at the same time. To solve this issue, a dual Vlasov solver is introduced which combines a traditional Vlasov solver with exact kinetic information from a fluid solver. That way, low velocity space resolutions can be employed and noise-free fully kinetic modelling can be utilized far beyond the previous applications. For plasmas very large scales, a reduced multi-fluid model is refined where kinetic dynamics enter through a physically motivated heat flux approximation. Many applications from plasma instabilities over turbulence to magnetic reconnection are discussed, including simulations of reconnection events measured by the MMS spacecraft. Die akkurate Modellierung kinetischer Plasmen ist rechnerisch herausfordernd. Um Vlasov-Simulationen zu beschleunigen, werden in dieser Arbeit Approximationen mit niedrigem Rang genutzt, sodass die Verteilungsfunktion komprimiert wird. Ein langwährendes Problem von Vlasov-Lösern war, dass die Positivität der Verteilungsfunktion und die Energieerhaltung nicht gleichzeitig garantiert war. Um dieses Problem zu lösen, wird ein dualer Vlasov-Löser eingeführt, der einen traditionellen Vlasov-Löser mit exakten kinetischen Informationen aus einem Fluid-Löser kombiniert. Für Plasmen auf sehr großen Skalen wird ein reduziertes Multi-Fluid-Modell verfeinert, bei dem kinetische Dynamik durch eine physikalisch motivierte Approximation des Wärmestroms eingeht. Viele Anwendungen von Plasmainstabilitäten über Turbulenz bis hin zu magnetischer Rekonnektion werden besprochen, einschließlich Simulationen von Rekonnektionsevents, die von der MMS-Sonde gemessen wurden.
- Published
- 2022
8. Numerical Methods for Stochastic Control Problems with Applications in Financial Mathematics
- Author
-
Blechschmidt, Jan, Herzog, Roland, Jensen, Max, Schmidt, Thorsten, and Technische Universität Chemnitz
- Subjects
ddc:519 ,nonlinear, pde, hamilton-jacobi-bellman, hjb, numerics ,Numerische Mathematik - Abstract
This thesis considers classical methods to solve stochastic control problems and valuation problems from financial mathematics numerically. To this end, (linear) partial differential equations (PDEs) in non-divergence form or the optimality conditions known as the (nonlinear) Hamilton-Jacobi-Bellman (HJB) equations are solved by means of finite differences, volumes and elements. We consider all of these three approaches in detail after a thorough introduction to stochastic control problems and discuss various solution terms including classical solutions, strong solutions, weak solutions and viscosity solutions. A particular role in this thesis play degenerate problems. Here, a new model for the optimal control of an energy storage facility is developed which extends the model introduced in [Chen, Forsyth (2007)]. This four-dimensional HJB equation is solved by the classical finite difference Kushner-Dupuis scheme [Kushner, Dupuis (2001)] and a semi-Lagrangian variant which are both discussed in detail. Additionally, a convergence proof of the standard scheme in the setting of parabolic HJB equations is given. Finite volume schemes are another classical method to solve partial differential equations numerically. Sharing similarities to both finite difference and finite element schemes we develop a vertex-centered dual finite volume scheme. We discuss convergence properties and apply the scheme to the solution of HJB equations, which has not been done in such a broad context, to the best of our knowledge. Astonishingly, this is one of the first times the finite volume approach is systematically discussed for the solution of HJB equations. Furthermore, we give many examples which show advantages and disadvantages of the approach. Finally, we investigate novel tailored non-conforming finite element approximations of second-order PDEs in non-divergence form, utilizing finite-element Hessian recovery strategies to approximate second derivatives in the equation. We study approximations with both continuous and discontinuous trial functions. Of particular interest are a-priori and a-posteriori error estimates as well as adaptive finite element methods. In numerical experiments our method is compared with other approaches known from the literature. We discuss implementations of all three approaches in MATLAB (finite differences and volumes) and FEniCS (finite elements) publicly available in GitHub repositories under https://github.com/janblechschmidt. Many numerical experiments show convergence properties as well as pros and cons of the respective approach. Additionally, a new postprocessing procedure for policies obtained from numerical solutions of HJB equations is developed which improves the accuracy of control laws and their incurred values.
- Published
- 2022
9. Polynomial and multilevel preconditioners for the Helmholtz equation based on the shifted Laplacian
- Author
-
García Ramos, Luis Alberto, Nabben, Reinhard, Technische Universität Berlin, Liesen, Jörg, and Gijzen, Martin van
- Subjects
ddc:518 ,numerical analysis ,Vorkonditionerung ,preconditioning ,iterative Methoden ,iterative methods ,Helmholtz equation ,numerische Mathematik ,518 Numerische Analysis ,Helmholtz-Gleichung - Abstract
In this dissertation we study various preconditioning methods based on the complex shifted Laplacian for the Helmholtz equation. This equation describes time-harmonic solutions to the wave equation and appears in various important engineering and scientific applications. First, we introduce a polynomial preconditioner which combines the shifted Laplacian with approximation by Faber series. We exploit the localization of the spectrum of the CSL preconditioned system to approximately enclose the eigenvalues by a non-convex set and approximate the function 1/z on this set by a Faber series. The preconditioner is obtained by truncating this series and applying it to the Helmholtz matrix preconditioned by the shifted Laplacian and the performance is illustrated with numerical results in 1-D and 2-D. In the second part we focus on the analysis of deflation and two-level methods. We obtain a characterization of the spectrum of matrices of the form PA where P is an arbitrary projection and A is nonsingular, which is then used to study the spectrum of matrices resulting from the application of two-level preconditioning and the deflation technique. We also prove a residual bound for deflated GMRES based on the field of values and uncover some properties of the spectrum of Helmholtz matrices preconditioned by the two-level shifted Laplacian. Moreover, we use our results to obtain optimal interpolation operators for Hermitian positive definite problems with respect to the spectral radius of the iteration matrix of the two-grid method. In the final part, we analyze a two-level preconditioner for the Helmholtz equation for problems discretized with finite elements using the convergence theory of GMRES based on the field of values. Our main result is a sufficient condition on the coarse mesh size and the shift parameter in the shifted Laplacian in order to obtain wavenumber-independent convergence of GMRES applied to the two-level-preconditioned system., In dieser Arbeit untersuchen wir verschiedene Vorkonditionierungsmethoden, die auf dem verschobenen Laplacian-Operator für die Helmholtz-Gleichung basieren. Im ersten Teil führen wir eine polynomiale Vorkonditionierung ein, die den verschobenen Laplace-Operator durch Faber-Reihen kombiniert. Wir nutzen die Lokalisierung des Spektrums des CSL-vorkonditionierten Systems aus, um die Eigenwerte näherungsweise durch eine nicht-konvexe Menge einzuschliessen und die Funktion 1/z auf der Einschlussmenge durch eine Faber-Reihe zu approximieren. Der Vorkonditionierer wird durch Abschneiden dieser Reihe und Anwendung auf die durch den verschobenen Laplacian vorkonditionierte Helmholtz-Matrix erhalten, und die Leistung wird mit numerischen Ergebnissen in 1-D und 2-D veranschaulicht. Im zweiten Teil konzentrieren wir uns auf die Analyse von Deflations- und Zwei-Stufen-Methoden. Wir erhalten eine Charakterisierung des Spektrums von Matrizen der Form PA, wobei P eine beliebige Projektion ist und A nichtsingulär ist, die dann verwendet wird, um das Spektrum von Matrizen zu untersuchen, die aus der Anwendung von zweistufiger Vorkonditionierung und der Deflationstechnik resultieren. Wir beweisen auch eine Schranke für das Residuum in deflationerten GMRES, die auf dem numerischen Wertebereich basiert, und decken einige Eigenschaften des Spektrums von Helmholtz-Matrizen auf, die durch den zweistufigen verschobenen Laplacian vorkonditioniert sind. Darüber hinaus verwenden wir unsere Ergebnisse, um optimale Interpolationsoperatoren fur hermitsche positiv definite Probleme in Bezug auf den Spektralradius der Iterationsmatrix der Zwei-Gitter-Methode zu erhalten. Im letzten Teil analysieren wir einen zweistufigen Vorkonditionierer für die Helmholtz-Gleichung für Probleme, die mit finiten Elementen diskretisiert wurden, unter Verwendung der Konvergenztheorie von GMRES, die auf dem numerischen Wertebereich basiert. Unser Hauptergebnis ist eine hinreichende Bedingung für die grobe Maschenweite und den Shift im verschobenen Laplace-Operator, um eine wellenzahlunabhängige Konvergenz von GMRES bei Anwendung auf das zweistufig vorkonditioniertes System zu erhalten.
- Published
- 2022
- Full Text
- View/download PDF
10. Semi-analytic modeling of stacked metasurfaces
- Author
-
Sperrhake, Jan
- Subjects
Photonik ,Optik ,Nano-Optik ,Metamaterialien ,Metasurface ,Numerische Mathematik - Abstract
Ziel dieser Arbeit war die Entwicklung eines semi-analytischen Models mehrschichtiger nano- strukturierter Oberflächen. Einzelne Schichten werden hierbei in Forschungsgemeinschaft als “Metasurface” bezeichnet. In Folge nennt man Schichtsysteme aus Metasurfaces “Metasurface Stacks” oder “Stacked Metasurfaces”. Das besondere an Metasurfaces liegt an einer speziellen Art der Licht-Materie-Wechselwirkung. Im Gegensatz zu herkömmlichen, natürlich vorkommenden optischen Materialien, welche im Wesentlichen durch ihre atom- und molekularphysikalischen Eigenschaften wechselwirken, besitzen Metasurfaces mesoskopische Strukturen. Diese haben Größen, die der von Lichtwellen entsprechen. Dadurch entstehen zum einen Streuphänomene die komplexe Feldwechselwirkungen erzeugen. Darüberhinaus sorgen evaneszente Felder, die auf der Oberfläche der Nano-Strukturen angeregt werden können, für ein geändertes Resonanzverhalten, welches sich durch verschiedene Reflektions- und Absorptionseigenschaften auszeichnet. Sind die Strukturen einer Metasurface periodisch angeordnet lassen sich die dort angeregten Felder durch sogenannte Bloch-Moden beschreiben. Diese sind periodische Feldlösungen der Maxwell-Gleichungen. Betrachtet man nun die Gesamtheit aller Bloch-Moden der Metasurface, kann man eine dominante Mode mit, im Vergleich zu allen anderen, maximalem Energietransport in das Fernfeld identifizieren. Diese nennt man in der Literatur Fundamentalmode. Ist die Metasurface so beschaffen, dass bei Wechselwirkung mit Licht einer bestimmten Wellenlänge diese Fundamentalmode signifikant alle anderen Moden dominiert und letztere stark dämpfen, das heißt evaneszent abfallen, so kann das betreffende Medium als homogen gedeutet werden. Darauf basierend wurde in der vorliegenden Arbeit ein semi-analytisches Model von Stacked Metasurfaces entwickelt, welches verschiedenen experimentellen Tests stand hielt. Ein besonderer Erfolg liegt in der Erweiterung des Modells zur Untersuchung von Feynman-Pfaden.
- Published
- 2022
- Full Text
- View/download PDF
11. Low-rank Tensor Methods for PDE-constrained Optimization
- Author
-
Bünger, Alexandra, Stoll, Martin, Simoncini, Valeria, Elman, Howard C., and Technische Universität Chemnitz
- Subjects
ddc:518 ,Numerische Mathematik ,Wissenschaftliches Rechnen ,Low-rank, optimization, Isogeometric Analysis, Tensor Train - Abstract
Optimierungsaufgaben unter Partiellen Differentialgleichungen (PDGLs) tauchen in verschiedensten Anwendungen der Wissenschaft und Technik auf. Wenn wir ein PDGL Problem formulieren, kann es aufgrund seiner Größe unmöglich werden, das Problem mit konventionellen Methoden zu lösen. Zusätzlich noch eine Optimierung auszuführen birgt zusätzliche Schwierigkeiten. In vielen Fällen können wir das PDGL Problem in einem kompakteren Format formulieren indem wir der zugrundeliegenden Kronecker-Produkt Struktur zwischen Raum- und Zeitdimension Aufmerksamkeit schenken. Wenn die PDGL zusätzlich mit Isogeometrischer Analysis diskretisiert wurde, können wir zusätlich eine Niedrig-Rang Approximation zwischen den einzelnen Raumdimensionen erzeugen. Diese Niedrig-Rang Approximation lässt uns die Systemmatrizen schnell und speicherschonend aufstellen. Das folgende PDGL-Problem lässt sich als Summe aus Kronecker-Produkten beschreiben, welche als eine Niedrig-Rang Tensortrain Formulierung interpretiert werden kann. Diese kann effizient im Niedrig-Rang Format gelöst werden. Wir illustrieren dies mit unterschiedlichen, anspruchsvollen Beispielproblemen.:Introduction Tensor Train Format Isogeometric Analysis PDE-constrained Optimization Bayesian Inverse Problems A low-rank tensor method for PDE-constrained optimization with Isogeometric Analysis A low-rank matrix equation method for solving PDE-constrained optimization problems A low-rank tensor method to reconstruct sparse initial states for PDEs with Isogeometric Analysis Theses and Summary Bibilography Optimization problems governed by Partial Differential Equations (PDEs) arise in various applications of science and engineering. If we formulate a discretization of a PDE problem, it may become infeasible to treat the problem with conventional methods due to its size. Solving an optimization problem on top of the forward problem poses additional difficulties. Often, we can formulate the PDE problem in a more compact format by paying attention to the underlying Kronecker product structure between the space and time dimension of the discretization. When the PDE is discretized with Isogeometric Analysis we can additionally formulate a low-rank representation with Kronecker products between its individual spatial dimensions. This low-rank formulation gives rise to a fast and memory efficient assembly for the system matrices. The PDE problem represented as a sum of Kronecker products can then be interpreted as a low-rank tensor train formulation, which can be efficiently solved in a low-rank format. We illustrate this for several challenging PDE-constrained problems.:Introduction Tensor Train Format Isogeometric Analysis PDE-constrained Optimization Bayesian Inverse Problems A low-rank tensor method for PDE-constrained optimization with Isogeometric Analysis A low-rank matrix equation method for solving PDE-constrained optimization problems A low-rank tensor method to reconstruct sparse initial states for PDEs with Isogeometric Analysis Theses and Summary Bibilography
- Published
- 2021
12. Efficient multivariate approximation with transformed rank-1 lattices
- Author
-
Potts, Daniel, Krahmer, Felix, Nuyens, Dirk, Technische Universität Chemnitz, Nasdala, Robert, Potts, Daniel, Krahmer, Felix, Nuyens, Dirk, Technische Universität Chemnitz, and Nasdala, Robert
- Abstract
We study the approximation of functions defined on different domains by trigonometric and transformed trigonometric functions. We investigate which of the many results known from the approximation theory on the d-dimensional torus can be transfered to other domains. We define invertible parameterized transformations and prove conditions under which functions from a weighted Sobolev space can be transformed into functions defined on the torus, that still have a certain degree of Sobolev smoothness and for which we know worst-case upper error bounds. By reverting the initial change of variables we transfer the fast algorithms based on rank-1 lattices used to approximate functions on the torus efficiently over to other domains and obtain adapted FFT algorithms.:1 Introduction 2 Preliminaries and notations 3 Fourier approximation on the torus 4 Torus-to-R d transformation mappings 5 Torus-to-cube transformation mappings 6 Conclusion Alphabetical Index, Wir betrachten die Approximation von Funktionen, die auf verschiedenen Gebieten definiert sind, mittels trigonometrischer und transformierter trigonometrischer Funktionen. Wir untersuchen, welche bisherigen Ergebnisse für die Approximation von Funktionen, die auf einem d-dimensionalen Torus definiert wurden, auf andere Definitionsgebiete übertragen werden können. Dazu definieren wir parametrisierte Transformationsabbildungen und beweisen Bedingungen, bei denen Funktionen aus einem gewichteten Sobolevraum in Funktionen, die auf dem Torus definiert sind, transformiert werden können, die dabei einen gewissen Grad an Sobolevglattheit behalten und für die obere Schranken der Approximationsfehler bewiesen wurden. Durch Umkehrung der ursprünglichen Koordinatentransformation übertragen wir die schnellen Algorithmen, die Rang-1 Gitter Methoden verwenden um Funktionen auf dem Torus effizient zu approximieren, auf andere Definitionsgebiete und erhalten adaptierte FFT Algorithmen.:1 Introduction 2 Preliminaries and notations 3 Fourier approximation on the torus 4 Torus-to-R d transformation mappings 5 Torus-to-cube transformation mappings 6 Conclusion Alphabetical Index
- Published
- 2021
13. Computational Thermodynamics
- Author
-
Kortus, Jens, Seifert, Gotthard, TU Bergakademie Freiberg, Schwalbe, Sebastian, Kortus, Jens, Seifert, Gotthard, TU Bergakademie Freiberg, and Schwalbe, Sebastian
- Abstract
This thesis is concerned with theoretical concepts of phenomenological and statistical thermodynamics and their computational realization. The main goal of this thesis is to provide efficient workflows for an accurate description of thermodynamic properties of molecules and solid state materials. The Cp-MD workflow developed within this thesis is applied to characterize binary battery materials, such as lithium silicides.This workflow enables a numerically efficient description of macroscopic thermodynamic properties. For battery materials and metal-organic frameworks, it is shown that some macroscopic properties are dominantly controlled by microscopic properties. These microscopic properties are well described by respective small clusters or molecules.Given their reduced size, these systems can be calculated using more accurate and numerically more demanding methods. Standard density functional theory (DFT) and the so called Fermi-Löwdin orbital self-interaction correction (FLO-SIC) method are used for further investigations. It will be shown that SIC is able to overcome some of the problems of DFT. Given further workflows, it is demonstrated how a combination of different computational methods can speed up thermodynamic calculations and is able to deepen the understanding of the driving forces of macroscopic thermodynamic properties.:1 Introduction 2 Open-source and open-science I Theoretical basics 3 Computational methods 4 Computation of thermodynamic properties II Thermodynamics of solid state systems 5 Methodical developments 6 Lithium silicides 7 Metal-organic frameworks III Thermodynamics of nuclei and electrons 8 Electrons and bonding information 9 Thermodynamic properties IV Summary 10 Conclusion 11 Outlook V Appendix, Diese Arbeit befasst sich mit theoretischen Konzepten der phänomenologischen und statistischen Thermodynamik und deren numerischer Umsetzung. Das Hauptziel dieser Arbeit ist es, Arbeitsabläufe für die akurate Beschreibung von thermodynamischen Eigenschaften von Molekülen und Festkörpern zur Verfügung zu stellen. Der während dieser Arbeit entwickelte Cp -MD Arbeitsablauf wird angewandt um binäre Batteriemateralien, wie Lithiumsilizide, zu charakterisieren. Dieser Arbeitsablauf ermöglicht eine numerisch effiziente Beschreibung von makroskopischen thermodynamischen Eigenschaften. Für Batteriemateralien und metallorganische Gerüstverbindungen wird gezeigt, dass einige makroskopische Eigenschaften hauptsächlich von mikroskopischen Eigenschaften kontrolliert sind. Diese mikroskopischen Eigenschaften können mittels zugehöriger Cluster oder Moleküle beschrieben werden. Aufgrund ihrer reduzierten Größe können diese Systeme mit genaueren und numerisch aufwendigeren Methoden berechnet werden. Standard Dichtefunktionaltheorie (DFT) und die Fermi-Löwdin-Orbital Selbstwechselwirkungskorrektur (FLO-SWK) werden für weitere Untersuchungen verwendet. Es wird gezeigt, dass die SWK einige Probleme der DFT überwinden kann. Anhand weiterer Arbeitsabläufe wird gezeigt, wie eine Kombination von verschiedenen numerischen Methoden thermodynamische Berechnungen beschleunigen kann und in der Lage ist das Verständnis der Triebkräfte von makroskopischen thermodynamischen Eigenschaften zu vertiefen.:1 Introduction 2 Open-source and open-science I Theoretical basics 3 Computational methods 4 Computation of thermodynamic properties II Thermodynamics of solid state systems 5 Methodical developments 6 Lithium silicides 7 Metal-organic frameworks III Thermodynamics of nuclei and electrons 8 Electrons and bonding information 9 Thermodynamic properties IV Summary 10 Conclusion 11 Outlook V Appendix
- Published
- 2021
14. Computational Thermodynamics
- Author
-
Schwalbe, Sebastian, Kortus, Jens, Seifert, Gotthard, and TU Bergakademie Freiberg
- Subjects
Dichtefunktionaltheorie, Kraftfeldmethoden, Selbstwechselwirkungskorrektur, Numerische-Thermodynamik ,ddc:530 ,Thermodynamik ,Molekül ,Dichtefunktionalformalismus ,density-functional-theory, force-fields, self-interaction-correction, computational-thermodynamics ,Lithiumsilicide ,Numerische Mathematik ,Festkörper - Abstract
This thesis is concerned with theoretical concepts of phenomenological and statistical thermodynamics and their computational realization. The main goal of this thesis is to provide efficient workflows for an accurate description of thermodynamic properties of molecules and solid state materials. The Cp-MD workflow developed within this thesis is applied to characterize binary battery materials, such as lithium silicides.This workflow enables a numerically efficient description of macroscopic thermodynamic properties. For battery materials and metal-organic frameworks, it is shown that some macroscopic properties are dominantly controlled by microscopic properties. These microscopic properties are well described by respective small clusters or molecules.Given their reduced size, these systems can be calculated using more accurate and numerically more demanding methods. Standard density functional theory (DFT) and the so called Fermi-Löwdin orbital self-interaction correction (FLO-SIC) method are used for further investigations. It will be shown that SIC is able to overcome some of the problems of DFT. Given further workflows, it is demonstrated how a combination of different computational methods can speed up thermodynamic calculations and is able to deepen the understanding of the driving forces of macroscopic thermodynamic properties.:1 Introduction 2 Open-source and open-science I Theoretical basics 3 Computational methods 4 Computation of thermodynamic properties II Thermodynamics of solid state systems 5 Methodical developments 6 Lithium silicides 7 Metal-organic frameworks III Thermodynamics of nuclei and electrons 8 Electrons and bonding information 9 Thermodynamic properties IV Summary 10 Conclusion 11 Outlook V Appendix Diese Arbeit befasst sich mit theoretischen Konzepten der phänomenologischen und statistischen Thermodynamik und deren numerischer Umsetzung. Das Hauptziel dieser Arbeit ist es, Arbeitsabläufe für die akurate Beschreibung von thermodynamischen Eigenschaften von Molekülen und Festkörpern zur Verfügung zu stellen. Der während dieser Arbeit entwickelte Cp -MD Arbeitsablauf wird angewandt um binäre Batteriemateralien, wie Lithiumsilizide, zu charakterisieren. Dieser Arbeitsablauf ermöglicht eine numerisch effiziente Beschreibung von makroskopischen thermodynamischen Eigenschaften. Für Batteriemateralien und metallorganische Gerüstverbindungen wird gezeigt, dass einige makroskopische Eigenschaften hauptsächlich von mikroskopischen Eigenschaften kontrolliert sind. Diese mikroskopischen Eigenschaften können mittels zugehöriger Cluster oder Moleküle beschrieben werden. Aufgrund ihrer reduzierten Größe können diese Systeme mit genaueren und numerisch aufwendigeren Methoden berechnet werden. Standard Dichtefunktionaltheorie (DFT) und die Fermi-Löwdin-Orbital Selbstwechselwirkungskorrektur (FLO-SWK) werden für weitere Untersuchungen verwendet. Es wird gezeigt, dass die SWK einige Probleme der DFT überwinden kann. Anhand weiterer Arbeitsabläufe wird gezeigt, wie eine Kombination von verschiedenen numerischen Methoden thermodynamische Berechnungen beschleunigen kann und in der Lage ist das Verständnis der Triebkräfte von makroskopischen thermodynamischen Eigenschaften zu vertiefen.:1 Introduction 2 Open-source and open-science I Theoretical basics 3 Computational methods 4 Computation of thermodynamic properties II Thermodynamics of solid state systems 5 Methodical developments 6 Lithium silicides 7 Metal-organic frameworks III Thermodynamics of nuclei and electrons 8 Electrons and bonding information 9 Thermodynamic properties IV Summary 10 Conclusion 11 Outlook V Appendix
- Published
- 2021
15. Efficient multivariate approximation with transformed rank-1 lattices
- Author
-
Nasdala, Robert, Potts, Daniel, Krahmer, Felix, Nuyens, Dirk, and Technische Universität Chemnitz
- Subjects
Rang-1 Gitter, Koordinatentransformation, Hochdimensionale Approximation ,rank-1 lattice, change of variables, high-dimensional approximation ,ddc:510 ,Approximationstheorie ,Numerische Mathematik ,Koordinatentransformation - Abstract
We study the approximation of functions defined on different domains by trigonometric and transformed trigonometric functions. We investigate which of the many results known from the approximation theory on the d-dimensional torus can be transfered to other domains. We define invertible parameterized transformations and prove conditions under which functions from a weighted Sobolev space can be transformed into functions defined on the torus, that still have a certain degree of Sobolev smoothness and for which we know worst-case upper error bounds. By reverting the initial change of variables we transfer the fast algorithms based on rank-1 lattices used to approximate functions on the torus efficiently over to other domains and obtain adapted FFT algorithms.:1 Introduction 2 Preliminaries and notations 3 Fourier approximation on the torus 4 Torus-to-R d transformation mappings 5 Torus-to-cube transformation mappings 6 Conclusion Alphabetical Index Wir betrachten die Approximation von Funktionen, die auf verschiedenen Gebieten definiert sind, mittels trigonometrischer und transformierter trigonometrischer Funktionen. Wir untersuchen, welche bisherigen Ergebnisse für die Approximation von Funktionen, die auf einem d-dimensionalen Torus definiert wurden, auf andere Definitionsgebiete übertragen werden können. Dazu definieren wir parametrisierte Transformationsabbildungen und beweisen Bedingungen, bei denen Funktionen aus einem gewichteten Sobolevraum in Funktionen, die auf dem Torus definiert sind, transformiert werden können, die dabei einen gewissen Grad an Sobolevglattheit behalten und für die obere Schranken der Approximationsfehler bewiesen wurden. Durch Umkehrung der ursprünglichen Koordinatentransformation übertragen wir die schnellen Algorithmen, die Rang-1 Gitter Methoden verwenden um Funktionen auf dem Torus effizient zu approximieren, auf andere Definitionsgebiete und erhalten adaptierte FFT Algorithmen.:1 Introduction 2 Preliminaries and notations 3 Fourier approximation on the torus 4 Torus-to-R d transformation mappings 5 Torus-to-cube transformation mappings 6 Conclusion Alphabetical Index
- Published
- 2021
16. Design and manufacture of umanned aerial vehicles (UAV) wing structure using composite materials.
- Author
-
Grodzki, W. and Łukaszewicz, A.
- Subjects
- *
COMPOSITE materials research , *MICROMECHANICS , *DRONE aircraft , *NUMERICAL analysis , *MANUFACTURING processes - Abstract
This paper presents possibilities of simulating composites materials in SolidWorks environment and selected aspects of the unmanned aerial vehicle (UAV) design and manufacturing process (real airplane model was used in Air Cargo Challenge 2013 competition). First part of article contains informations about types of composite materials, mechanical properties and their structures. UAV wing design process is presented as multistage task. Next part of manuscript includes numerical analysis which deals with two cases of composites structures: laminates and sandwich composites. Differences in values of displacement and principal stresses (P1, P3) were shown in considered structures based on equal boundary conditions. Final part of article deals with development of manufacture process. [ABSTRACT FROM AUTHOR]
- Published
- 2015
- Full Text
- View/download PDF
17. Numerische Berechnung von O'Haras Knotenenergien
- Author
-
Sander, Drazen
- Subjects
Knotentheorie ,Numerische Mathematik - Abstract
eingereicht von Drazen Sander Literaturverzeichnis: Blatt 78-79 Paris-Lodron-Universität Salzburg, Masterarbeit, 2021
- Published
- 2021
18. Adaptive spectral least-squares techniques for reaction-diffusion equations
- Author
-
Marquardt, Pascal, Heinrichs, Wilhelm, and Heinrichs, Wilhelm (Akademische Betreuung)
- Subjects
Reaktion-Diffusionsgleichung ,Mathematik ,Fakultät für Mathematik ,ddc:510 ,Numerische Mathematik ,Numerische Mathematik -- Spektrale Methoden -- Adaptive Gitterverfeinerung -- Reaktion-Diffusionsgleichung -- Turing-Mechanismen ,Spektrale Methoden ,Adaptive Gitterverfeinerung ,Turing-Mechanismen - Abstract
In this thesis we are proposing a new numerical method for solving systems of reactiondiffusion equations. In particular we are focussing on Turing mechanisms, which are a special form of reaction-diffusion equations introduced by Alan Turing in 1952. The speciality of these equations is that diffusion is considered destabilising. Thus starting with a fully stable steady state so-called Turing patterns are established in the solution of the system of partial differential equations. Our approach is based on the triangular spectral element methods. To enhance the performance of the triangular spectral element methods, we are extending them with algorithms for spatial adaptation of the considered domain. We have seen in past studies that this provides excellent improvements to spectral methods. For a good comparison of different refinement criteria we are taking account of one heuristic criterion and two spectral criteria closely related to our method. In difference to recent research we are now considering time-dependent problems with triangular spectral element methods. For the temporal discretisation of the Turing mechanisms we are applying a generic theta-integration scheme with different values for theta. To deal with problems arising from a static time step size, we are additionally introducing an algorithm for an adaptive time step control. Finally we are going to validate our method in two ways. First we are considering three different time-independent model problems for which we already know the exact solution. This will be done to generally verify the correctness of the method and the implementation. Second we are applying our approach to the Turing mechanisms. For these equations we do not know the solution, therefore we compare our results to theoretical assumptions. When validating the method we are also comparing different configurations of our approach. We will see in chapter 7 that our method combined with a spectral refinement criterion and using adaptive time step size with the Crank-Nicolson method for temporal discretisation provides good results for any Turing mechanism., In dieser Doktorarbeit schlagen wir eine neue numerische Methode zur Lösung von Systemen von Reaktion-Diffusionsgleichungen vor. Dabei konzentrieren wir uns im Speziellen auf Turing-Mechanismen, die einen Sonderfall der Reaktion-Diffusionsgleichungen darstellen, vorgestellt 1952 von Alan Turing. Die Besonderheit dieser Gleichung ist, dass sie Diffusion als destabilisierend betrachten. Ausgehend von einem vollkommen stabilen Gleichgewichtszustand entwickeln sich sogenannte Turing-Muster in der Lösung des Systems von partiellen Differenzialgleichungen. Unser Ansatz beruht auf der dreiecksbasierten Spektrale-Elemente-Methode. Zur Verbesserung der Performanz erweitern wir die dreiecksbasierte Spektrale-Elemente-Methode durch Algorithmen zur adaptiven Gitterverfeinerung. Aus vorherigen Untersuchungen wissen wir, dass die spektralen Methoden dadurch stark verbessert werden können. Für einen guten Vergleich verschiedener Verfeinerungskriterien betrachten wir ein heuristisches Kriterium sowie zwei spektrale Kriterien, die einen direkten Bezug zu unserer Methode aufweisen. Im Unterschied zu anderen Untersuchungen betrachten wir zeitabhängige Probleme mit der dreiecksbasierten Spektrale-Elemente-Methode. Für die zeitliche Diskretisierung der Turing-Mechanismen verwenden wir die allgemeine Theta-Integrationsmethode mit verschiedenen Werten für Theta. Um Probleme, die sich durch eine statische Zeitschrittweite ergeben, zu umgehen, stellen wir außerdem eine adaptive Zeitschrittweitensteuerung vor. Abschließend validieren wir unsere Methode auf zwei Arten. Zum einen betrachten wir drei verschiedene zeitunabhängige Modellprobleme, deren exakte Lösung bereits bekannt ist. Dies dient der allgemeinen Bestätigung, dass sowohl Methode als auch Implementierung korrekt sind. Zum anderen wenden wir unseren Ansatz auf die Turing-Mechanismen an. Für diese Gleichung ist uns keine Lösung bekannt, daher vergleichen wir unsere Ergebnisse mit theoretischen Annahmen. In Kapitel 7 werden wir feststellen, dass unsere Methode in Kombination mit einem spektralen Verfeinerungskriterium, einer adaptive Zeitschrittweite und zeitlicher Diskretisierung mittels Crank-Nicolson-Methode sehr gute Ergebnisse für beliebige Turing-Mechanismen liefert.
- Published
- 2020
19. Graduate School of Computational Engineering : GSC 233 : Excellence Initiative : final report for Graduate School : funding periods: 2007-2012, 2012-2017, 2017-2019 : DFG Project Number: 39112826
- Subjects
Numerische Strömungssimulation ,Mehrskalenmodell ,Computational Electromagnetics ,Multiphysics ,Computer Science ,Optimierung ,Software Engineering ,Uncertainty Quantification ,Numerische mathematik ,Informatik: Allgemeines ,Computersimulation ,Mathematische Modellierung - Abstract
Diagramme
- Published
- 2020
- Full Text
- View/download PDF
20. Locally solving linear systems for geometry processing
- Author
-
Herholz, Philipp, Alexa, Marc, Technische Universität Berlin, Panozzo, Daniele, and Crane, Keenan
- Subjects
Geometrieverarbeitung ,geometry processing ,ddc:004 ,numerische Mathematik ,004 Datenverarbeitung ,Informatik ,numerical solvers - Abstract
Geometry processing algorithms commonly need to solve linear systems involv- ing discrete Laplacians. In many cases this constitutes a central building block of the algorithm and dominates runtime. Usually highly optimized libraries are em- ployed to solve these systems, however, they are built to solve very general linear systems. I argue that it is possible to create more efficient algorithms by exploit- ing domain knowledge and modifying the structure of these solvers accordingly. In this thesis I take a first step in that direction. The focus lies on Cholesky fac- torizations that are commonly employed in the context of geometry processing. More specifically I am interested in the solution of linear systems where variables are associated with vertices of a mesh. The central question is: Given the Cholesky factorization of a linear system defined on the full mesh, how can we efficiently ob- tain solutions for a local set of vertices, possibly with new boundary conditions? I present methods to achieve this without computing the value at all vertices or refactoring the system from scratch. Developing these algorithms requires a de- tailed understanding of sparse Cholesky factorizations and modifications of their implementation. The methods are analyzed and validated in concrete applica- tions. Ideally this thesis will stimulates research in geometry processing and re- lated fields to jointly develop algorithms and numerical methods rather than treat- ing them as distinct blocks., Algorithmen im Feld der Geometrieverarbeitung benötigen in vielen Fällen die Lösung linearer Gleichungssysteme, die im Zusammenhang mit diskreten Laplace Operatoren stehen. Häufig stellt dies eine zentrale Operation dar, die die Laufzeit des Algorithmus maßgeblich mitbestimmt. Normalerweise werden dafür hoch optimierte Programmbibliotheken eingesetzt, die jedoch für sehr allgemeine lineare Systeme erstellt wurden. In dieser Arbeit schlage ich vor, effizientere Algorithmen zu konstruieren, indem die Struktur dieser Programmbibliotheken modifiziert und ausgenutzt wird. Der Fokus liegt hierbei auf der Cholesky Zerlegung, die im Kontext der Geometrieverarbeitung häufig Verwendung findet. Dabei interessiere ich mich besonders für Teile der Lösung linearer Gleichungssysteme, die zu einer lokalisierten Region auf dreidimension- alen Dreiecksnetzen gehören. Die zentrale Frage dabei lautet: Angenommen die Cholesky Zerlegung eines linearen Gleichungssystems, definiert auf dem gesamten Netz, ist gegeben. Wie kann man die Lösung an einer kleinen lokalisierten Menge von Knotenpunkten, möglicherweise unter neu gewählten Randbedingungen, effizient bestimmen? In dieser Arbeit zeige ich Wege auf, wie dies, ohne die Lösung an allen Knotenpunkten zu bestimmen oder die Zerlegung komplett neu zu berechnen, erreicht werden kann. Dazu ist es notwendig, die Funktionsweise von Methoden zur Cholesky Zerlegung dünnbesetzter Matrizen zu analysieren, um sie dann in geeigneter Weise zu modifizieren. Die Methoden werden anhand konkreter Anwendungsbeispiele analysiert. Im Idealfall kann diese Dissertation zukünftige Forschung im Bereich der Geometrieverarbeitung und verwandter Felder stimulieren, Algorithmen und numerische Methode gemeinsam zu entwickeln und sie nicht mehr als unabhängige Teile zu verstehen.
- Published
- 2020
- Full Text
- View/download PDF
21. Analysis of coupling interface problems for bi-domain diffusion equations
- Author
-
Munir, Taj
- Subjects
Numerische Mathematik ,518.53 - Abstract
In this thesis we study various numerical interface coupling conditions for diffusion equations in bio-physics or heat conduction problems. For this we take a one-dimensional case of a 3D model of Falcke [7] with two coupling conditions. The coupling interface conditions are given in Thul [37]. Originally they considered a system that models the intracellular calcium dynamics in a realistic fashion between the cytosolic region and the endoplasmic reticulum (ER) region of a living cell via channels on the membrane which separates both regions. The phenomenon of calcium dynamics is a multi-domain phenomenon. We analyze a numerical mathematical problem related to the calcium transport, i.e. a bi-domain problem with coupling conditions. In order to understand fundamental numerical issues better, we make an analytical and computational study of the one dimensional case derived from the three dimensional model of Falcke [7]. We compare these with other related coupling conditions. The coupling conditions that we consider in this thesis include the well-known Dirichlet-Neumann coupling, the heat ux coupling, a channel pumping, a simplified channel pumping, a membrane pumping and its special cases simplified membrane pumping and linearized membrane pumping conditions. We implemented three coupling algorithms namely, an explicit coupling algorithm (A1), an implicit monolithic coupling algorithm (A2), an implicit partitioned iterative coupling algorithm (A3) for the various coupling conditions with bi-domain diffusion equations. The partitioned iterative approach is a bit more complicated because we have the two unknowns corresponding to the each sub-domain. Despite this problem we manage to achieve a numerical solution via sub-iterations. Such algorithms may be useful for parallel computation. The main emphasis of this work is to study the numerical properties of coupling conditions. We give a detailed account of the Godunov-Ryabenkii stability theory for coupling conditions that was introduced by Giles [10] for this purpose. An important point is to maintain conservativity of the overall scheme. Therefore, we first study this property for the coupling conditions. Unfortunately, Giles neglected to maintain conservativity of his scheme and by using an inconsistent scheme produced artificial instabilities. We show how conservativity is maintained in nodal based as well as finite volume type discretizations. Nodal based schemes need a central difference approximation with respect to the node at the coupling boundary. Finite volume schemes have to use one sided difference with respect to the cell center. It is a central difference with respect to the cell boundary which is also the interface boundary. An analogous result is shown for the homogeneous Neumann outer boundary condition. We then proceed to prove stability for these coupling conditions. For this purpose we prove a lemma that describes in detail properties of the solutions to the normal mode equations that are useful to Godunov-Ryabenkii analysis of the coupling conditions. For comparison we first treat some boundary conditions related to ux coupling conditions. The simplest coupling, which was the one considered by Giles [10], is Dirichlet-Neumann coupling. The more complex couplings considered in this thesis lead to additional conditional stability conditions. The theoretical results on conservativity and stability are confirmed in computations for a variety of test cases., In dieser Arbeit werden verschiedene Kopplungsbedingungen für die Diffusionsgleichung aus der Biophysik oder aus Problemen im Bereich der Wärmeleitung numerisch unter-sucht. Hierfür wird ein eindimensionaler Fall des 3D Modells von Falcke [7] mit zwei Kopplungsbedingungen verwendet. Die Kopplungsbedingungen an der Grenzfläche sind Thul [37] entnommen. Ursprünglich betrachteten sie ein System, das die intrazelluläre Kalziumdynamik in realistischer Weise zwischen der zytosolischen Region und der Re-gion des Endoplasmatischen Retikulums (ER) einer lebenden Zelle über Kanäle auf der Membran, welche die beide Regionen trennt, modelliert. Das Phänomen der Kalziumdynamik ist ein Phänomen mehrerer gekoppelter Ge-biete. Wir untersuchen ein mathematisches Problem, das mit dem Kalziumtransport zusammenhängt. Es ist ein Problem mit Kopplungsbedingungen zwischen zwei Teil-intervallen. Um grundlegende numerische Fragen besser zu verstehen, führen wir an-alytische und rechnerische Untersuchungen des eindimensionalen Falls durch, der aus dem dreidimensionalen Modell von Falcke abgeleitet wurde [7]. Wir vergleichen diese mit anderen verwandten Kopplungsbedingungen. Die Kopplungsbedingungen, die wir in dieser Arbeit betrachten, umfassen die bekannte Dirichlet-Neumann-Kopplung, die Wärmeflusskopplung, ein Kanalpumpen, ein vereinfachtes Kanalpumpen, ein Membran-pumpen und seine Spezialfälle vereinfachtes Membranpumpen sowie linearisiertes Mem-branpumpen. Wir implementierten drei Kopplungsalgorithmen, nämlich einen expliziten Kopplungsal-gorithmus (A1), einen impliziten monolithischen Kopplungsalgorithmus (A2), sowie einen impliziten partitionierten iterativen Kopplungsalgorithmus (A3) für die verschiedenen Kopplungensbedingungen. Der partitionierte iterative Ansatz ist dabei etwas komplizierter, da wir zwei unbekannte Vektoren haben, die den jeweiligen Unterbereichen entsprechen. Trotz dieser Schwierigkeiten erhalten wir eine numerische Lösung des Problems mithilfe sogenannter sub-Iterationen. Derartige Vorgehensweisen können für paralleles Rechnen nützlich sein. Der Schwerpunkt dieser Arbeit liegt auf der Untersuchung der numerischen Eigen-schaften von Kopplungsbedingungen. Wir geben eine detaillierte Darstellung der Godunov-Ryabenkii-Stabilitätstheorie für Kopplungsbedingungen, die von Giles [10] zu diesem Zweck eingeführt wurde. Ein wichtiger Punkt ist die Aufrechterhaltung der Erhaltung-seigenschaft des Gesamtsche-mas. Deshalb untersuchen wir zunächst die Kopplungsbe-dingungen auf diese Eigenschaft. Leider hat Giles es versäumt, eben diese Eigenschaft seines Schemas beizubehalten, und durch die Verwendung eines inkonsistenten Schemas künstliche Instabilitäten erzeugt. Wir zeigen, wie die Erhaltungseigenschaft sowohl bei knotenbasierten als auch bei finite Volumen Diskretisierungen beibehalten wird. Knoten-basierte Schemata benötigen eine zentrale Differenzenapproximation in Bezug auf den Knoten an der Kopplungsgrenze. Finite Volumen Verfahren müssen eine einseitige Dif-ferenz in Bezug auf das Zellzentrum verwenden. Dies kann auch als eine zentrale Differenz in Bezug auf die Zellgrenze, welche gleichzeitig die Grenzfläche darstellt, aufgefasst wer-den. Ein analoges Resultat gilt auch für homogene Neumann Randbedingungen Wir fahren fort mit dem Nachweis der Stabilität für diese Kopplungsbedingungen. Zu diesem Zweck beweisen wir ein Lemma, welches Eigenschaften der Lösungen der Normalmodengleichungen, die für die Godunov-Ryabenkii-Analyse der Kopplungsbedingun-gen nützlich sind, detailliert beschreibt. Zum Vergleich behandeln wir zunächst einige Randbedingungen, die mit den Kopplungsbedingungen der Wäremleitung zusammenhängen. Die einfachste Kopplung, die von Giles [10] betrachtet wurde, ist die Dirichlet-Neumann-Kopplung. Die in dieser Arbeit betrachteten komplexeren Kopplungen führen zu zusätzlichen Stabilitätsbedingungen. Die theoretischen Ergebnisse zur Erhaltungseigenschaft und Stabilität werden für eine Vielzahl von Testfällen durch numerische Berechnungen bestätigt.
- Published
- 2020
- Full Text
- View/download PDF
22. Probabilistic Ordinary Differential Equation Solvers - Theory and Applications
- Author
-
Schober, Michael and Hennig, Philipp (Prof. Dr.)
- Subjects
Ordinary Differential Equations ,Probabilistic Numerics ,Gaussian processes ,Numerische Mathematik - Abstract
Ordinary differential equations are ubiquitous in science and engineering, as they provide mathematical models for many physical processes. However, most practical purposes require the temporal evolution of a particular solution. Many relevant ordinary differential equations are known to lack closed-form solutions in terms of simple analytic functions. Thus, users rely on numerical algorithms to compute discrete approximations. Numerical methods replace the intractable, and thus inaccessible, solution by an approximating model with known computational strategies. This is akin to a process in statistics where an unknown true relationship is modeled with access to instances of said relationship. One branch of statistics, Bayesian modeling, expresses degrees of uncertainty with probability distributions. In recent years, this idea has gained traction for the design and study of numerical algorithms which established probabilistic numerics as a research field in its own right. The theory part of this thesis is concerned with bridging the gap between classical numerical methods for ordinary differential equations and probabilistic numerics. To this end, an algorithm is presented based on Gaussian processes, a general and versatile model for Bayesian regression. This algorithm is compared to two standard frameworks for the solution of initial value problems. It is shown that the maximum a-posteriori estimator of certain Gaussian process regressors coincide with certain multistep formulae. Furthermore, a particular initialization scheme based on an improper prior model coincides with a Runge-Kutta method for the first discretization step. This analysis provides a higher-order probabilistic numerical algorithm for initial value problems. Based on the probabilistic description, an estimator of the local integration error is presented, which is used in a step size adaptation scheme. The completed algorithm is evaluated on a benchmark on initial value problems, confirming empirically the theoretically predicted error rates and displaying particularly efficient performance on domains with low accuracy requirements. To establish the practical benefit of the probabilistic solution, a probabilistic boundary value problem solver is applied to a medical imaging problem. In tractography, diffusion-weighted magnetic resonance imaging data is used to infer connectivity of neural fibers. The first application of the probabilistic solver shows how the quantification of the discretization error can be used in subsequent estimation of fiber density. The second application additionally incorporates the measurement noise of the imaging data into the tract estimation model. These two extensions of the shortest-path tractography method give more faithful data, modeling and algorithmic uncertainty representations in neural connectivity studies., Gewöhnliche Differentialgleichungen sind allgegenwärtig in Wissenschaft und Technik, da sie die mathematische Beschreibung vieler physikalischen Vorgänge sind. Jedoch benötigt ein Großteil der praktischen Anwendungen die zeitliche Entwicklung einer bestimmten Lösung. Es ist bekannt, dass viele relevante gewöhnliche Differentialgleichungen keine geschlossene Lösung als Ausdrücke einfacher analytischer Funktion besitzen. Daher verlassen sich Anwender auf numerische Algorithmen, um diskrete Annäherungen zu berechnen. Numerische Methoden ersetzen die unauswertbare, und daher unzugängliche, Lösung durch eine Annäherung mit bekannten Rechenverfahren. Dies ähnelt einem Vorgang in der Statistik, wobei ein unbekanntes wahres Verhältnis mittels Zugang zu Beispielen modeliert wird. Eine Unterdisziplin der Statistik, Bayes’sche Modellierung, stellt graduelle Unsicherheit mittels Wahrscheinlichkeitsverteilungen dar. In den letzten Jahren hat diese Idee an Zugkraft für die Konstruktion und Analyse von numerischen Algorithmen gewonnen, was zur Etablierung von probabilistischer Numerik als eigenständiges Forschungsgebiet führte. Der Theorieteil dieser Dissertation schlägt eine Brücke zwischen herkömmlichen numerischen Verfahren zur Lösung gewöhnlicher Differentialgleichungen und probabilistischer Numerik. Ein auf Gauß’schen Prozessen basierender Algorithmus wird vorgestellt, welche ein generelles und vielseitiges Modell der Bayesschen Regression sind. Dieser Algorithmus wird verglichen mit zwei Standardansätzen für die Lösung von Anfangswertproblemen. Es wird gezeigt, dass der Maximum-a-posteriori-Schätzer bestimmter Gaußprozess-Regressoren übereinstimmt mit bestimmten Mehrschrittverfahren. Weiterhin stimmt ein besonderes Initialisierungsverfahren basierend auf einer uneigentlichen A-priori-Wahrscheinlichkeit überein mit einer Runge-Kutta Methode im ersten Rechenschritt. Diese Analyse führt zu einer probabilistisch-numerischen Methode höherer Ordnung zur Lösung von Anfangswertproblemen. Basierend auf der probabilistischen Beschreibung wird ein Schätzer des lokalen Integrationfehlers präsentiert, welcher in einem Schrittweitensteuerungsverfahren verwendet wird. Der vollständige Algorithmus wird auf einem Satz standardisierter Anfangswertprobleme ausgewertet, um empirisch den von der Theorie vorhergesagten Fehler zu bestätigen. Der Test weist dem Verfahren einen besonders effizienten Rechenaufwand im Bereich der niedrigen Genauigkeitsanforderungen aus. Um den praktischen Nutzen der probabilistischen Lösung nachzuweisen, wird ein probabilistischer Löser für Randwertprobleme auf eine Fragestellung der medizinischen Bildgebung angewandt. In der Traktografie werden die Daten der diffusionsgewichteten Magnetresonanzbildgebung verwendet, um die Konnektivität neuronaler Fasern zu bestimmen. Die erste Anwendung des probabilistische Lösers demonstriert, wie die Quantifizierung des Diskretisierungsfehlers in einer nachgeschalteten Schätzung der Faserdichte verwendet werden kann. Die zweite Anwendung integriert zusätzlich das Messrauschen der Bildgebungsdaten in das Strangschätzungsmodell. Diese beiden Erweiterungen der Kürzesten-Pfad-Traktografie repräsentieren die Daten-, Modellierungs- und algorithmische Unsicherheit abbildungstreuer in neuronalen Konnektivitätsstudien.
- Published
- 2019
23. Fast Solution of the Poisson-Boltzmann Equation by the Reduced Basis Method and Range-Separated Canonical Tensor Format
- Author
-
Kweyu, Cleophas Muganda
- Subjects
518.6 ,Numerische Mathematik - Abstract
We consider the fast and accurate numerical solution of the Poisson-Boltzmann equation (PBE), a three-dimensional second-order nonlinear elliptic parametrized partial differential equation (PPDE), which is ubiquitous in biophysics. It is an implicit solvent continuum model for calculating the electrostatic potential and energies of ionic solvated biomolecules. However, its numerical solution encounters severe challenges arising from: (i) strong singularities caused by the singular source terms and described by Dirac delta distributions; (ii) rapid nonlinearities caused by the exponential nonlinear terms; (iii) three spatial dimensions which lead to a high number of degrees of freedom in the resultant algebraic system of equations of size O(105)-O(106) resulting from large domains, necessary to accommodate large sizes of macromolecules and for accurate approximation of boundary conditions due to the slow polynomial decay of the electrostatic potential in the form of 1=k xk as x ! 1; and (iv) computationally expensive PBE simulations, for example, the Brownian dynamics simulations, whereby the PBE requires to be solved multiple times for a large number of system con gurations. In this thesis, we for the rst time eliminate the e ect of strong singularities by applying the novel range-separated (RS) canonical tensor format [15, 17] for the construction of an e cient regularization scheme for the PBE. The RS tensor format allows to derive a smooth approximation to the Dirac delta distribution introduced in [85] in order to construct a regularized PBE (RPBE) model which computes smooth long-range electrostatic potentials, thereby circumventing the building of numerical approximations to the singular solution, resulting in increased accuracy. Consequently, the main computational bene ts are due to the localization of the regularized Dirac delta distributions within the molecular region and automatic maintaining of the continuity in the Cauchy data on the solute-solvent interface [85]. The total electrostatic potential is obtained by adding the regularized long-range solution to the directly precomputed short-range potential component determined from the RS splitting of the Newton potential. Furthermore, to accelerate the computations resulting from challenges (iii) and (iv), we for the rst time employ the reduced basis method (RBM) to substantially reduce the computational complexity by constructing a surrogate reduced order model (ROM) of typically low dimension, whose solution accurately approximates the original PBE. Moreover, the discrete empirical interpolation (DEIM), is applied to the parametric nona ne Dirichlet boundary conditions (of Yukawa potential type) in order to signi - cantly reduce the computational complexity of the nona ne function by interpolation, whereby only a few entries are computed. On examples of several biomolecules, we demonstrate in the numerical experiments, the accuracy and e cacy of the RBM approximation for the nonlinear RPBE and the corresponding computational savings over the classical PBE., Wir beschäftigen uns mit der schnellen und genauen numerischen Lösung der Poisson- Boltzmann-Gleichung (PBG), einer dreidimensionalen nichtlinearen elliptischen parametrischen partiellen Di erentialgleichung (PPDGL) zweiter Ordnung, die in der Biophysik allgegenwärtig ist. Diese ist ein implizites kontinuumsmechanisches Modell um das elektrostatische Potential und die Energie der ionisch gelösten Biomoleküle zu berechnen. Allerdings treten schwierige Herausforderungen beim numerischen Lösen auf: (i) starke Singularitäten, die durch den singulären Quellterm, der durch die Dirac Deltaverteilung beschrieben wird, entstehen; (ii) schnelle Nichtlinearitäten, die durch den exponentiellen, nichtlinearen Term hervorgerufen werden; (iii) drei räumliche Dimensionen, die zu einer Vielzahl an Freiheitsgraden in dem resultierenden algebraischen Gleichungssystem der Größe O(105) - O(106) führen, welches aus einem großen Gebiet resultiert, das nötig ist um große Makromoleküle unterzubringen und um die Randbedingungen aufgrund eines langsamen polynomiellen Abfalls des elektrostatischen Potentials in Gestalt von 1=k xk als x ! 1 genau approximieren zu können; und (iv) rechenintensive PBG Simulationen, wie zum Beispiel Brownsche Dynamiksimulationen, bei denen die PBG mehrfach für viele Systemeinstellungen gelöst werden muss. In dieser Dissertation werden wir zum ersten Mal den E ekt der starken Singularitäten entfernen, in dem wir das neuartige bereichstrennende kanonische Tensorformat [15, 17] zur Konstruktion eines effizienten Regularisierungsschemas für die PBG anwenden. Mit diesem Tensorformat kann eine glatte Approximation der Dirac Deltaverteilung, die in [85] eingeführt wurde, hergeleitet werden, um ein regularisiertes PBG (RPBG) Modell zu konstruieren, das glatte elektrostatische Potentiale berechnet und dabei verhindert, dass numerische Approximationen zur singulären Lösung erstellt werden, was zu einer erhöhten Genauigkeit führt. Folglich sind die wichtigsten Rechenvorteile darauf zurückzuführen, dass die regularisierte Dirac Deltaverteilung auf das molekulare Gebiet beschränkt ist und die Stetigkeit in den Cauchy-Daten auf dem Lösungsmittel-Interface [85] automatisch erhalten werden. Das gesamte elektrostatische Potential wird dann durch Hinzufügen der regularisierten weitreichenden Lösung zur vorher berechneten kurzzeitigen Potentialkomponente, die durch das bereichstrennende Aufteilen des Newton-Potentials bestimmt wird, berechnet. Um die Berechnungen, die aus den Herausforderungen (iii) und (iv) resultieren, außerdem zu beschleunigen, haben wir zum ersten Mal die reduzierte Basen Methode (RBM) angewandt, um im Wesentlichen den Rechenaufwand zu reduzieren. Dafür wird ein Modell reduzierter Ordnung (ROM) konstruiert, dessen Lösung die originale PBG exakt approximiert. Darüber hinaus wird die diskrete empirische Interpolation (DEIM) auf die parametrischen nicht-affinen Dirichlet-Randbedingungen (von Yukawa Potentialart) angewandt um den Rechenaufwand der nicht-affinen Funktion durch Interpolation zu verringern, wobei nur wenige Einträge berechnet werden. Anhand von Beispielen ver schiedener Biomoleküle werden wir die Genauigkeit und Effizienz der RBM Approximation für die nichtlineare RPBG und die zugehörigen rechnerischen Einsparungen verglichen mit der klassischen PGB aufzeigen.
- Published
- 2019
24. Time integration for the dynamical low-rank approximation of matrices and tensors
- Author
-
Walach, Hanna Maria and Lubich, Christian (Prof. Dr.)
- Subjects
Singulärwerte ,Singular value decomposition ,Zeitintegration ,Gewöhnliche Differentialgleichung , Matrix , Tensor , Rang ,Tucker Tensor Format ,Dynamical low-rank approximation ,High-dimensional equations ,Singular values ,+%2C+Tensor+%2C+Rang+ ,%22">Gewöhnliche Differentialgleichung , Matrix , Tensor , Rang Time integration ,Singulärwertzerlegung ,Dynamische Niedrigrangapproximation ,Hochdimensionale Gleichungen ,Tensor Train Format ,Numerische Mathematik ,Numerical analysis - Abstract
This thesis is concerned with the low-rank approximation of time-dependent high-dimensional matrices and tensors that can be given explicitly or are the unknown solution to a matrix or tensor differential equation. Large differential equations typically arise from a space discretization of a high-dimensional evolutionary partial differential equation and are not solvable by direct discretization because of their sheer size. The dynamical low-rank approximation approach counters this computational infeasibility by evolving a differential equation for an approximation matrix or tensor with underlying low-rank structure. The Lipschitz constant of the right-hand side of this differential equation grows inversely proportional to the size of the smallest singular value of the approximation matrix or of matricizations of the approximate tensor. Therefore, standard numerical integrators deteriorate in this situation. In practice, small singular values appear often due to overapproximation. A constitutive method for time integration of matrices in low-rank format is the matrix projector-splitting integrator. It updates factor matrices of the underlying truncated singular value decomposition. We present a rigorous error analysis for this integrator that shows its robustness with respect to small singular values and its first order convergence. This result is achieved by using the exactness property of the integrator and the preservation of subspaces during the integration procedure. By means of the same ingredients, we extend this error analysis to the time integrator of tensor trains. We further derive an integration method for time-dependent Tucker tensors. Matricizations of Tucker tensors enable us to a nested application of a modified version of the matrix projector-splitting integrator, where a substep in the integration step is not done exactly, but by another low-rank approximation. This nested Tucker integrator turns out to be exact in the explicit case and robust in the presence of small singular values of matricizations of the Tucker tensor. We also propose a numerical integrator for the approximation of a matrix that is the unknown solution to a stiff matrix differential equation. We deal with a class of matrix differential equations that is characterized by a stiff linear and a non-stiff nonlinear part. This integrator separates the stiff differential equation into a linear and a nonlinear subproblem by the Lie-Trotter splitting method. We show an error bound of order one that is independent of singular values and of the severe Lipschitz constant. We contribute to the development and to the analysis of efficient and robust time integration methods by following the dynamical low-rank approximation approach using low-rank structures of matrix and tensor representations., Die Niedrigrangapproximation zeitabhängiger, hochdimensionaler Matrizen und Tensoren, die explizit oder implizit als unbekannte Lösung einer Matrix- oder Tensordifferentialgleichung gegeben sein können, ist Gegenstand der Betrachtung. Differentialgleichungen für sehr große Matrizen und Tensoren treten typischerweise nach der Ortsdiskretisierung einer hochdimensionalen partiellen Differentialgleichung auf und sind auf Grund der Größe der Matrix beziehungsweise des Tensors nicht direkt lösbar. Der Ansatz der dynamischen Niedrigrangapproximation bringt eine Differentialgleichung für die Approximationsmatrix oder den -tensor mit Niedrigrangstruktur hervor und wirkt den rechentechnischen Schwierigkeiten auf diese Weise entgegen. Die Lipschitzkonstante der rechten Seite dieser Differentialgleichung verhält sich jedoch proportional zur Inversen des kleinsten Singulärwertes der Approximationsmatrix beziehungsweise der Matrizisierungen des Approximationstensors. Aus diesem Grund sind klassische numerische Verfahren nicht praktikabel, da sie eine starke Schrittweitenbeschränkung erfordern, um Lösungen zu liefern. In der Anwendung der Niedrigrangapproximation ist a priori nicht klar wie groß der effektive Rang der zu approximierenden Matrix oder des Tensors ist und daher wird dieser oft zu groß gewählt. Dies führt dazu, dass kleine Singulärwerte auftreten. Der Matrixintegrator ist ein wesentliches Verfahren für die Zeitintegration von Matrizen im Singulärwert zerlegten Niedrigrangformat und ist grundlegend für diese Arbeit. Er bestimmt die drei Faktormatrizen zum nächsten Zeitpunkt und liefert so eine Approximationslösung von niedrigem Rang. Wir führen eine Fehleranalyse dieses Integrators durch, die eine Konvergenz erster Ordnung zeigt und die eine Fehlerschranke unabhängig von kleinen Singulärwerten nachweist. Um die Schwierigkeit mit der Lipschitzkonstante zu umgehen, machen wir Gebrauch von der Exaktheit des Integrators im expliziten Fall und von der Beobachtung, dass jeweils eine der beiden Basismatrizen der Singulärwertzerlegung während der Zeitintegration konstant bleibt. Mit den gleichen Ideen lässt sich die Fehleranalyse für den Integrator für Tensor Trains ausweiten. Ferner entwickeln wir eine Integrationsmethode für die Zeitentwicklung von Tucker-Tensoren. Die Matrizisierung von Tucker Tensoren erlaubt es uns eine leicht abgeänderte Version des Matrixintegrators anzuwenden, indem wir die ersten beiden Teilschritte direkt lösen, beim dritten Schritt hingegen eine Niedrigrangapproximation durchführen. Dieser Tucker Integrator ist exakt wenn der zu approximierende Tensor explizit gegeben ist. Dieses Verfahren liefert auch bei auftretenden kleinen Singulärwerten gute Ergebnisse, was aus der Fehleranalyse hervorgeht, die Fehlerschranken angibt, welche unabhängig von Singulärwerten sind. Überdies beschäftigen wir uns mit der Niedrigrangapproximation von Lösungsmatrizen steifer Differentialgleichungen. Hierbei betrachten wir jene Differentialgleichungen, die aus einem linearen und steifen sowie einem nichtlinearen und nicht steifen Anteil bestehen. Die Hauptidee dieses Integrationsverfahrens besteht darin, den steifen vom nicht steifen Anteil mit Hilfe der Lie-Trotter Splittingmethode zu trennen und die beiden resultierenden Differentialgleichungen für sich zu lösen. Auf Grund dieser Aufteilung ist es möglich eine Fehleranalyse zu führen, die aufzeigt, dass das Verfahren von der Lipschitzkonstanten nicht beeinflusst wird und dass dessen Fehlerschranke unabhängig von Singulärwerten ist. Die vorliegende Arbeit ist ein Beitrag zur Entwicklung sowie zur numerischen Analyse effizienter und bezüglich kleiner Singulärwerte robuster numerischer Integrationsverfahren. Grundlegend hierfür ist das Verfahren der dynamischen Niedrigrangapproximation unter Verwendung einer Niedrigrangfaktorisierung der Matrix oder des Tensors.
- Published
- 2019
- Full Text
- View/download PDF
25. Contributions to the Simulation and Optimization of the Manufacturing Process and the Mechanical Properties of Short Fiber-Reinforced Plastic Parts
- Author
-
Ospald, Felix, Herzog, Roland, Stingl, Michael, Andrä, Heiko, and Technische Universität Chemnitz
- Subjects
ddc:519 ,ddc:518 ,ddc:531 ,ddc:530 ,injection molding, short fiber-reinforced plastics, closure approximation, exact closure, angular central Gaussian, elliptic integrals, homogenization, staggered grid, composite voxels, optimal experimental design, topology optimization, SIMP, warpage compensation, Folgar-Tucker equation, Jeffery's equation, Lippmann-Schwinger equation, FFT ,Spritzgießen ,Navier-Stokes-Gleichung ,Kurzfaser ,Faserverstärkter Kunststoff ,Homogenisierung ,Elastizität ,Hyperelastizität ,Elliptisches Integral ,Nichtnewtonsche Strömung ,Statistik ,Normalverteilung ,Numerische Mathematik ,Optimierung ,ddc:510 ,ddc:532 ,ddc:515 - Abstract
This thesis addresses issues related to the simulation and optimization of the injection molding of short fiber-reinforced plastics (SFRPs). The injection molding process is modeled by a two phase flow problem. The simulation of the two phase flow is accompanied by the solution of the Folgar-Tucker equation (FTE) for the simulation of the moments of fiber orientation densities. The FTE requires the solution of the so called 'closure problem'', i.e. the representation of the 4th order moments in terms of the 2nd order moments. In the absence of fiber-fiber interactions and isotropic initial fiber density, the FTE admits an analytical solution in terms of elliptic integrals. From these elliptic integrals, the closure problem can be solved by a simple numerical inversion. Part of this work derives approximate inverses and analytical inverses for special cases of fiber orientation densities. Furthermore a method is presented to generate rational functions for the computation of arbitrary moments in terms of the 2nd order closure parameters. Another part of this work treats the determination of effective material properties for SFRPs by the use of FFT-based homogenization methods. For these methods a novel discretization scheme, the 'staggered grid'' method, was developed and successfully tested. Furthermore the so called 'composite voxel'' approach was extended to nonlinear elasticity, which improves the approximation of material properties at the interfaces and allows the reduction of the model order by several magnitudes compared to classical approaches. Related the homogenization we investigate optimal experimental designs to robustly determine effective elastic properties of SFRPs with the least number of computer simulations. Finally we deal with the topology optimization of injection molded parts, by extending classical SIMP-based topology optimization with an approximate model for the fiber orientations. Along with the compliance minimization by topology optimization we also present a simple shape optimization method for compensation of part warpage for an black-box production process.:Acknowledgments v Abstract vii Chapter 1. Introduction 1 1.1 Motivation 1 1.2 Nomenclature 3 Chapter 2. Numerical simulation of SFRP injection molding 5 2.1 Introduction 5 2.2 Injection molding technology 5 2.3 Process simulation 6 2.4 Governing equations 8 2.5 Numerical implementation 18 2.6 Numerical examples 25 2.7 Conclusions and outlook 27 Chapter 3. Numerical and analytical methods for the exact closure of the Folgar-Tucker equation 35 3.1 Introduction 35 3.2 The ACG as solution of Jeffery's equation 35 3.3 The exact closure 36 3.4 Carlson-type elliptic integrals 37 3.5 Inversion of R_D-system 40 3.6 Moment tensors of the angular central Gaussian distribution on the n-sphere 49 3.7 Experimental evidence for ACG distribution hypothesis 54 3.8 Conclusions and outlook 60 Chapter 4. Homogenization of SFRP materials 63 4.1 Introduction 63 4.2 Microscopic and macroscopic model of SFRP materials 63 4.3 Effective linear elastic properties 65 4.4 The staggered grid method 68 4.5 Model order reduction by composite voxels 80 4.6 Optimal experimental design for parameter identification 93 Chapter 5. Optimization of parts produced by SFRP injection molding 103 5.1 Topology optimization 103 5.2 Warpage compensation 110 Chapter 6. Conclusions and perspectives 115 Appendix A. Appendix 117 A.1 Evaluation of R_D in Python 117 A.2 Approximate inverse for R_D in Python 117 A.3 Inversion of R_D using Newton's/Halley's method in Python 117 A.4 Inversion of R_D using fixed point method in Python 119 A.5 Moment computation using SymPy 120 A.6 Fiber collision test 122 A.7 OED calculation of the weighting matrix 123 A.8 OED Jacobian of objective and constraints 123 Appendix B. Theses 125 Bibliography 127 Diese Arbeit befasst sich mit Fragen der Simulation und Optimierung des Spritzgießens von kurzfaserverstärkten Kunststoffen (SFRPs). Der Spritzgussprozess wird durch ein Zweiphasen-Fließproblem modelliert. Die Simulation des Zweiphasenflusses wird von der Lösung der Folgar-Tucker-Gleichung (FTE) zur Simulation der Momente der Faserorientierungsdichten begleitet. Die FTE erfordert die Lösung des sogenannten 'Abschlussproblems'', d. h. die Darstellung der Momente 4. Ordnung in Form der Momente 2. Ordnung. In Abwesenheit von Faser-Faser-Wechselwirkungen und anfänglich isotroper Faserdichte lässt die FTE eine analytische Lösung durch elliptische Integrale zu. Aus diesen elliptischen Integralen kann das Abschlussproblem durch eine einfache numerische Inversion gelöst werden. Ein Teil dieser Arbeit leitet approximative Inverse und analytische Inverse für spezielle Fälle von Faserorientierungsdichten her. Weiterhin wird eine Methode vorgestellt, um rationale Funktionen für die Berechnung beliebiger Momente in Bezug auf die Abschlussparameter 2. Ordnung zu generieren. Ein weiterer Teil dieser Arbeit befasst sich mit der Bestimmung effektiver Materialeigenschaften für SFRPs durch FFT-basierte Homogenisierungsmethoden. Für diese Methoden wurde ein neuartiges Diskretisierungsschema 'staggerd grid'' entwickelt und erfolgreich getestet. Darüber hinaus wurde der sogenannte 'composite voxel''-Ansatz auf die nichtlineare Elastizität ausgedehnt, was die Approximation der Materialeigenschaften an den Grenzflächen verbessert und die Reduzierung der Modellordnung um mehrere Größenordnungen im Vergleich zu klassischen Ansätzen ermöglicht. Im Zusammenhang mit der Homogenisierung untersuchen wir optimale experimentelle Designs, um die effektiven elastischen Eigenschaften von SFRPs mit der geringsten Anzahl von Computersimulationen zuverlässig zu bestimmen. Schließlich beschäftigen wir uns mit der Topologieoptimierung von Spritzgussteilen, indem wir die klassische SIMP-basierte Topologieoptimierung um ein Näherungsmodell für die Faserorientierungen erweitern. Neben der Compliance-Minimierung durch Topologieoptimierung stellen wir eine einfache Formoptimierungsmethode zur Kompensation von Teileverzug für einen Black-Box-Produktionsprozess vor.:Acknowledgments v Abstract vii Chapter 1. Introduction 1 1.1 Motivation 1 1.2 Nomenclature 3 Chapter 2. Numerical simulation of SFRP injection molding 5 2.1 Introduction 5 2.2 Injection molding technology 5 2.3 Process simulation 6 2.4 Governing equations 8 2.5 Numerical implementation 18 2.6 Numerical examples 25 2.7 Conclusions and outlook 27 Chapter 3. Numerical and analytical methods for the exact closure of the Folgar-Tucker equation 35 3.1 Introduction 35 3.2 The ACG as solution of Jeffery's equation 35 3.3 The exact closure 36 3.4 Carlson-type elliptic integrals 37 3.5 Inversion of R_D-system 40 3.6 Moment tensors of the angular central Gaussian distribution on the n-sphere 49 3.7 Experimental evidence for ACG distribution hypothesis 54 3.8 Conclusions and outlook 60 Chapter 4. Homogenization of SFRP materials 63 4.1 Introduction 63 4.2 Microscopic and macroscopic model of SFRP materials 63 4.3 Effective linear elastic properties 65 4.4 The staggered grid method 68 4.5 Model order reduction by composite voxels 80 4.6 Optimal experimental design for parameter identification 93 Chapter 5. Optimization of parts produced by SFRP injection molding 103 5.1 Topology optimization 103 5.2 Warpage compensation 110 Chapter 6. Conclusions and perspectives 115 Appendix A. Appendix 117 A.1 Evaluation of R_D in Python 117 A.2 Approximate inverse for R_D in Python 117 A.3 Inversion of R_D using Newton's/Halley's method in Python 117 A.4 Inversion of R_D using fixed point method in Python 119 A.5 Moment computation using SymPy 120 A.6 Fiber collision test 122 A.7 OED calculation of the weighting matrix 123 A.8 OED Jacobian of objective and constraints 123 Appendix B. Theses 125 Bibliography 127
- Published
- 2019
26. BROYDEN'S METHOD FOR NONLINEAR EIGENPROBLEMS
- Author
-
Jarlebring, Elias and Jarlebring, Elias
- Abstract
Broyden's method is a general method commonly used for nonlinear systems of equations when very little information is available about the problem. We develop an approach based on Broyden's method for the structure appearing in nonlinear eigenvalue problems. Our approach is designed for problems where the evaluation of a matrix vector product is computationally expensive, essentially as expensive as solving the corresponding linear system of equations. We show how the structure of the Jacobian matrix can be incorporated into the algorithm to improve convergence. The algorithm exhibits local superlinear convergence for simple eigenvalues, and we characterize the convergence. We show how deflation can be integrated and combined such that the method can be used to compute several eigenvalues. A specific problem in machine tool milling, coupled with a PDE, is used to illustrate the approach. The simulations were carried out using the Julia programming language, and the simulation software is provided publicly for reproducibility., QC 20190813
- Published
- 2019
- Full Text
- View/download PDF
27. Optimization in tensor spaces for data science and scientific computing
- Author
-
Heidel, Gennadij
- Subjects
Multilineare Algebra ,multilinear algebra ,numerical analysis ,nonlinear programming ,Nichtlineare Optimierung ,Numerische Mathematik - Abstract
In this thesis, we consider the solution of high-dimensional optimization problems with an underlying low-rank tensor structure. Due to the exponentially increasing computational complexity in the number of dimensions—the so-called curse of dimensionality—they present a considerable computational challenge and become infeasible even for moderate problem sizes. Multilinear algebra and tensor numerical methods have a wide range of applications in the fields of data science and scientific computing. Due to the typically large problem sizes in practical settings, efficient methods, which exploit low-rank structures, are essential. In this thesis, we consider an application each in both of these fields. Tensor completion, or imputation of unknown values in partially known multiway data is an important problem, which appears in statistics, mathematical imaging science and data science. Under the assumption of redundancy in the underlying data, this is a well-defined problem and methods of mathematical optimization can be applied to it. Due to the fact that tensors of fixed rank form a Riemannian submanifold of the ambient high-dimensional tensor space, Riemannian optimization is a natural framework for these problems, which is both mathematically rigorous and computationally efficient. We present a novel Riemannian trust-region scheme, which compares favourably with the state of the art on selected application cases and outperforms known methods on some test problems. Optimization problems governed by partial differential equations form an area of scientific computing which has applications in a variety of areas, ranging from physics to financial mathematics. Due to the inherent high dimensionality of optimization problems arising from discretized differential equations, these problems present computational challenges, especially in the case of three or more dimensions. An even more challenging class of optimization problems has operators of integral instead of differential type in the constraint. These operators are nonlocal, and therefore lead to large, dense discrete systems of equations. We present a novel solution method, based on separation of spatial dimensions and provably low-rank approximation of the nonlocal operator. Our approach allows the solution of multidimensional problems with a complexity which is only slightly larger than linear in the univariate grid size; this improves the state of the art for a particular test problem problem by at least two orders of magnitude., In dieser Arbeit betrachten wir die Lösung hochdimensionaler Optimierungsprobleme, welchen eine Tensorstruktur niedrigen Ranges zugrunde liegt. Da die rechnerische Komplexität exponentiell mit der Anzahl der Dimensionen anwächst – dies wird als curse of dimensionality (”Fluch der Dimensionalität“) bezeichnet – stellen sie eine beträchtliche rechnerische Herausforderung dar und hören bereits für moderate Problemgrößen auf handhabbar zu sein. Multilineare Algebra und numerische Methoden für Tensoren haben eine Reihe von Anwendungen in den Gebieten von Data Science und des wissenschaftlichen Rechnens. Da praktische Probleme typischerweise eine hohe Dimension haben, sind effiziente Methoden, die Niedrigrangstrukturen ausnutzen, von essentieller Bedeutung. In dieser Arbeit betrachten wir jeweils eine Anwendung in diesen beiden Gebieten. Tensorvervollständigung, oder Imputation unbekannter Werte in teilweise bekannten mehrdimensionalen Datensätzen ist ein wichtiges Problem in der Statistik, der mathematischen Bildverarbeitung und in Data Science. Wenn man Redundanz der zugrundeliegenden Daten annimmt, ist es möglich, Verfahren der mathematischen Optimierung für dieses Problem anzuwenden. Da Tensoren festen Ranges eine Riemann’sche Mannigfaltigkeit des umgebenden hochdimensionalen Tensorraums darstellen, ist die Riemann’sche Optimierung der natürliche Rahmen für die Behandlung dieser Probleme, der sowohl mathematisch rigoros als auch rechnerisch effizient ist. Wir stellen ein neuartiges Riemann’sches Trust-Region-Verfahren vor, welches dem Vergleich mit dem neuesten Stand der Forschung für ausgewählte Anwendungen standhält sowie eine Verbesserung bekannter Methoden für einige Testprobleme bietet. Optimierungsprobleme mit partiellen Differentialgleichungen als Restriktion stellen ein Gebiet des wissenschaftlichen Rechnens dar, welches Anwendungen in zahlreichen Gebieten hat, von der Physik bis hin zur Finanzmathematik. Da Optimierungsprobleme, die von Differentialgleichungen herrühren, inhärent hohe Dimension haben, stellen diese Probleme eine rechnerische Herausforderung dar, insbesondere im Fall von drei oder mehr Dimensionen. Eine noch schwierigere Klasse von Problemen hat Operatoren vom Integral- statt vom Differentialtyp in der Restriktion. Diese Operatoren sind nicht-lokal und führen somit zu großen, vollbesetzten Gleichungssystemen. Wir präsentieren ein neuartiges Lösungsverfahren, welches auf der Trennung der Raumvariablen und auf einer Approximation für den lokalen Operator, welche beweisbar niedrigen Rang hat, basiert. Unser Ansatz erlaubt es, mehrdimensionale Probleme mit einer Komplexität zu lösen, die nur wenig höher als linear in der eindimensionalen Gitterweite ist; dies verbessert den Stand der Forschung für ein bestimmtes Testproblem um mindestens zwei Größenordnungen.
- Published
- 2019
- Full Text
- View/download PDF
28. Pathfollowing with automatic step-length control implemented in the new Matlab package bvpsuite2.0
- Author
-
Fallahpour, Merlin
- Subjects
Numerical Analysis ,Software-development ,Applications ,Algorithmen ,Numerische Mathematik ,Algorithms ,Softwareentwicklung ,Anwendungen - Abstract
This thesis had the main objective of the implementation of a path-following module to complete the Matlab package bvpsuite2.0. In preparation for the implementation, the pseudo-arclength continuation method was studied. This method was adapted for the already existing code bvpsuite2.0. Also, the package was adapted, where required, to suit the new functionality. Moreover, some features were implemented in the function, that would allow tackling a broad range of problems. The implementation is tested in various examples. The second objective in this thesis was the preparation of a manual, which would help users of bvpsuite2.0, to use the package as intended. Finally, reports on simulations with bvpsuite2.0 that were carried out in collaboration with various researchers are given.
- Published
- 2019
- Full Text
- View/download PDF
29. The p-Poisson Equation: Regularity Analysis and Adaptive Wavelet Frame Approximation
- Author
-
Hartmann, Christoph and Dahlke, Stephan (Prof. Dr.)
- Subjects
Quasilineare Differentialgleichung ,Mathematik , Adaptives ,p-Poisson-Gleichung ,numerical analysis ,adaptive Wavelet-Verfahren ,Besov-Raum ,mathematics ,regularity theory ,adaptive wavelet method ,Regularität ,Adaptives ,Nichtlineare Approximation ,numerical analysis, mathematics ,nonlinear approximation ,Mathematik ,FOS: Mathematics ,p-Poisson equation ,Besov space ,Numerische Mathematik ,Wavelet ,Mathematics ,Regularitätstheorie ,Nichtlineare Approximation , Wavelet - Abstract
This thesis is concerned with an important class of quasilinear elliptic equations: the p-Poisson equations -div(|\nabla u|^{p-2} \nabla u) = f in Ω, where 1 < p < infty and Ω denotes a bounded Lipschitz domain in R^d, d>=2. Equations of this type appear, inter alia, in various problems in continuum mechanics, for instance in the mathematical modelling of non-Newtonian fluids. Furthermore, the p-Poisson equations possess a certain model character for more general quasilinear elliptic problems. The central aspect of this thesis is the regularity analysis of solutions u to the p-Poisson equation in the so-called adaptivity scale B^σ_τ(L_τ(Ω)), 1/τ = σ/d + 1/p, σ > 0, of Besov spaces. It is well-known that the smoothness parameter σ determines the approximation rate of the best n-term wavelet approximation, and hence provides information on the maximal convergence rate of certain adaptive numerical wavelet methods. To derive Besov regularity estimates for solutions to the p-Poisson equation, two approaches are pursued in this work. The first approach makes use of the fact that under appropriate conditions the solutions to the p-Poisson equation admit certain higher regularity in the interior of the domain, in the sense that they are locally Hölder continuous. In general, the Hölder semi-norms may explode as one approaches the boundary of the domain, but this singular behavior can be controlled by some power of the distance to the boundary. It turns out that the combination of global Sobolev regularity and locally weighted Hölder regularity can be used to derive Besov smoothness in the adaptivity scale for solutions to the p-Poisson equation. The results of the first approach are stated in two steps. At first, a general embedding theorem is proved, which says that the intersection of a classical Sobolev space with a Hölder space having the above mentioned properties can be embedded into certain Besov spaces in the adaptivity scale. The proof of this result is based on extension arguments in connection with the characterization of Besov spaces by wavelet expansion coefficients. Subsequently, it is verified that in many cases the solutions u to the p-Poisson equation indeed satisfy the conditions of the embedding theorem, so that its application yields the desired regularity result. As it is shown, in many cases the Besov smoothness σ of the solution is significantly higher than its Sobolev smoothness, so that the development of adaptive schemes for the p-Poisson problem is completely justified. It is worthwhile noting that this universal approach is applicable for the general class of Lipschitz domains. The aim of the second approach is to make a first step in improving some of the derived Besov regularity results for solutions on polygonal domains. To this end the regularity is examined in a neighborhood of the corners of the domain, since generally the critical singularities of the solutions occur there. As it is shown, this approach leads to regularity assertions which are – in a local sense – indeed stronger in some cases than those derived with the first approach. The proofs are based on known results on the singular expansion of the solution in a neighborhood of a conical boundary point, as well as on embeddings of the intersection of Babuska-Kondratiev spaces K^l_{p,a}(Ω) with certain Besov spaces into the adaptivity scale of Besov spaces. As it is shown, in some cases the solutions to the p-Poisson equation admit arbitrary high weighted Sobolev regularity l in a neighborhood of the corners, and hence arbitrary high Besov regularity σ. Because of this fact the borderline case of this embedding for l equal infinity is analyzed in addition. It is shown that the resulting Fréchet spaces are continuously embedded into the corresponding F-spaces. It is worth mentioning that by these embeddings – independent of the p-Poisson setting – universal functional analytical tools are provided. The second central issue of this thesis is the numerical solution of the p-Poisson equation for 1 < p < 2. In this context, the focus is put on the implementation and numerical testing of a relaxed Kačanov-type iteration scheme for the approximate solution of the p-Poisson equation with homogeneous Dirichlet boundary conditions. For the numerical solution of the occurring linear elliptic subproblems an adaptive wavelet frame method is used. The resulting algorithm is studied in a series of numerical tests. Here, it turns out that in practice the implemented algorithm shows a stable convergence behavior., Die vorliegende Arbeit befasst sich mit einer speziellen Klasse von quasilinearen elliptischen Differentialgleichungen: den p-Poisson-Gleichungen -div(|\nabla u|^{p-2} \nabla u) = f in Ω, wobei 1 < p < infty und Ω ein beschränktes Lipschitz-Gebiet in R^d, d>=2, bezeichnet. Gleichungen dieses Typs kommen unter anderem bei verschiedenen Problemen der Kontinuumsmechanik vor, so etwa bei der mathematischen Modellierung von nichtnewtonschen Fluiden. Darüber hinaus besitzt die p-Poisson-Gleichung einen gewissen Modellcharakter für allgemeinere quasilineare elliptische Probleme. Zentraler Aspekt dieser Arbeit ist die Analyse der Regularität von Lösungen u der p-Poisson-Gleichungen in der sogenannten Adaptivitätsskala B^σ_τ(L_τ(Ω)), 1/τ = σ/d + 1/p, σ > 0, von Besov-Räumen. Es ist bekannt, dass der Glattheitsparameter σ die Approximationsrate der besten n-term Wavelet-Approximation bestimmt, und somit Aufschluss gibt über die maximale Konvergenzrate bestimmter adaptiver numerischer Wavelet-Verfahren. Um Besov-Regularitäts-Abschätzungen für Lösungen der p-Poisson-Gleichung herzuleiten, werden in dieser Arbeit zwei Ansätze verfolgt. Der erste Ansatz macht von der Tatsache Gebrauch, dass die Lösungen der p-Poisson-Gleichung unter gewissen Voraussetzungen eine höhere Regularität im Innern des Gebiets besitzen, in dem Sinne, dass sie lokal Hölder-stetig sind. Dabei können im Allgemeinen bei Annäherung an den Gebietsrand die lokalen Hölder-Seminormen explodieren, jedoch kann dieses singuläre Verhalten durch eine gewisse Potenz des Abstandes zum Gebietsrand kontrolliert werden. Es stellt sich heraus, dass die Kombination von globaler Sobolev-Glattheit und lokaler gewichteter Hölder-Regularität dazu verwendet werden kann, um Besov-Glattheit in der Adaptivitätsskala für die Lösungen der p-Poisson-Gleichung nachzuweisen. Die Resultate des ersten Ansatzes werden in zwei Schritten dargelegt. Zunächst wird ein allgemeines Einbettungstheorem bewiesen, welches besagt, dass der Schnitt eines klassischen Sobolev-Raums mit einem Hölder-Raum mit den oben beschriebenen Eigenschaften in gewisse Besov-Räume in der Adaptivitätsskala eingebettet werden kann. Der Beweis dieses Einbettungs-Theorems beruht auf Fortsetzungsargumenten in Verbindung mit der Charakterisierung von Besov-Räumen mittels Wavelet-Entwicklungskoeffizienten. Im Anschluss wird verifiziert, dass in vielen Fällen die Lösungen u der p-Poisson-Gleichung in der Tat die Voraussetzungen des Einbettungs-Theorems erfüllen, so dass seine Anwendung das gewünschte Regularitätsresultat liefert. Wie gezeigt wird, ist in vielen Fällen die Besov-Glattheit σ deutlich höher als die Sobolev-Glattheit der Lösung, so dass die Entwicklung von adaptiven Verfahren für das p-Poisson-Problem gerechtfertigt ist. Es sei angemerkt, dass dieser universelle Ansatz für die allgemeine Klasse von Lipschitz-Gebieten anwendbar ist. Das Ziel des zweiten Ansatzes ist es, einen ersten Schritt zur Verbesserung einiger der hergeleiteten Besov-Regularitäts-Ergebnisse für Lösungen auf polygonalen Gebieten zu machen. Hierzu wird die Regularität in einer Umgebung der Gebietsecken untersucht, da gewöhnlich die kritischen Singularitäten von Lösungen dort auftreten. Wie gezeigt wird führt dieser Ansatz zu Regularitätsaussagen, welche - in einem lokalen Sinn - in einigen Fällen stärker sind als jene mittels des ersten Ansatzes hergeleiteten. Die Beweise basieren auf bekannten Resultaten über die singuläre Entwicklung der Lösung u in einer Umgebung eines konischen Randpunktes, sowie auf Einbettungen von Babuska-Kondratiev-Räumen K^l_{p,a}(Ω) geschnitten mit gewissen Besov-Räumen in die Adaptivitätsskala von Besov-Räumen. Wie gezeigt wird, besitzen in einigen Fällen die Lösungen der p-Poisson-Gleichung sogar beliebig hohe gewichtete Sobolev-Regularität l in einer Umgebung der Ecken, und folglich beliebig hohe Besov-Regularität σ. Aufgrund dieser Tatsache wird zusätzlich der Grenzfall dieser Einbettungen für l gleich Unendlich analysiert. Es wird gezeigt, dass die resultierenden Fréchet-Räume stetig in die entsprechenden F-Räume eingebettet sind. Hierbei ist erwähnenswert, dass mit den bewiesenen Einbettungen – unabhängig vom p-Poisson-Setting - universelle funktionalanalytische Tools bereitgestellt werden. Das zweite zentrale Thema dieser Arbeit ist die numerische Lösung der p-Poisson-Gleichung für 1 < p < 2. Gegenstand ist hier die Implementierung sowie das numerische Testen eines relaxierten Iterationsverfahrens vom Kačanov-Typ zur approximativen Lösung der p-Poisson-Gleichung mit homogenen Dirichlet-Randbedingungen. Hierbei wird für die numerische Lösung der auftretenden linearen elliptischen Teilprobleme ein adaptives Wavelet-Frame-Verfahren verwendet. Der resultierende Algorithmus wird in einer Reihe von numerischen Tests untersucht. Hierbei zeigt sich, dass der implementierte Algorithmus vom Kačanov-Typ in der Praxis ein stabiles Konvergenzverhalten aufweist.
- Published
- 2018
- Full Text
- View/download PDF
30. Accurate and efficient numerical methods for nonlocal problems
- Author
-
Zhao, Wei, Stoll, Martin, Hon, Benny Y.C., and Technische Universität Chemnitz
- Subjects
Meshless methods, nonlocal problems ,Numerische Mathematik ,Wissenschaftliches Rechnen ,ddc:510 - Abstract
In this thesis, we study several nonlocal models to obtain their numerical solutions accurately and efficiently. In contrast to the classical (local) partial differential equation models, these nonlocal models are integro-differential equations that do not contain spatial derivatives. As a result, these nonlocal models allow their solutions to have discontinuities. Hence, they can be widely used for fracture problems and anisotropic problems. This thesis mainly includes two parts. The first part focuses on presenting accurate and efficient numerical methods. In this part, we first introduce three meshless methods including two global schemes, namely the radial basis functions collocation method (RBFCM) and the radial ba- sis functions-based pseudo-spectral method (RBF-PSM) and a localized scheme, namely the localized radial basis functions-based pseudo-spectral method (LRBF-PSM), which also gives the development process of the RBF methods from global to local. The comparison of these methods shows that LRBF-PSM not only avoids the Runge phenomenon but also has similar accuracy to the global scheme. Since the LRBF-PSM uses only a small subset of points, the calculation consumes less CPU time. Afterwards, we improve this scheme by adding enrichment functions so that it can be effectively applied to discontinuity problems. This thesis abbreviates this enriched method as LERBF-PSM (Localized enriched radial basis functions-based pseudo-spectral method). In the second part, we focus on applying the derived methods from the first part to nonlocal topics of current research, including nonlocal diffusion models, linear peridynamic models, parabolic/hyperbolic nonlocal phase field models, and nonlocal nonlinear Schrödinger equations arising in quantum mechanics. The first point worth noting is that in order to verify the meshless nature of LRBF-PSM, we apply this method to solve a two-dimensional steady-state continuous peridynamic model in regular, irregular (L-shaped and Y-shaped) domains with uniform and non-uniform discretizations and even extend this method to three dimensions. It is also worth noting that before solving nonlinear nonlocal Schrödinger equations, according to the property of the convolution, these partial integro-differential equations are transformed into equivalent or approximate partial differential equations (PDEs) in the whole space and then the LRBF-PSM is used for the spatial discretization in a finite domain with suitable boundary conditions. Therefore, the solutions can be quickly approximated.
- Published
- 2018
31. System-theoretic model order reduction for bilinear and quadratic-bilinear systems
- Author
-
Goyal, Pawan Kumar
- Subjects
ComputingMethodologies_SYMBOLICANDALGEBRAICMANIPULATION ,Mathematik ,Numerische Mathematik - Abstract
In this thesis, we study system-theoretic model reduction techniques for special classes of nonlinear systems, namely, bilinear and quadratic-bilinear (QB) control systems. There is a large variety of applications, where control systems can be modeled as one of the above-mentioned nonlinear systems, for example, boundary control problems, flow problems, neuronal dynamics. Our particular focus lies on balancing-type and H2-optimal model reduction problems of the latter nonlinear systems. In the first part of the thesis, we focus on balancing-type model reduction for bilinear and QB control systems. We begin by revisiting the connection between the Gramians and energy functions of bilinear systems and introduce a concept of truncated Gramians. We further study balanced truncation model reduction technique for QB systems by extending the idea of Gramians for bilinear systems and propose algebraic Gramians for the latter systems. We additionally establish connections between the proposed Gramians and the energy functionals for QB systems. Moreover, we discuss the usage of Gramians in the model reduction framework of QB systems. In the second part of the thesis, we turn our attention to interpolation-based H2-optimal model reduction. In this direction, we derive interpolation-based model reduction conditions for QB control systems, which aim at minimizing a system norm of the QB system, namely a truncated version of the H2-norm of the latter system. Based on these conditions, we propose an iterative scheme that approximately satisfies the derived optimality conditions. Lastly, we investigate interpolation-based model reduction for bilinear systems that are subject to algebraic constraints. We show how to extend the existing knowledge of model reduction for linear descriptor systems to interpolation-based model reduction for specially structured bilinear descriptor systems (DAEs). We also propose several modified iterative schemes, leading to locally H2-optimal reduced-order systems for the structured bilinear DAEs. By means of several numerical examples, we compare the efficiency of all the proposed model reduction schemes for bilinear and QB systems with the existing state-of-the-art methods.
- Published
- 2018
- Full Text
- View/download PDF
32. Modeling, Simulation and Optimization of Wine Fermentation
- Author
-
Schenk, Christina
- Subjects
Gärung ,Modellprädiktive Regelung ,Modellprädikative Regelung ,Numerische Mathematik ,Simulation ,Parameteridentifikation - Abstract
Industrial companies mainly aim for increasing their profit. That is why they intend to reduce production costs without sacrificing the quality. Furthermore, in the context of the 2020 energy targets, energy efficiency plays a crucial role. Mathematical modeling, simulation and optimization tools can contribute to the achievement of these industrial and environmental goals. For the process of white wine fermentation, there exists a huge potential for saving energy. In this thesis mathematical modeling, simulation and optimization tools are customized to the needs of this biochemical process and applied to it. Two different models are derived that represent the process as it can be observed in real experiments. One model takes the growth, division and death behavior of the single yeast cell into account. This is modeled by a partial integro-differential equation and additional multiple ordinary integro-differential equations showing the development of the other substrates involved. The other model, described by ordinary differential equations, represents the growth and death behavior of the yeast concentration and development of the other substrates involved. The more detailed model is investigated analytically and numerically. Thereby existence and uniqueness of solutions are studied and the process is simulated. These investigations initiate a discussion regarding the value of the additional benefit of this model compared to the simpler one. For optimization, the process is described by the less detailed model. The process is identified by a parameter and state estimation problem. The energy and quality targets are formulated in the objective function of an optimal control or model predictive control problem controlling the fermentation temperature. This means that cooling during the process of wine fermentation is controlled. Parameter and state estimation with nonlinear economic model predictive control is applied in two experiments. For the first experiment, the optimization problems are solved by multiple shooting with a backward differentiation formula method for the discretization of the problem and a sequential quadratic programming method with a line search strategy and a Broyden-Fletcher-Goldfarb-Shanno update for the solution of the constrained nonlinear optimization problems. Different rounding strategies are applied to the resulting post-fermentation control profile. Furthermore, a quality assurance test is performed. The outcomes of this experiment are remarkable energy savings and tasty wine. For the next experiment, some modifications are made, and the optimization problems are solved by using direct transcription via orthogonal collocation on finite elements for the discretization and an interior-point filter line-search method for the solution of the constrained nonlinear optimization problems. The second experiment verifies the results of the first experiment. This means that by the use of this novel control strategy energy conservation is ensured and production costs are reduced. From now on tasty white wine can be produced at a lower price and with a clearer conscience at the same time., Industrieunternehmen streben vor allem danach, ihren Gewinn zu steigern. Deshalb möchten sie ihre Produktionskosten senken, ohne dass dabei die Produktqualität auf der Strecke bleibt. Im Zusammenhang mit den Energiezielen für 2020 spielt außerdem die Energieeffizienz eine entscheidende Rolle. Mathematische Modellierungs-, Simulations- und Optimierungswerkzeuge können zur Erreichung dieser industriellen und ökologischen Ziele beitragen. Für den Prozess der Weißweinfermentation besteht ein enormes Potenzial zur Energieeinsparung. In dieser Arbeit werden mathematische Modellierungs-, Simulations- und Optimierungswerkzeuge an die Bedürfnisse dieses biochemischen Prozesses angepasst und darauf angewendet. Es werden zwei verschiedene Modelle hergeleitet, die den Prozess beschreiben wie er in realen Experimenten beobachtet werden kann. Ein Modell beschreibt das Wachstum, die Teilung und das Todesverhalten der einzelnen Hefezelle mittels einer partiellen Integrodifferentialgleichung und mehrerer gewöhnlicher Integrodifferentialgleichungen, die das Verhalten der anderen Stoffe beschreiben. Das andere Modell beschreibt das Wachstum und das Todesverhalten der Hefekonzentration und das Verhalten der anderen Stoffe mittels gewöhnlicher Differentialgleichungen. Das detailliertere Modell wird analytisch und numerisch untersucht. Dabei werden Existenz und Eindeutigkeit von Lösungen studiert und der Prozess simuliert. Diese Untersuchungen führen zu einer Diskussion über den Mehrwert dieses Modells im Vergleich zu dem einfacheren. Hinsichtlich der Optimierung wird der Prozess durch das weniger detaillierte Modell beschrieben. Die Identifikation des Prozesses erfolgt durch das Lösen eines Parameter- und Zustandsschätzproblem. Die Energie- und Qualitätsziele werden in der Zielfunktion des optimalen Kontrollproblems oder modellprädiktiven Regelungsproblems formuliert, wobei die Fermentationstemperatur gesteuert wird. Das bedeutet, dass die Kühlung während des Weingärungsprozesses gesteuert wird. Parameter- und Zustandsschätzung mit nichtlinearer ökonomischer modellprädiktiver Regelung wird in zwei Experimenten angewendet. Für das erste Experiment werden die zuvor formulierten Optimierungsprobleme gelöst, indem eine Mehrfachschießmethode mit einer Backward Differentiation Formula Methode zur Diskretisierung des Problems verwendet wird und eine sequentielle quadratische Programmiermethode mit einem Liniensuchverfahren und einem Broyden-Fletcher-Goldfarb-Shanno Update für die Lösung der restringierten nichtlinearen Optimierungsprobleme verwendet wird. Verschiedene Rundungsstrategien werden auf das resultierende Steuerungsprofil nach der Gärung angewendet. Darüber hinaus wird ein Qualitätssicherungstest durchgeführt. Das Experiment resultiert in bemerkenswerten Energieeinsparungen und schmackhaftem Wein. Für das nächste Experiment werden einige Modifikationen vorgenommen und die Optimierungsprobleme gelöst, indem direkte Transkription mit orthogonaler Kollokation auf finiten Elementen für die Diskretisierung des Problems verwendet wird und ein Innere-Punkte-Liniensuche-Filter-Verfahren zur Lösung der nichtlinearen Optimierungsprobleme verwendet wird. Das zweite Experiment bestätigt die Ergebnisse des ersten Experiments. Dies bedeutet, dass durch die Verwendung dieser neuartigen Kontrollstrategie für den Prozess der Weingärung Energieeinsparungen gewährleistet und Produktionskosten gesenkt werden können. Von nun an können also leckere Weißweine zu einem günstigeren Preis und mit einem besseren Gewissen produziert werden.
- Published
- 2018
- Full Text
- View/download PDF
33. Numerical modelling of the flight behaviour of bats to estimate the collision risk with wind turbines
- Author
-
Müller, Christina
- Subjects
Fledermäuse ,Windkraftwerk ,Numerische Mathematik ,Simulation - Published
- 2018
- Full Text
- View/download PDF
34. Quarklets: Construction and Application in Adaptive Frame Methods
- Author
-
Keding, Philipp and Dahlke, Stephan (Prof. Dr.)
- Subjects
Wavelets Quarklets Adaptive methods Partial differential equations Numerical Analysis ,Mathematik ,Numerische Mathematik ,Adaptive Verfahren Quarklets Partielle Differentialgleichungen Frames Wavelets Operatorgleichungen Sobolev-Raum ,Mathematics ,FOS: Mathematics ,ddc:510 - Abstract
This thesis is concerned with the construction and application of a new class of functions called quarklets. With the intention of constructing an adaptive hp-method based on wavelets, they do arise out of the latter through an enrichment with polynomials. The starting point for the construction is the real axis. There, we derive frames for the Sobolev space H^s(R). Through a boundary adaptation, tensorization and the application of a scale-dependent extension operator we are even able to construct quarklet frames on very general domains in multiple spatial dimensions. With these frames at hand we can discretize linear elliptic operator equations in a stable way. The discrete system can be handled with an adaptive numerical scheme. For this purpose it is necessary to show the compressibility of the stiffness matrix. We do this for the prototypical example of the Poisson equation independently of the dimension and in this way we are able to prove the optimality of the adaptive scheme. By the latter we mean that the approximation rate of the best n-term quarklet approximation is realized by the scheme. Finally, we carry out some numerical experiments in one and two spatial dimensions, where the theoretical findings are validated in practice and moreover, the value of the quarklets in the numerical scheme becomes visible by analysing the quarklet coefficients of the approximate solutions., In dieser Arbeit beschäftigen wir uns mit der Konstruktion und Anwendung einer neuen Klasse von Funktionen, den Quarklets. Mit der Absicht adaptive hp-Verfahren basierend auf Wavelets zu konstruieren, entstehen Quarklets durch die Anreicherung von Wavelets mit Polynomen. Zunächst beginnen wir auf der reellen Achse. Hier erhalten wir einen Frame des Sobolev-Raums H^s(R). Durch eine Randanpassung, Tensorierung und die Anwendung eines skalenabhängigen Fortsetzungsoperators sind wir sogar in der Lage Quarklet-Frames auf sehr generellen Gebieten in mehreren Dimensionen zu konstruieren. Mit diesen Frames können wir lineare elliptische Operatorgleichungen auf stabile Art und Weise diskretisieren. Das diskrete System kann daraufhin mit einem adaptiven numerischen Verfahren gelöst werden. Dafür ist es notwendig, die Kompressibilität der zugehörigen Steifigkeitsmatrix nachzuweisen. Dies tun wir für das prototypische Beispiel der Poisson-Gleichung unabhängig von der Raumdimension. Dadurch sind wir in der Lage die Optimalität des Quarklet-Verfahrens zu beweisen. Letzteres bedeutet, dass wir asymptotisch die Konvergenzrate der besten n-Term-Quarklet-Approximation erreichen. Abschließend führen wir einige numerische Experimente in ein und zwei Raumdimensionen durch. Die theoretischen Resultate werden dabei unterstrichen und darüber hinaus wird der Anteil der Quarklets durch die Verteilung der Koeffizienten der Lösung in der Praxis sichtbar.
- Published
- 2018
35. Sequential subspace optimization for nonlinear inverse problems with an application in terahertz tomography
- Author
-
Wald, Anne and Schuster, Thomas
- Subjects
Robin-Randwertproblem ,terahertz tomography ,Terahertz-Tomographie ,regularization ,Regularisierung ,Nichtlineare inverse Probleme ,Tomografie ,Helmholtz equation ,ddc:510 ,ddc:620 ,Regularisierungsverfahren ,Numerische Mathematik ,Nonlinear inverse problems - Abstract
We introduce a sequential subspace optimization (SESOP) method for the iterative solution of nonlinear inverse problems in Hilbert spaces, based on the well-known methods for linear problems. The key idea is to use multiple search directions per iteration. Their length is determined by the nonlinearity and the local character of the forward operator. This choice admits a geometric interpretation after which the method is originally named: The current iterate is projected sequentially onto (intersections of) stripes, which emerge from affine hyperplanes whose respective normal vectors are given by the search directions and contain the solution set of the unperturbed inverse problem. We prove convergence and regularization properties and present a fast method using two search directions, which is evaluated by solving a simple nonlinear problem. Furthermore, we extend our methods for complex Hilbert spaces and apply it to solve the inverse problem of terahertz tomography, a nonlinear parameter identification problem based on the Helmholtz equation, which consists in the nondestructive testing of dielectric media. The tested object is illuminated by an electromagnetic Gaussian beam and the goal is the reconstruction of the complex refractive index from measurements of the electric field. We conclude with some numerical reconstructions from synthetic data. In der vorliegenden Arbeit stellen wir eine Erweiterung der sequentiellen Unterraum-Optimierung (SESOP) zur Lösung nichtlinearer inverser Probleme in Hilberträumen vor, welche auf den bereits bekannten Verfahren für lineare Probleme basiert. Dabei handelt es sich um eine iterative Methode, bei der in jedem Schritt mehrere Suchrichtungen verwendet werden. Die Berechnung der Schrittweite berücksichtigt die Nichtlinearität des Vorwärtsoperators und lässt eine anschauliche geometrische Interpretation zu, welche dem Verfahren ursprünglich ihren Namen gab: Die aktuelle Iterierte wird sequentiell auf (den Schnitt von) Streifen projiziert. Diese Streifen gehen aus affinen Hyperebenen hervor und enthalten die Lösungsmenge des inversen Problems bei exakten Daten. Wir zeigen Konvergenz- und Regularisierungseigenschaften des Verfahrens. Insbesondere geben wir ein schnelles Verfahren mit zwei Suchrichtungen an und evaluieren die Methode anhand eines einfachen Beispiels. Anschließend weiten wir die Methode auf komplexe Hilberträume aus und verwenden diese zur Lösung des inversen Problems der Terahertz-Tomographie. Dabei wird ein nichtleitendes, nichtmagnetisches Objekt mithilfe eines elektromagnetischen Gaußstrahls abgetastet. Das Ziel ist die Rekonstruktion des komplexen Brechungsindex aus Messungen des elektrischen Feldes. Dieses inverse Problem modellieren wir als Parameteridentifikationsproblem mithilfe der Helmholtzgleichung. Schließlich erzeugen wir für verschiedene Objekte synthetische Daten und rekonstruieren daraus den komplexen Brechungsindex.
- Published
- 2017
- Full Text
- View/download PDF
36. ALE-FEM for two-phase flows with surfactants
- Author
-
Hahn, Andreas
- Subjects
Numerische Mathematik ,Finite-Elemente-Analysis - Abstract
This work treats the numerical simulation of two-phase ows with surfactants. A two-phase ow is the ow of two immiscible uids, where the uids can carry so called surface active agents (surfactant). The surfactant is dissolved in the uids and can accumulate on the interface. On the interface, the surfactant alters the surface tension force, leading to a non-homogeneous surface tension coefficient, which induces many physical effects. E.g. Marangoni convection can have a significant in uence on the ow pattern of such two-phase ows. The mathematical description of such ows leads to a system of two-phase Navier- Stokes equations and a system of bulk- and surface transport equations. This system is coupled and nonlinear. This work presents a finite element method handling these coupled ow and transport equations. The finite element method employs the ALE-framework, i.e. uses moving meshes and fitted surface grids. The advantage of this method is a very accurate incorporation of the surfactant depending surface tension coefficient, which renders a method applicable in many different scenarios. An important aspect is the handling of the discontinuities across the interface. A careful choice for the finite element space has to be taken. Therefore, the standard continuous Taylor-Hood finite element space is extended to a domain-wise continuous Taylor-Hood finite element space. That is a space in which the pressure is continuous in each uid phase, but is allowed to exhibit a jump across the interface. It is shown in Chapter 4, that this extended Taylor-Hood finite element space is still inf-sup stable, which is crucial to prevent so called spurious oscillations and get a stable scheme. Another important part of ALE techniques is the handling of the mesh, especially the surface mesh of the interface. Meshes of poor quality require a re-meshing of the whole domain. That is very costly in terms of computational work, and it introduces additional errors to the numerical solution. Different mesh smoothing techniques for the surface mesh are considered and compared, which result in a significant improvement of the mesh quality. The method presented in this work is validated and compared with other numerical schemes and analytical approximation for two-phase ows with surfactants. These results are presented in Chapter 5.
- Published
- 2017
- Full Text
- View/download PDF
37. Interpolation, Numerische Differentiation und Integration
- Author
-
Motal, Daniel
- Subjects
Numerik ,%22">Differentiation ,%22">Integration ,Differentiation ,Integration ,Numerische Mathematik ,Interpolation - Abstract
eingereicht von Daniel Motal Universität Linz, Diplomarbeit, 2017
- Published
- 2017
38. Identification of the stored energy function of hyperelastic materials from time-dependent boundary measurements
- Author
-
Seydel, Julia and Schuster, Thomas
- Subjects
Lokale Konvergenz ,dynamic inverse problem ,Fréchet-Differenzierbarkeit ,konische Kombination ,Fréchet derivative ,Partielle Differentialgleichung ,Landweber-Verfahren ,Landweber method ,stored energy function ,hyperelastische Materialien ,Nichtlineares inverses Problem ,ddc:510 ,ddc:620 ,Numerische Mathematik ,Verzerrungsenergiedichte - Abstract
Das Thema dieser Arbeit ist die Rekonstruktion der räumlich variablen Verzerrungs- energiedichte eines hyperelastischen Materials aus zeitabhängigen Randmessungen. Dies ist auch im Zusammenhang mit der Schadensdetektion bei Strukturen aus derartigen Ma- terialien sehr interessant, da die Verzerrungsenergiedichte alle mechanischen Eigenschaften des Materials enthält. Mathematisch handelt es sich um eine Parameteridentifikation bei einem System von zeitabhängigen, nichtlinearen Differentialgleichungen und damit um ein nichtlineares, dynamisches, inverses Problem. Das finale Ziel dieser Arbeit ist es ein Verfahren auf Grundlage des Landweber-Verfahrens zu entwickeln, um dieses Problem numerisch zu lösen. Dazu wird gezeigt, dass der ent- sprechende Vorwärtsoperator Fréchet-differenzierbar ist und die Fréchet-Ableitung die eindeutige Lösung eines linearen Anfangs-Randwertproblems darstellt. Außerdem wird eine Darstellung der Adjungierten der Fréchet-Ableitung angegeben. Unter der Annahme der Darstellbarkeit der Verzerrungsenergiedichte als konische Kombination endlich vieler Funktionen eines Dictionaries ist das Aufstellen eines geeigneten, derartigen Dictionaries ebenso Bestandteil dieser Arbeit. Anschließend wird gezeigt, dass das betrachtete Identi- fikationsproblem die lokale Kegelbedingung erfüllt und somit das gedämpfte Landweber- Verfahren zur Lösung dieses Problems lokal konvergiert. Schließlich wird das entwickelte Verfahren an diversen Beispielen getestet. The topic of this thesis is the reconstruction of the spatially variable stored energy func- tion of hyperelastic materials from time-dependent boundary measurements. In connection with the detection of damages in structures consisting of such materials this problem is re- ally interesting because all mechanical properties are hidden in the stored energy function. The mathematical model is a parameter identification for a system of time-dependent, nonlinear differential equations. That means it belongs to the class of nonlinear, dynamic, inverse problems. The major objective of this thesis is the development of an algorithm based on the damped Landweber method to solve the problem numerically. Therefore, it will be proven that the appropriate forward operator is Fréchet differentiable and that the Fréchet derivative represents the unique solution of a linear initial boundary value problem. In addition, a representation for the adjoint of the Fréchet derivative will be given. Under the assumption that we have a dictionary at hand so as to the stored energy function is given as a conic combination of the dictionary’s elements the specific choice of such functions is another emphasis of this thesis. Afterwards it will be proven that the considered identification problem fulfills the local tangential cone condition and therefore the damped Landweber method for solving the problem converges locally. Finally, the algorithm is tested with several examples.
- Published
- 2017
- Full Text
- View/download PDF
39. Heinz Rutishauser (1918-1970). Was steckt hinter dem Schweizer Mathematiker?
- Author
-
Signer, Fabienne and Signer, Fabienne
- Abstract
In dieser Arbeit wird das Leben und Wirken von Heinz Rutishauser, einem Schwei-zer Mathematiker, aufgearbeitet und abgebildet. Dies wird dreistrangig bewerkstelligt. So dienen die Literaturrecherche, Archivbesuche und Interviews zur Erstellung der Biografie, Bibliografie und Würdigung des Schweizer Mathematikers. Am 30. Januar 1918 wurde Heinz Rutishauser in Weinfelden, Thurgau, geboren. Seine Schulzeit absolvierte er in Frauenfeld. Danach studierte er an der ETH in Zürich, wo er später auch arbeitete. Im Jahr 1964 erlitt Heinz Rutishauser einen Herzinfarkt. Von diesem hat er sich, bis zu seinem Tod am 10. November 1970, nie richtig erholt. Heinz Rutishauser hat zwei Bücher publiziert. Das eine zur Programmiersprache ALGOL 60, das andere im Gebiet der numerischen Mathematik. Weiter hat er in etlichen Zeitschriften über seine damals aktuellen, numerischen Erkenntnisse berichtet. Dadurch hat er Programme vorgestellt, mit denen mathematische Probleme maschinenunabhängig zu lösen sind. Nach dem Tod des Schweizer Mathematikers haben verschiedene Wissenschaftler Werke publiziert, die sich auf Manuskripte, Programme oder Hinweise von Rutishauser stützten. Die Leistung des Schweizers erfolgte in zwei Bereichen. Einerseits hat er, mit der Mitarbeit an ALGOL, einen Meilenstein für das Programmieren gelegt. So wurde nicht nur die Idee des Compilers, sondern auch die Programmbibliothek geboren. Ein Compiler übersetzt die höhere Sprache in die binäre Computersprache und in den Programmbibliotheken werden die Programmierungen zu mathematischen Problemen hinterlegt. Das ist auch das Einzige, was von ALGOL direkt geblieben ist. Andererseits wurde die numerische Mathematik wesentlich durch die Arbeit von Heinz Rutishauser entwickelt. Dadurch werden natürliche und technische Vorgänge simuliert. Des Weiteren hat Heinz Rutishauser an der Gründung des Rechen-zentrums und der Fachgruppe für Computerwissenschaften mitgewirkt. Die Institutionen sind indirekt noch heute im Alltag der ETH Zü
- Published
- 2017
40. Entwicklung und positionsdatenbezogene Anwendung eines stochastischen Modells zur Trajektoriensimulation eines nichtrotierenden Volleyballs
- Author
-
Meyer, Bernd
- Subjects
Leistungsdiagnostik ,sports technology ,Volleyballspiel ,Article ,ddc:79 ,Sporttechnologie ,volleyball game ,ddc:7 ,Veröffentlichung der TU Braunschweig ,ddc:51 ,ddc:796 ,numerische Mathematik ,performance analysis ,aerodynamics ,numerical mathematics ,ddc:5 ,Aerodynamik - Abstract
Während die meiste bisherige Forschung zum Flattereffekt, der als eine erratische aerodynamische Eigenschaft von Sportbällen bekannt ist, empirisch durchgeführt wurde, sind theoretische Untersuchungen, wie jene, die auf Grundlage von a priori Information eine bidirektionale Krümmung in der Simulation der Flugbahn eines nichtrotierenden Balles berücksichtigen, noch nicht verfügbar. Unsicherheitsquantifizierung in der numerischen Evaluation von Ballflugbahnen ist daher ein geeigneter Gegenstand für weiterführende Untersuchungen. Das verwendete Systemmodell basiert auf einer stochastischen vektoriellen Differentialgleichung (Zweites Newton‘ sches Gesetz), worin Unsicherheitsquellen durch spektrale und geschwindigkeitsspezifische Eigenschaften von Langevin-Kräften für Widerstand und Auftrieb quantifiziert sind. Eine datenbasierte Modellentwicklung erfolgte durch Verringerung der Anzahl von Unsicherheitsquellen und Dimensionsreduktion, und eine jeweilige Modellverifikation wurde erreicht unter Verwendung von mindestens einer Verifikationsmethode (ANOVA-Zerlegung der Legendre Chaos-Entwicklung). Zunächst konnte, ausgehend von einer ereignisanalytischen Klassifizierung von simulationsbasierten räumlich-zeitlichen Tracking-Daten (zeitabhängige Ortsvektordifferenz zum Vergleich von CW- und Schwankungsgrößen), die zeitliche Verteilung und die Auftrittswahrscheinlichkeit eines (Polar)winkel-spezifischen Flattereffektes berechnet werden. Als ein geeignetes Kriterium für die Identifizierung des Effektes wurde eine vergleichsweise schnelle und große zeitliche Änderung des Polarwinkels des Differenzvektors herangezogen. Ein übergeordnetes Ziel in globaler Unsicherheitsquantifizierung war eine vergleichende Untersuchung zum Einfluss von Positionsdaten in standardisierten Situationen des Sportspiels. Untersuchungsmethoden umfassten Zeitmittelung von 99% Konfidenzintervalllängen für dissipierte/erzeugte Leistung und Betrag des Ortsvektors, Gauß-Legendre-Integration zur Berechnung der Varianz des Ballauftreffortes sowie eine Analyse von Deformationsmoden basierend auf Hotelling‘s T2-Statistik einschließlich Eigenwertanalyse zur Reduzierung der Anzahl von Variablen. Um den systematischen Einfluss der Ballflugzeit zu eliminieren, wurde eine Kalibrierung der Ergebnisse mittels Neuberechnung unter der Annahme eines geschwindigkeitsunabhängigen Widerstandsbeiwertes vorgenommen, wodurch sich ein globaler Beiwert-spezifischer Flattereffekt einführen lässt. Es wurden Aufschlag-Szenarien des Sportspiels Volleyball mit positioneller hoher Skalierungsdichte gewählt. Dadurch ermöglicht sich sowohl eine differenzierte Identifizierung sportartspezifischer Anwendung in Bezug auf unmittelbare Wettkampfsteuerung (z.B. taktische Verhaltensweisen, auch hinsichtlich einer geschwindigkeitsbedingten perzeptuellen Trajektorienillusion) als auch eine simulationsgestützte Trajektorien-Evaluation in der Sportball-Technologie. Insbesondere erscheint das zugrundeliegende stochastische Modell für eine prozessbegleitende rechenzeiteffiziente Optimierung von Textur-Gestaltung und Panel-Musterung geeignet zu sein, wofür Ergebnisse aus Windkanal-Messung der zeit- und geschwindigkeitsabhängigen aerodynamischen Beiwerte erforderlich sind., While most previous research on the knuckling effect, known as an erratic aerodynamic property of sports balls, was carried out empirically, theoretical investigations, such as those allowing a priori information based for bidirectional curvature generation in the trajectory simulation of a nonspinning ball, are not yet available. Therefore, uncertainty quantification in the numerical ball flight trajectories evaluation is a suitable subject for subsequent investigations. The system model used is based on a stochastic vectorial differential equation (Newton's 2nd law) quantifying sources of uncertainty by spectral and velocity-specific properties of Langevin forces for drag and lift. A data-based model development was carried out by both reducing the number of sources of uncertainty and dimension reduction, and a respective model verification was achieved by using at least one verification method (ANOVA decomposition of the Legendre chaos expansion). First, the temporal distribution and the probability of occurrence of a (polar-)angle-specific knuckling effect could be calculated based on an event analytic classification of simulation-based spatiotemporal tracking data (time-dependent difference of position vectors to compare CW- and fluctuation quantities). As a suitable criterion for the identification of the effect, a comparatively fast and large temporal change of the polar-angle of the difference vector was used. An overarching aim in global uncertainty quantification was a comparative investigation on the influence of position data in standardised situations of the sports game. Examination methods included time-averaging 99% confidence interval lengths for dissipated/generated power and magnitude of position vector, Gauss-Legendre integration to calculate the variance of landing points as well as an analysis of deformation modes based on Hotelling’s T2 statistic, including eigenvalue analysis for reducing the number of variables. In order to eliminate the systematic impact of time-of-flight, a calibration of results by means of recalculation assuming a speed-independent drag coefficient was undertaken, whereby a global coefficient-specific knuckling effect can be introduced. Scenarios in volleyballs’ serving play were chosen by positional high density scaling. This enables a differentiated identification of different kinds of sport-specific application in relation to immediate competition control (e.g., tactical behaviors, also with regard to speed-related perceptual trajectory illusion) as well as a simulation-based trajectory evaluation in sports ball engineering. In particular, the underlying stochastic model appears to be suitable for an in-process computation time-efficient optimization of textural styling and panel patterning which will require results of wind tunnel measurement of time- and speed-dependent aerodynamic coefficients.
- Published
- 2016
- Full Text
- View/download PDF
41. Interpolationsbasierte Reduzierte-Basis-Modellierung von Lösungskurven mit Umkehrpunkten
- Author
-
Eichel, Hagen and Mackens, Wolfgang
- Subjects
Mehrparametrige nichtlineare Gleichungssysteme ,510: Mathematik ,Reduzierte-Basis Methoden ,ddc:510 ,Numerische Mathematik ,Astverfolgungsmethoden ,Mathematik [510] ,Interpolation ,Numerische Mathematik, Reduzierte-Basis Methoden, Astverfolgungsmethoden, Interpolation, Mehrparametrige nichtlineare Gleichungssysteme - Abstract
Bei der numerischen Simulation physikalischer Prozesse treten häufig große parameterabhängige nichtlineare Gleichungssysteme auf. Zur Verringerung des Rechenaufwands werden oft Reduzierte-Basis-Methoden verwendet, die sich in lokale und globale Methoden unterscheiden lassen, wobei letztere Umkehrpunkte bezüglich des Parameters gewöhnlich nicht zulassen. In dieser Arbeit wird ein globaler, interpolationsbasierter Ansatz für Probleme mit Umkehrpunkten entwickelt und es werden die Vorteile und Grenzen dieser Methode aufgezeigt., Simulating physical processes often leads to large systems of parameter dependent nonlinear equations. To reduce the computational complexity reduced basis methods are used, that can be distinguished in local and global methods. Turning points with respect to the parameter are usually not permitted when using global methods. In this work a global interpolation based approach for problems with turning points is developed and its advantages and limits are demonstrated.
- Published
- 2016
42. A Fast Matrix-Free Algorithm for Spectral Approximations to High-Dimensional Partial Differential Equations
- Author
-
Brumm, Bernd and Lubich, Christian (Prof. Dr.)
- Subjects
Numerical Analysis ,Quantendynamik ,Schrödinger-Gleichung , Spektralmethode , Differentialgleichung ,Schrödinger equation ,Partial differential equations ,Matrixfreier Algorithmus ,Partielle Differentialgleichungen ,Spectral methods ,High-dimensional equations ,Matrix-free algorithm ,Hochdimensionale Gleichungen ,Quantum dynamics ,Spektralmethoden ,Numerische Mathematik ,Schrödingergleichung - Abstract
This thesis is concerned with the computational intractabilities that arise from spectral discretizations of high-dimensional partial differential equations. Using the example of the time-dependent multi-particle Schrödinger equation, we consider a spectral Galerin approximation in space with a tensor product basis of Hermite functions. When propagating the resulting system of ordinary differential equations in time, one typically needs to evaluate matrix-vector products involving a matrix representation of the Hamiltonian operator in each time step. Since the size of this matrix equals the number of equations, which (for an unreduced basis) depends exponentially on the dimension and thus quickly becomes enormously large, this can make computations infeasible - both due to a lack of memory and due to unbearably long computation times. We present a fast algorithm for an efficient computation of these matrix-vector products that scales only linearly with the size of the Galerkin basis - without assembling the matrix itself. Besides being a matrix-free approach, the fast algorithm is compatible with the idea of reducing the index set that underlies the basis. The computational speed-up is achieved using orthogonality of the Hermite functions in combination with their generic three-term recurrence. Briefly, these properties allow to compute the action of the matrix representations of the coordinatewise position operators on vectors in linear time. The basic idea is then to insert these coordinate matrices into a polynomial approximate of the potential. This has originally been proposed by E. Faou, V. Gradinaru, and Ch. Lubich. We modify their approach and turn it into a rigorous algorithm. For an unreduced set of basis functions, we show this tentative proceeding to be equivalent to a suitable entrywise approximation of the potential matrix by Gauß-Hermite quadrature. Reducing the index set for the basis functions yields an additional error. We derive error estimates for all approximation steps involved. In particular, using a binary tree approach, bounds for the errors due to quadrature and index set reduction are deduced. Both errors decay spectrally if the potential is significantly smoother than the exact solution wherever the latter does not essentially vanish. Extensive numerical experiments corroborate these findings. Besides, we show performance tests comparing the fast algorithm to a matrix-free approach from the chemical literature. Apart from the above basic form of the fast algorithm, we present applications of the general methodology to the nonlinear Schrödinger equation and, most prominently, to initial-boundary value problems. As an example, we study the acoustic wave equation with non-constant coefficients and Engquist-Majda boundary conditions, and construct efficient procedures for the different kinds of matrix-vector products together with an error analysis and numerical tests., Das Lösen hochdimensionaler partieller Differentialgleichungen mittels Spektralmethoden stellt in Anbetracht der damit verbundenen enormen Speicherplatz- wie auch Zeitkomplexität eine besondere Herausforderung dar. Wir betrachten das Beispiel der zeitabhäng-igen Vielteilchen-Schrödingergleichung, die mit einem Galerkinansatz im Raum diskretisiert wird. Die zugrundeliegende Basis besteht aus Tensorprodukten von Hermitefunktionen. Bei der Integration des zugehörigen Systems gewöhnlicher Differentialgleichungen sind in jedem Zeitschritt typerischerweise Matrix-Vektor-Produkte mit der Darstellungsmatrix des Hamiltonoperators der Gleichung bezüglich der gewählten Galerkinbasis zu berechnen. Die Größe dieser Matrix hängt im Falle einer nicht ausgedünnten Basis exponentiell von der Dimension des Problems ab. Das explizite Aufstellen der Matrix überschreitet damit leicht den zur Verfügung stehenden Speicherplatz und erfordert unerträglich lange Rechenzeiten. Diese Arbeit stellt einen schnellen Algorithmus zur Berechnung solcher Matrix-Vektor-Produkte vor, dessen Komplexität nur linear von der Größe der Galerkinbasis abhängt und der ohne explizites Aufstellen der Matrix auskommt. Darüber hinaus erlaubt er nahezu beliebiges Ausdünnen der Basis - sofern eine entsprechende Ausdünnung selbst eine gute Approximation an die gesuchte Lösung des Problems liefert. Stellt man die Ortsoperatoren bezüglich der einzelnen Koordinaten in der gewählten Basis dar, so lassen sich mithilfe der wechselseitigen Orthogonalität der Hermitefunktionen sowie der sie definierenden Drei-Term-Rekursion Produkte dieser Koordinatenmatrizen mit Vektoren in linearer Zeit berechnen. Die bereits von E. Faou, V. Gradinaru und Ch. Lubich vorgestellte Kernidee des schnellen Algorithmus besteht nun darin, die Koordinatenmatrizen formal in eine polynomielle Approximation des Potentials einzusetzen. Wir modifizieren diesen Vorschlag und präsentieren einen rigorosen Algorithmus. Für eine nicht ausgedünnte Galerkinbasis erweist sich diese Idee als äquivalent zur Approximation der Integrale in jedem Eintrag der Matrixdarstellung des Potentials mittels einer spezifisch gewählten Gauß-Hermite-Quadratur, wie in der vorliegenden Arbeit gezeigt wird. Ausdünnen der Basis generiert einen zusätzlichen Fehler. Ein wichtiger Bestandteil dieser Arbeit ist die Fehleranalyse. Insbesondere lassen sich die durch Quadratur und ggf. Ausdünnen der Basis verursachten Fehler jeweils durch geschicktes Umschreiben der Hermite-Rekursion als Binärbaum kontrollieren. Unter der Annahme eines im Vergleich zur exakten Lösung hinreichend glatten Potentials fallen diese Fehler spektral ab. Dies wird in numerischen Experimenten bestätigt. Als Vergleichsmaß für die tatsächliche Einsparung an Rechenzeit durch den schnellen Algorithmus dient uns ein matrixfreier Ansatz, der in der chemischen Literatur entwickelt wurde. Darüber hinaus übertragen wir den obigen Ansatz auf eine analoge Behandlung u.a. der nichtlinearen Schrödingergleichung und von Anfangsrandwertproblemen. Als Beispiel für letztere Klasse betrachten wir im zweiten Teil der Arbeit die Wellengleichung mit variablen Koeffizienten und Engquist-Majda-Randbedingungen und konstruieren analoge effiziente Verfahren für die zugehörigen Matrix-Vektor-Produkte. Wir führen ebenfalls eine Fehleranalyse durch und präsentieren numerische Experimente.
- Published
- 2016
43. Domain parameterization with THB-splines
- Author
-
Ṡ́peh, Jaka
- Subjects
Parametrisierung ,isogeometric analysis ,Hierarchie ,hierarchische Splines ,hierarchical splines ,Spline ,Numerische Mathematik ,parameterization - Abstract
eingereicht von Jaka Ṡ́peh Zusammenfassung in deutscher Sprache Universität Linz, Univ., Dissertation, 2016 OeBB
- Published
- 2016
44. Eine modifizierte algebraische Rekonstruktionstechnik zur Bestimmung des komplexen Brechungsindexes in der THz-Tomographie
- Author
-
Tepe, Jens and Schuster, Thomas
- Subjects
Terahertz tomography ,refractive index ,inverse problems ,non-destructive testing ,Brechzahl ,Zerstörungsfreie Prüfung ,Terahertzbereich ,Terahertz-Tomographie ,Inverse Probleme ,algebraic reconstruction technique ,Tomografie ,ddc:510 ,ddc:620 ,Numerische Mathematik ,Algebraische Rekonstruktionstechnik ,Zerstörungsfreie Werkstoffprüfung - Abstract
Die Terahertz-(THz)-Tomographie ist ein relativ neues Verfahren für die zerstörungsfreie Prüfung. Sie ist besonders geeignet für die Überprüfung von Kunststoffen und Keramiken, da THz-Strahlung diese Materialien einfach durchdringen kann. Bisherige Veröffentlichungen zeigen oft eine direkte oder leicht angepasste Anwendung von Verfahren aus der Computer- oder Ultraschall-Tomographie auf THz-Messdaten. Dabei vernachlässigen diese Algorithmen wichtige Eigenschaften der THz-Strahlung, wie die Brechung an Grenzflächen, Reflexionsverluste und das Gaußsche Strahlprofil, wodurch Rekonstruktionsfehler entstehen. Ein wichtiger Materialparameter ist der komplexe Brechungsindex, aus dem Eigenschaften wie der Füllstoff- und Feuchtegehalt und Inhomogenitäten, wie Brüche und Lufteinschlüsse, abgeleitet werden können. Ziel dieser Arbeit ist die Entwicklung eines effizienten Algorithmus für die Rekonstruktion des komplexen Brechungsindexes aus Transmissionsgrad- und Laufzeitmessungen. Dazu wird ein hybrider Algorithmus, basierend auf der algebraischen Rekonstruktionstechnik (ART), entwickelt, welcher diese um die Brechung (Snelliussches Gesetz) und Reflexionsverluste (Fresnelsche Formeln) erweitert und a priori Informationen über die Grenzflächen des Objektes verwendet. Die abschließenden Ergebnisse mit synthetischen als auch experimentellen Messdaten zeigen, dass die Verwendung der "modifizierten ART" zu einer deutlichen Verbesserung der Rekonstruktionen im Vergleich zu den klassischen Verfahren führt. Terahertz (THz) tomography is a rather novel technique for nondestructive testing that is particularly suited for the testing of plastics and ceramics because THz radiation can easily penetrate these materials. Previous publications showed a large variety of conventional algorithms adapted from computed tomography or ultrasound tomography which were directly applied to THz tomography. Conventional algorithms neglect the specific nature of THz radiation, i. e. refraction at interfaces, reflection losses and the beam profile (Gaussian beam), which results in poor reconstructions. An important material parameter is the complex refractive index since it indicates different material characteristics such as filler content, moisture and inhomogeneities like cracks and air cavities. The aim of this thesis is the development of an efficient reconstruction algorithm to compute the complex refractive index from transmission coefficient and travel time measurements. A hybrid algorithm has been developed based on the algebraic reconstruction technique (ART). ART is adapted by including refraction (Snell's law) and reflection losses (Fresnel equations) and we include a priori information about the interface and layer geometry of the sample. The concluding results were obtained both with synthetic data as well as real measurements and demonstrate that the "Modified ART for THz tomography" significantly improves the quality of the reconstructed images compared to conventional techniques.
- Published
- 2016
- Full Text
- View/download PDF
45. Besov Regularity of Solutions to Navier-Stokes Equations
- Author
-
Eckhardt, Frank and Dahlke, Stephan (Prof. Dr.)
- Subjects
Stokes equation, Navier-Stokes equation ,adaptive Wavelet-Verfahren ,Mathematics::Analysis of PDEs ,Navier-Stokes, Besov-Regularität ,Regularität ,nonlinear approximation ,Physics::Fluid Dynamics ,Mathematik ,FOS: Mathematics ,weighted Sobolev estimate ,ddc:510 ,Wavelet ,Besov space ,Numerische Mathematik ,Mathematics - Abstract
This thesis is concerned with the regularity of solutions to Navier-Stokes and Stokes equation on domains with point singularities, namely polyhedral domains contained in R3 and general bounded Lipschitz domains in Rd, d ≥ 3 with connected boundary. The Navier-Stokes equations provide a mathematical model of the motion of a uid. These Navier-Stokes equations form the basis for the whole world of computational uid dynamics, and therefore they are considered as maybe the most important PDEs known so far. We consider the stationary (Navier-)Stokes equations. The study the Besov regularity of the solution in the scale BsƬ (LƬ (Ω))d, 1/Ƭ = s/d + 1/2 of Besov spaces. This scale is the so-called adaptivity scale. The parameter s determines the approximation order of adaptive numerical wavelet schemes and other nonlinear approximation methods when the error is measured in the L2-norm. In contrast to this the convergence order of linear schemes is determined by the classical L2-Sobolev regularity. In many papers the Besov regularity of the solution to various operator equations/partial differential equations was investigated. The proof of Besov regularity in the adaptivity scale was in many contributions performed by combining weighted Sobolev regularity results with characterizations of Besov spaces by wavelet expansions. Choosing a suitable wavelet basis the coeffcients of the wavelet expansion of the solution can be estimated by exploiting the weighted Sobolev regularity of the solution, such that a certain Besov regularity can be established. This technique was applied for the Stokes system in all papers which are part of this thesis. For achieving Besov regularity for Navier-Stokes equation we used a fixed point argument. We formulate the Navier-Stokes equation as a fixed point equation and therefore regularity results for the corresponding Stokes equation can be transferred to the non-linear case. In the first paper "Besov regularity for the Stokes and the Navier-Stokes system in polyhedral domains" we considered the stationary Stokes- and the Navier-Stokes equations in polyhedral domains. Exploiting weighted Sobolev estimates for the solution we proved that the Besov regularity of the solutions to these equations exceed their Sobolev regularity. In the second paper "Besov Regularity for the Stationary Navier-Stokes Equation on Bounded Lipschitz Domains" we have investigated the stationary (Navier-)Stokes equations on bounded Lipschitz domain. Based on weighted Sobolev estimates again we could establish a Besov regularity result for the solution to the Stokes system. By applying Banach's fixed point theorem we transferred these results to the non-linear Navier-Stokes equation. In order to apply the fixed point theorem we had to require small data and small Reynolds number., In der vorliegenden Arbeit beschäftigen wir uns mit der Regularität von Lösungen zu Navier-Stokes- und Stokes-Gleichungen auf Gebieten mit Randsingularitäten. Mit Hilfe der Navier-Stokes-Gleichungen lassen sich die Ausbreitung von Fluiden mathematisch modellieren. Sie bilden die Grundlage der gesamten Strömungsmechanik und gelten daher als eine der wichtigsten partiellen Differentialgleichungen überhaupt. Wir betrachten stationäre, d.h. zeitunabhängige (Navier-)Stokes-Gleichungen in polyhedralen Gebieten im R3 und in allgemeinen beschränkten Lipschitz-Gebieten mit zusammenhängenden Rand im Rd, d ≥ 3. Wir bestimmen die Regularität s in der Skala von Besov-Räumen BsƬ (LƬ (Ω))d, 1/Ƭ = s/d + 1/2. Diese Skala ist die sogenannte Adaptivitäts-Skala. Der Glattheitsparameter s bestimmt die Konvergenzordnung von bestimmten adaptiven, numerischen Wavelet-Verfahren, sowie von anderen nicht linearen Approximationsmethoden. Die Konvergenzordnung von linearen Verfahren wird dagegen durch die klassische L2-Sobolev-Regularität der Lösung bestimmt. In zahlreichen Arbeiten wurde die Besov-Regularität in der Adaptivitäts-Skala von Lösungen verschiedener Operatorgleichunge/partiellen Differentialgleichungen untersucht. Dabei wurden Resultate über gewichtete Sobolev-Regularität verwendet, um die Koeffzienten einer Wavelet-Entwicklung der Lösung geeignet abzuschätzen. Diese Beweisidee beruht auf der Charakterisierung der Besov-Räume durch Wavelets. Diese Technik wurde in dieser Arbeit verwendet, um Besov-Regularität für die Lösungen der (Navier-)Stokes-Gleichungen auf polyhedralen Gebieten, sowie der Stokes-Gleichung auf Lipschitz-Gebieten zu beweisen. Um Besov-Regularität für die Navier-Stokes-Gleichung auf Lipschitz-Gebieten zu etablieren, wurde ein Fixpunktargument angewendet: Die Navier-Stokes-Gleichung lässt sich als Fixpunktproblem formulieren, so dass sich die nicht lineare Gleichung als lineare Gleichung mit modifzierte rechter Seite auffassen lässt. Die Regularitätsaussagen folgen dann aus den entsprechenden Aussagen für die Stokes-Gleichung. In dem ersten Paper "Besov regularity for the Stokes and the Navier-Stokes system in polyhedral domains" haben wir die Regularität der Lösungen der stationären (Navier-) Stokes-Gleichungen in polyhedralen Gebieten untersucht. Unter Zuhilfenahme von gewichteten Sobolev-Regularitätsaussagen für die Lösung konnten wir Besov-Regularitätsresultate beweisen, die zeigen, dass die Besov-Regularität die Sobolev-Regularität der Lösung tatsächlich übertrifft. In der zweiten Arbeit "Besov Regularity for the Stationary Navier-Stokes Equation on Bounded Lipschitz Domains" haben wir die Besov-Regularität der Lösung von (Navier-)Stokes-Gleichungen in beschränkten Lipschtz-Gebieten untersucht. Genau wie bei der Untersuchung in polyhedralen Gebieten, wurden hier gewichtete Sobolev-Abschätzungen verwendet, um Besov-Regularität der Lösung für die Stokes-Gleichung zu zeigen. Um entsprechende Aussagen für die Navier-Stokes-Gleichung zu zeigen, haben wir den Banach'schen Fixpunktsatz angewandt. Um die Existenz eines Fixpunktes garantieren zu können, sind Bedingungen an das Gebiet, die Norm der rechten Seite, sowie der Reynolds-Zahl zu stellen.
- Published
- 2016
46. Optimal Control Problems with Singularly Perturbed Differential Equations as Side Constraints: Analysis and Numerics
- Author
-
Reibiger, Christian, Roos, Hans-Görg, Lube, Gert, and Technische Universität Dresden
- Subjects
ddc:520 ,Optimale Steuerung, singulär gestört, analysis, Lösungseigenschaften, FEM, Finite Elemente, Numerik, Shishkin-Gitter, Fehlerabschätzung ,Differentialgleichung ,Optimale Kontrolle ,Numerische Mathematik ,Fehlerabschätzung ,Optimal Control, singularly perturbed, analysis, solution properties, fem, finite elements, numerics, shishkin-mesh, error estimates - Abstract
It is well-known that the solution of a so-called singularly perturbed differential equation exhibits layers. These are small regions in the domain where the solution changes drastically. These layers deteriorate the convergence of standard numerical algorithms, such as the finite element method on a uniform mesh. In the past many approaches were developed to overcome this difficulty. In this context it was very helpful to understand the structure of the solution - especially to know where the layers can occur. Therefore, we have a lot of analysis in the literature concerning the properties of solutions of such problems. Nevertheless, this field is far from being understood conclusively. More recently, there is an increasing interest in the numerics of optimal control problems subject to a singularly perturbed convection-diffusion equation and box constraints for the control. However, it is not much known about the solutions of such optimal control problems. The proposed solution methods are based on the experience one has from scalar singularly perturbed differential equations, but so far, the analysis presented does not use the structure of the solution and in fact, the provided bounds are rather meaningless for solutions which exhibit boundary layers, since these bounds scale like epsilon^(-1.5) as epsilon converges to 0. In this thesis we strive to prove bounds for the solution and its derivatives of the optimal control problem. These bounds show that there is an additional layer that is weaker than the layers one expects knowing the results for scalar differential equation problems, but that weak layer deteriorates the convergence of the proposed methods. In Chapter 1 and 2 we discuss the optimal control problem for the one-dimensional case. We consider the case without control constraints and the case with control constraints separately. For the case without control constraints we develop a method to prove bounds for arbitrary derivatives of the solution, given the data is smooth enough. For the latter case we prove bounds for the derivatives up to the second order. Subsequently, we discuss several discretization methods. In this context we use special Shishkin meshes. These meshes are piecewise equidistant, but have a very fine subdivision in the region of the layers. Additionally, we consider different ways of discretizing the control constraints. The first one enforces the compliance of the constraints everywhere and the other one enforces it only in the mesh nodes. For each proposed algorithm we prove convergence estimates that are independent of the parameter epsilon. Hence, they are meaningful even for small values of epsilon. As a next step we turn to the two-dimensional case. To be able to adapt the proofs of Chapter 2 to this case we require bounds for the solution of the scalar differential equation problem for a right hand side f only in W^(1,infty). Although, a lot of results for this problem can be found in the literature but we can not apply any of them, because they require a smooth right hand side f in C^(2,alpha) for some alpha in (0,1). Therefore, we dedicate Chapter 3 to the analysis of the scalar differential equations problem only using a right hand side f that is not very smooth. In Chapter 4 we strive to prove bounds for the solution of the optimal control problem in the two dimensional case. The analysis for this problem is not complete. Especially, the characteristic layers induce subproblems that are not understood completely. Hence, we can not prove sharp bounds for all terms in the solution decomposition we construct. Nevertheless, we propose a solution method. Numerical results indicate an epsilon-independent convergence for the considered examples - although we are not able to prove this.
- Published
- 2014
47. Berechnung und Anwendungen Approximativer Randbasen
- Author
-
Limbeck, Jan
- Subjects
Modellierung ,Computeralgebra ,ddc:510 ,Erdöl ,Diagonalisierung ,Numerische Mathematik - Abstract
This thesis addresses some of the algorithmic and numerical challenges associated with the computation of approximate border bases, a generalisation of border bases, in the context of the oil and gas industry. The concept of approximate border bases was introduced by D. Heldt, M. Kreuzer, S. Pokutta and H. Poulisse in "Approximate computation of zero-dimensional polynomial ideals" as an effective mean to derive physically relevant polynomial models from measured data. The main advantages of this approach compared to alternative techniques currently in use in the (hydrocarbon) industry are its power to derive polynomial models without additional a priori knowledge about the underlying physical system and its robustness with respect to noise in the measured input data. The so-called Approximate Vanishing Ideal (AVI) algorithm which can be used to compute approximate border bases and which was also introduced by D. Heldt et al. in the paper mentioned above served as a starting point for the research which is conducted in this thesis. A central aim of this work is to broaden the applicability of the AVI algorithm to additional areas in the oil and gas industry, like seismic imaging and the compact representation of unconventional geological structures. For this purpose several new algorithms are developed, among others the so-called Approximate Buchberger Möller (ABM) algorithm and the Extended-ABM algorithm. The numerical aspects and the runtime of the methods are analysed in detail - based on a solid foundation of the underlying mathematical and algorithmic concepts that are also provided in this thesis. It is shown that the worst case runtime of the ABM algorithm is cubic in the number of input points, which is a significant improvement over the biquadratic worst case runtime of the AVI algorithm. Furthermore, we show that the ABM algorithm allows us to exercise more direct control over the essential properties of the computed approximate border basis than the AVI algorithm. The improved runtime and the additional control turn out to be the key enablers for the new industrial applications that are proposed here. As a conclusion to the work on the computation of approximate border bases, a detailed comparison between the approach in this thesis and some other state of the art algorithms is given. Furthermore, this work also addresses one important shortcoming of approximate border bases, namely that central concepts from exact algebra such as syzygies could so far not be translated to the setting of approximate border bases. One way to mitigate this problem is to construct a "close by" exact border bases for a given approximate one. Here we present and discuss two new algorithmic approaches that allow us to compute such close by exact border bases. In the first one, we establish a link between this task, referred to as the rational recovery problem, and the problem of simultaneously quasi-diagonalising a set of complex matrices. As simultaneous quasi-diagonalisation is not a standard topic in numerical linear algebra there are hardly any off-the-shelf algorithms and implementations available that are both fast and numerically adequate for our purposes. To bridge this gap we introduce and study a new algorithm that is based on a variant of the classical Jacobi eigenvalue algorithm, which also works for non-symmetric matrices. As a second solution of the rational recovery problem, we motivate and discuss how to compute a close by exact border basis via the minimisation of a sum of squares expression, that is formed from the polynomials in the given approximate border basis. Finally, several applications of the newly developed algorithms are presented. Those include production modelling of oil and gas fields, reconstruction of the subsurface velocities for simple subsurface geometries, the compact representation of unconventional oil and gas bodies via algebraic surfaces and the stable numerical approximation of the roots of zero-dimensional polynomial ideals.
- Published
- 2014
48. Mathematik durch Modellierung: Lehrerausbildung und Lehrerfortbildung mit einem portablen Computeralgebrasystem
- Author
-
Sonar, Thomas
- Published
- 2004
- Full Text
- View/download PDF
49. Spielorientierte Förderung numerischer Kompetenzen im Vorschulalter und deren Eignung zur Prävention von Rechenschwierigkeiten
- Author
-
Jörns, Christina, Schuchardt, Kirsten, Grube, Dietmar, and Mähler, Claudia
- Subjects
Pädagogik der frühen Kindheit ,Mathematics Achievement ,Erziehung, Schul- und Bildungswesen ,Acalculia ,Aptitude ,Vorschulalter ,Prävention ,370 Erziehung, Schul- und Bildungswesen ,Learning difficulty in arithmetic ,Education ,Early remedial education ,ddc:370 ,Pre-school age ,Spielerische Mathematik ,Germany ,Eignung ,Empirische Bildungsforschung ,Preschool age ,Evaluation ,Deutschland ,Numerische Mathematik ,Early childhood education ,Prevention ,Empirische Untersuchung ,Frühförderung ,Mathematische Kompetenz ,Rechenschwäche ,Vorschulpädagogik ,Empirical study ,Mathematics skills ,Frühpädagogik ,370 Education - Abstract
Empirische Sonderpädagogik 6 (2014) 3, S. 243-259, In der vorliegenden Evaluationsstudie wurde untersucht, ob numerische Kompetenzen im Vorschulalter durch in den Kindergartenalltag integrierte zahlen- und mengenbezogene Spiele gefördert werden können. Darüber hinaus war es von Interesse herauszufinden, ob Kindergartenkinder mit weniger gut entwickelten numerischen Kompetenzen insofern von dieser Fördermethode profitieren, als dass sie ihren Leistungsrückstand aufholen können. Realisiert wurde ein Prätest-Posttest-Design mit einer Fördergruppe, einer Kontrollgruppe mit Kontrollintervention sowie einer Wartekontrollgruppe. Insgesamt nahmen 142 Kinder im Alter von vier bis fünf Jahren an der Studie teil. Die Ergebnisse kovarianzanalytischer Verfahren mit Messwiederholung sprechen dafür, dass sich die numerischen Kompetenzen von Kindergartenkindern anhand des verwendeten Förderkonzepts steigern lassen. Außerdem konnte gezeigt werden, dass jene Kinder der Fördergruppe, deren numerische Leistung zum Prätestzeitpunkt unter dem Median der Gesamtstichprobe lag, einen höheren Leistungszuwachs aufwiesen als die leistungsstärkeren Kinder, die nicht mit den zahl- und mengenbezogenen Spielen gefördert wurden. Die Ergebnisse weisen somit auch auf eine Eignung des spielerischen Förderkonzepts zur Kompensation von Entwicklungsnachteilen bezüglich der numerischen Kompetenz hin. (DIPF/Orig.), In this study, we investigated if preschool children´s numerical skills can be fostered by playing number- and quantity-related games during children´s daily playtimes. Furthermore, we wanted to find out if preschoolers with poorly developed numerical skills catch up on their developmental delay by playing these games. In order to do so, we used a pretest-posttest-design with (a) an intervention group playing number- and quantity-related games, (b) a control group participating in another intervention with the same basic conditions but other intervention goals and (c) a control group without an intervention. One hundred forty-two children aged 4 to 5 years participated in the study. The results show that preschoolers’ numerical skills can be increased by playing number- and quantity-related games. Furthermore, the numerical skills of children with poorly developed numerical skills increased more significantly than the numerical skills of children with better developed numerical skills who did not play the number- and quantity-related games. Thus, results indicate that playing these number- and quantity-related games might be used to compensate for early developmental disadvantage in numerical skills. (DIPF/Orig.)
- Published
- 2014
- Full Text
- View/download PDF
50. Multi-scale Lattice Boltzmann simulations on distributed octrees
- Author
-
Hasert, Manuel and Roller, Sabine P.
- Subjects
Numerik ,Gitter-Boltzmann-Methode ,parallel computing ,poröse Medien ,Gitter-Boltzmann-Verfahren ,Strömungsakustik ,Ingenieurwissenschaften ,porous media ,aeroacoustics ,paralleles Rechnen ,Lattice Boltzmann Method ,ddc:620 ,Hochleistungsrechnen ,Numerische Mathematik - Abstract
This thesis deals with the prediction of aerodynamic noise resulting from the flow through porous media. A porous flat plate silencer of a pneumatic valve terminal serves as a model test case. In an experimental setup, the porous plate was put in the outflow of an air supply pipe and the aerodynamic noise was recorded at five positions on a cylindrical hull surface around the outflow. This thesis aims at correctly reprodudcing sound pressure levels by performing a fully resolved simulation of the flow through the porous pores and a direct computation of the sound generation. This task is approached with the Lattice Boltzmann Method (LBM), which is based on a simplified, statistical model of particle movement allowing the simulation of fluids in a weakly compressible regime. An essential part of this work is the development of the highly parallel, octree-based flow solver Musubi. Musubi is part of the APES-simulation suite, providing tools based on the central octree structure for solving complex fluid problems and allowing the flexible and efficient usage with extremely large data sets. Details and data structures of the flow solver are presented. On modern computing platforms, an efficient solution of large problems can be achieved only through an increased amount of parallelism and heterogeneity in the machines. Software has to adapt to this development and must be specially tailored to make use of the theoretically available computing capacity. This steady increase in complexity also affects programming, by which maintenance, extension and porting of scientific software becomes increasingly difficult. Therefore new programming paradigms are created enabling the compilers in theory to automatically perform large amounts of optimization for these complex machines. The parallel extension of Fortran is such a new model and is evaluated for suitability in the context of the LBM in this thesis. The solver Musubi is then validated by means of suitable test cases for all flow regimes. The latter include the turbulent flow through porous media, the aeroacoustic sound generation as well as a validation of the local grid refinement which is needed to model such a multi-scale problem. Finally, the insights gained are applied to solve the actual problem of the flow through the porous flat plate silencer.
- Published
- 2014
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.