1. Stability of coupled adaptive filters
- Author
-
Dallinger, Robert
- Subjects
mehrlagiges Perzeptron ,Neural Networks ,aktive Rauschunterdr��ckung ,l2-Stability ,Backpropagation ,Multilayer Perceptron ,Fehlerr��ckf��hrung ,Gradientenverfahren ,Active Noise Control ,Matrix Step-Size ,Multichannel Filtered-x LMS ,Matrixschrittweite ,Digital Signal Processing ,FxLMS ,Gekoppelte adaptive Filter ,Least-Mean-Squares Algorithm ,neuronale Netze ,Coupled Adaptive Filters ,ANC ,digitale Signalverarbeitung ,Parameter Convergence ,Wiener Model ,Parameterkonvergenz ,mehrkanaliger LMS mit gefiltertem Eingangssignal ,Gradient Methods ,l2-Stabilit��t - Abstract
Die L��sung vieler Problemstellungen im naturwissenschaftlichen und technischen Bereich beruht auf Kenntnis eines Systems, das nur teilweise durch Beobachtungen erfasst werden kann. Typischerweise wird in solchen F��llen ein passendes Modell gew��hlt, das einem Satz von gemessenen Daten hinreichend gut angepasst werden kann. In manchen F��llen sind diese Daten sehr umfangreich und es kann auf entsprechend leistungsstarke numerische Mittel zur��ckgegriffen werden. In anderen F��llen, handelt es sich bei diesen Daten um einige wenige Str��me von Messwerten, die gleich nach ihrem eintreffen mit geringem Rechenaufwand verarbeitet werden m��ssen. Diese Arbeit besch��ftigt sich ausschlie��lich mit letzterer Situation und betrachtet speziell das Verhalten sowie die Verl��sslichkeit von Gradientenverfahren, sowie von Strukturen die mehrere von diesen kombinieren. Kapitel 3 widmet sich sogenannten asymmetrischen Algorithmen. Dies sind Gradientenverfahren, bei denen die Regressionsrichtung nicht wie sonst ��blich der Richtung des Eingangsvektors entspricht. In einem ersten Schritt wird gezeigt, dass die korrespondierende homogene Rekursion potentiell divergieren kann, da deren Koeffzientenmatrix einen Singul��rwert gr����er eins besitzt. Simulationsexperimente f��r eine der wichtigsten Teilklassen asymmetrischer Algorithmen, den Least-Mean-Squares (LMS) Algorithmus mit Matrixschrittweite, er��ffnen jedoch die Einsicht, dass diese Divergenz selbst unter widrigsten Umst��nden in einigen F��llen nicht zutage tritt. Eine anschlie��ende detaillierte Analyse dieses Ph��nomens basierend auf geometrischen Argumenten f��hrt zu der Erkenntnis, dass nur dann Divergenz auftreten kann, wenn sich die Eigenr��ume der Schrittweitenmatrix unaufh��rlich ver��ndern. Der zweite Teil dieses Kapitels pr��sentiert zwei Methoden, mit deren Hilfe konkrete Algorithmen auf die Existenz eines solchen Verhaltens getestet werden k��nnen. Beide Methoden erlauben die Generierung ung��nstiger Anregungsfolgen, wobei in einem Fall analytische Mittel, im anderen Fall eine numerische Suche f��r deren Erzeugung eingesetzt wird. Das vierte Kapitel konzentriert sich auf konventionelle Gradientenverfahren, hier auch als symmetrische Algorithmen bezeichnet. Es wird allerdings nicht nur ein solcher Algorithmus isoliert betrachtet, sondern eine spezielle Struktur, die mehrere von diesen kombiniert, indem deren individuelle a priori Fehler gegenseitig linear und ohne Ged��chtnis interferieren. F��r diese Struktur werden einerseits Bedingungen f��r l2-Stabilit��t hergeleitet, basierend auf der L��sung von Systemen linearer Ungleichungen in Kombination mit der Theorie zu M-Matrizen. Andererseits erfolgt eine Analyse auf Basis der Inhalte von Kapitel 3. Mit Hilfe des Khatri-Rao Matrixprodukt lassen sich so kompakte Schranken angeben, die einen endlichen Grenzwert des Parameterfehlers garantieren. Schlie��lich wird der f��r die Praxis relevante Spezialfall behandelt, bei dem alle einzelnen Gradientenverfahren denselben Fehler benutzen um deren Parameter zu adaptieren. Es zeigt sich, dass das Verhalten einer solchen Struktur durch einen LMS Algorithmus mit Matrixschrittweite beschrieben werden kann, wodurch s��mtliche Erkenntnisse aus Kapitel 3 zur Anwendung gebracht werden k��nnen. Kapitel 5 wendet die zuvor entwickelte Theorie auf praktisch eingesetzte adaptive Systeme an. Dies erlaubt f��r das, in der digitalen Vorverzerrung von Leistungsverst��rkern eingesetzte, adaptive Wiener Modell, bestehend aus einem linearen Filter gefolgt von einer ged��chtnislosen Nichtlinearit��t, Bedingungen f��r l2-Stabilit��t und f��r einen begrenzten Parameterfehler anzugeben. ��quivalente Ergebnisse werden auch f��r den mehrkanaligen LMS Algorithmus mit gefiltertem Eingangssignal (MC-FXLMS), verwendet in der aktiven Rauschunterdr��ckung, hergeleitet. Abschlie��end wird ein k��nstliches neuronales Netz (ein mehrlagiges Perzeptron) betrachtet, das mittels Fehlerr��ckf��hrung trainiert wird. Das Resultat f��r ein solches Netz beliebiger Gr����e zeigt, dass Parameterkonvergenz kaum garantiert werden kann und wesentlich von der Qualit��t der Initialisierung abh��ngt., Nowadays, many disciplines in science and engineering deal with problems for which a solution relies on knowledge about the characteristics of one or more given systems that can only be ascertained based on restricted observations. This requires the fitting of an adequately chosen model, such that it "best" conforms to a set of measured data. Depending on the context, this fitting procedure may resort to a huge amount of recorded data and abundant numerical power, or contrarily, to only a few streams of samples, which have to be processed on the fly at low computational cost. This thesis, exclusively focuses on the latter scenario. It specifically studies unexpected behaviour and reliability of the widely spread and computationally highly efficient class of gradient type algorithms. Additionally, special attention is paid to systems that combine several of them. Chapter 3 is dedicated to so called asymmetric algorithms. These are gradient type algorithms that do not employ the (commonly used) unaltered input vector for regression. In a first step, it is shown that for such algorithms, the mapping matrix of the underlying homogeneous recursion has one singular value that is larger than one. This entails the risk of parameter divergence. Restricting to the most prominent subclass of asymmetric algorithms, the least-mean-squares (LMS) algorithm with matrix step-size, simulation experiments demonstrate that such divergence does not occur for all step-size matrices, even under worst case conditions. Motivated by this observation, the first part of this chapter dissects this phenomenon based on geometric arguments and comes to the novel insight that persistently changing eigenspaces of the step-size matrix are at the core of this worst case parameter divergence. In the second part, analytic as well as numeric methods are derived that allow to intentionally provoke this type of divergence, in order to assess specific algorithms. A combination of arbitrarily many symmetric algorithms, i.e., conventional LMS algorithms, is addressed in Chapter 4. It considers a structure of such algorithms that mutually interfere with each other via a linear memoryless coupling among their individual a priori errors. Conditions for l2-stability as well as boundedness of the parameter error are derived. The primer are obtained by the solution of a linear system of inequalities, resorting to the theory of M-matrices. The latter are compactly stated by means of the Khatri-Rao matrix product. Finally, a practically relevant case of coupling is analysed, where all of the individual adaptive schemes employ the same update error. This situation is found to be equivalent to an LMS algorithm with matrix step-size, making it accessible to the findings of Chapter 3. The such obtained theoretic apparatus is applied in Chapter 5 to types of adaptive systems that are encountered in real life. First, for an adaptive Wiener model in a configuration that is typically used in digital pre-distortion of microwave power amplifiers, consisting of a linear filter followed by a memoryless non-linearity, a condition for l2-stability and boundedness of its parameter error is identified. Resorting to the knowledge gained about asymmetric algorithms, this boundedness is then found to be extendible to less restrictive and practically more feasible constraints. Then, the multichannel filtered-x LMS is studied in context of active noise control, leading to sufficient bounds for l2-stability and boundedness of its parameter error. Finally, the theory of Chapters 3 and 4 is harnessed to confirm that parameter convergence of an arbitrarily sized multilayer perceptron trained by the backpropagation algorithm can barely be ensured and strongly depends on the quality of its parameter initialisation.
- Published
- 2016
- Full Text
- View/download PDF