Please use this identifier to cite or link to this item: http://dx.doi.org/10.18419/opus-5066
Authors: Offtermatt, Jonas
Title: A projection and a variational regularization method for sparse inverse problems
Other Titles: Eine Projektions- und eine Regularisierungsmethode für dünnbesetzte inverse Probleme
Issue Date: 2012
metadata.ubs.publikation.typ: Dissertation
URI: http://nbn-resolving.de/urn:nbn:de:bsz:93-opus-74272
http://elib.uni-stuttgart.de/handle/11682/5083
http://dx.doi.org/10.18419/opus-5066
Abstract: The solution of sparse inverse problems has become a highly active topic over the past decade. This thesis aims at providing new methods for the regularization of sparse and possibly ill-posed inverse problems. In this work a projection and a variational regularization method for the solution of sparse inverse problems are presented. The description and analysis of each of these two methods is complemented by an additional related topic. The projection method, developed in Chapter 4, is based on an adaptive regularization method for a distributed parameter in a parabolic PDE, originally introduced by Chavent and coauthors. Here we adapt this approach for general sparse inverse problems. Furthermore a well-definedness result is presented and it is proven that the minimizer achieved by the algorithm solves the original problem in a least squares sense. Additionally, we illustrated the efficiency of the algorithm by two numerical examples from applications in systems biology and data analysis. The sequence of subspaces adaptively chosen by the introduced algorithm leads us to the analysis of regularization by discretization in preimage space. This regularization method is known to convergence only under additional assumptions on the solution. In Chapter 5 regularization by discretization in case of noisy data under a suitable source condition is considered. We present some results of well-definedness, stability and convergence for linear and nonlinear inverse problems in case the regularization subspace is chosen by the discrepancy principle. In Chapter 6 the second main part of this thesis starts. There we present a variational method for sparse inverse problems. Before introducing a new regularization functional, we take a closer look at Bayesian regularization theory. We give a brief introduction and present the connection between deterministic Tikhonov regularization and stochastic Bayesian inversion in case of Gaussian densities, developed by Kaipio and Somersalo. Then we discuss the convergence results from Hofinger and Pikkarainen for the stochastic theory, which are based on this close connection. Also we outline a concept for a general convergence result and prove a generalization result for the existence of a R-minimizing solution. Again we illustrate the gained results with some numerical examples. We use the close connection between stochastic and deterministic regularization to develop a new regularization functional for sparse inverse problems in Chapter 8. There we establish well-definedness, stability and convergence proofs for this functional, based on the results from Hofmann et al. Additionally, we prove convergence rates for the new functional. However, only in a generalized Bregman distance introduced by Grasmair, as the generated regularization term is not convex. The proposed functional is differentiable and thus can be used in gradient based optimization methods, e. g. a Quasi Newton method. We illustrate the efficiency and accuracy of this approach again with some numerical examples. The thesis starts with a general and detailed introduction into inverse problems. First a motivation and introduction to inverse problems is given in Chapter 1. Then a brief overview over recent results in regularization theory is presented in Chapter 2. Finally Chapter 3 closes the introductory part with a motivation and some first notations on sparsity in inverse problems.
In dieser Dissertationsschrift werden neue Methoden und Aspekte der Regularisierungstheorie für dünnbesetzte, schlecht gestellte inverse Probleme diskutiert. Nachfolgend werden eine Projektions- sowie eine Variationsmethode zur Lösung von dünnbesetzten inversen Problemen vorgestellt. Ergänzend dazu wird jeweils ein verwandtes Thema besprochen. Die Projektionsmethode wird in Kapitel 4 entwickelt und basiert auf einer adaptiven Regularisierungsmethode. Diese wurde ursprünglich von Chavent et al. vorgeschlagen, um einen verteilten Parameter in einer parabolischen partiellen Differentialgleichung zu identifizieren. Wir passen den Ansatz für allgemeine, dünnbesetzte, inverse Probleme an. Für den dadurch entstehenden Algorithmus zeigen wir die Wohldefiniertheit des projizierten Minimierungsproblems. Zusätzlich wird bewiesen, dass die Minimalstelle, welche der Algorithmus berechnet, das ursprüngliche Problem in Sinne des kleinsten quadratischen Fehlers löst. Um die Effizienz der Methode zu veranschaulichen, wird der Algorithmus auf ein Problem in der Systembiologie, sowie ein Problem in der Datenanalyse angewendet. Die adaptiv erzeugte Folge von Unterräumen, welche der obige Algorithmus erzeugt, führt uns zum Thema des nächsten Kapitels, der Regularisierung durch Diskretisierung im Urbildraum. Obwohl bekannt ist, dass diese Methode nur unter Zusatzvoraussetzungen an die Lösung konvergiert, wird sie aufgrund ihrer einfachen Implementation häufig verwendet. In Kapitel 5 beweisen wir neue Ergebnisse zur Wohldefiniertheit, Stabilität und Konvergenz für Regularisierung durch Diskretisierung im Urbildraum für lineare, sowie nichtlineare inverse Probleme bei verrauschten Daten. Dabei setzen wir eine entsprechende Glattheit der Lösung voraus, sowie dass das Diskrepanzprinzip zur Wahl des regularisierenden Unterraums verwendet wird. Mit Kapitel 6 beginnt der zweite große Teil dieser Arbeit. In diesem Teil wird ein neues Regularisierungsfunktional für dünnbesetzte inverse Probleme vorgestellt. Bevor wir allerdings dieses neue Funktional besprechen, werden wir genauer auf die stochastische Bayes Regularisierung eingehen. Zunächst gibt es eine kurze Einführung in das Thema, bevor die für das nächste Kapitel wichtige Verbindung zwischen stochastischer und deterministischer Regularisierung gezeigt wird. Diese Verbindung wurde schon von Kaipo und Somersalo ausführlich behandelt, sowie von Hofinger und Pikkarainen verwendet, um Konvergenz der Posteriorverteilung gegen eine Punktverteilung zu zeigen. Wir diskutieren dieses Konvergenzkonzept und skizzieren eine mögliche Erweiterung für allgemeine Verteilungen. Zusätzlich beweisen wir eine Verallgemeinerung des Existenzresultats für R -minimierende Lösungen. Auch dieses Kapitel beinhaltet numerische Beispiele um die theoretischen Resultate zu veranschaulichen. Daraufhin wird im nächsten Kapitel die Verbindung zwischen stochastischer und deterministischer Regularisierung verwendet, um ein neues Dünnbesetztheit förderndes Funktional zu erzeugen. Wir zeigen in diesem Kapitel die Wohldefiniertheit, Stabilität und Konvergenz für ein Tikhonov-Funktional mit diesem neuen Regularisierungsterm. Dazu verwenden wir die schon bekannten Ergebnisse für allgemeine Tikhonovregularisierung auf Banachräumen. Darüber hinaus beweisen wir Konvergenzraten für das so entstandene Regularisierungsfunktional. Da der erzeugte Regularisierungsterm nicht konvex ist, geschieht dies in einer verallgemeinerten Bregman-Distanz, welche von Grasmair für nicht konvexe Funktionale eingeführt wurde. Das vorgeschlagene Funktional ist differenzierbar und kann somit in effizienten Gradienten basierten Optimierungsverfahren verwendet werden. Wir zeigen anhand einiger numerischer Beispiele, wie ein solches Verfahren funktioniert und vergleichen die Ergebnisse mit bereits bekannten Methoden für dünnbesetzte inverse Probleme. Die vorliegende Arbeit beginnt mit einer allgemeinen Einführung in die Thematik der dünnbesetzten inversen Probleme. So wird in Kapitel 1 zuerst einmal eine Einführung, sowie Motivation für die Betrachtung von allgemeinen schlecht gestellten inversen Problemen gegeben. Daraufhin werden in Kapitel 2 erste Lösungsmethoden für inverse Probleme vorgestellt. Bevor schließlich in Kapitel 3 anhand zweier Beispiele die Notationen, sowie die Relevanz von dünnbesetzten inversen Problemen veranschaulicht wird.
Appears in Collections:08 Fakultät Mathematik und Physik

Files in This Item:
File Description SizeFormat 
DissertationOfftermatt.pdf2,08 MBAdobe PDFView/Open


Items in OPUS are protected by copyright, with all rights reserved, unless otherwise indicated.