Ullrich, Finn2025-06-062025http://nbn-resolving.de/urn:nbn:de:bsz:93-opus-ds-165210https://elib.uni-stuttgart.de/handle/11682/16521https://doi.org/10.18419/opus-16502PDEs are highly influential in physics and are describing various phenomena in the world, from wave movement to electro-magnetics. The problem arises when one tries to solve them, which requires enormous computing power for a numerical solution. To overcome the limitiations, neural PDE solvers have been proposed, using neural networks to approximate the solution trajectories. However, neural PDE solvers require training data from an computationally expensive numerical solver. Therefore, Musekamp et al. created a benchmark, which investigates active learning for neural PDE solvers. Active learning can reduce the amount of data required, while keeping the same performance. In this work, we will demonstrate a new strategy of selecting samples called stochastic query synthesis. Following this, we will remove the pool currently used and rather create a Markov chain directly from the input space containing unlabeled instances. The transition probability is based on the unadjusted Langevin algorithm, allowing us to sample by exploiting gradient information. To retrieve a better result, instead of just one chain, we will create multiple parallel chains, and only take the last state as input. We will show that this approach is equally effective as the currently implemented pool-based implementation. However, there are still performance problems that need to be solved in the future, to make it viable in practice.PDGs sind einflussreich in der Physik und beschreiben verschiedene Phänomene in der Welt, von der Wellenbewegung bis zur Elektromagnetik. Problematisch wird es, wenn man versucht, sie zu lösen. Um eine numerische Lösung zu erhalten, ist eine enorme Rechenleistung erforderlich. Um diese Einschränkungen zu überwinden, wurden neuronale PDG-Löser vorgeschlagen, die neuronale Netze verwenden, um die Lösungstrajektorien zu approximieren. Neuronale PDG-Solver benötigen jedoch Trainingsdaten von einem rechenintensiven numerischen Solver. Daher haben Musekamp et al. einen Benchmark entwickelt, der aktives Lernen für neuronale PDG-Löser untersucht. Aktives Lernen kann die Menge der benötigten Trainingsdaten bei gleicher Leistung reduzieren. In dieser Arbeit demonstrieren wir stochastic query synthesis als eine neue Strategie zur Auswahl von Stichproben. Anstelle des aktuell verwendeten Pools wird eine Markow-Kette aus dem Eingabebereich mit unbeschrifteten Instanzen erzeugt. Die Übergangswahrscheinlichkeiten werden durch den unadjusted Langevin algorithm definiert, was uns erlaubt, Stichproben unter Ausnutzung der Gradienteninformation zu ziehen. Um dieses Ergebnis zu verbessern, erstellen wir mehrere parallele Markov-Ketten, indem wir nur den letzten Zustand als Eingabe verwenden. Wir werden zeigen, dass diese Art der Implementierung genauso effektiv ist wie die derzeit verwendete Pool-basierte Implementierung. Es gibt jedoch noch Performance-Probleme, die in Zukunft gelöst werden müssen, um den Algorithmus effizient einsetzen zu könneneninfo:eu-repo/semantics/openAccess004Stochastic query synthesis for neural PDE solversbachelorThesis