Bitte benutzen Sie diese Kennung, um auf die Ressource zu verweisen: http://dx.doi.org/10.18419/opus-12066
Autor(en): Zimmermann, Heiko
Titel: Bayesian functional optimization of neural network activation functions
Erscheinungsdatum: 2017
Dokumentart: Abschlussarbeit (Master)
Seiten: 51
URI: http://nbn-resolving.de/urn:nbn:de:bsz:93-opus-ds-120832
http://elib.uni-stuttgart.de/handle/11682/12083
http://dx.doi.org/10.18419/opus-12066
Zusammenfassung: In the past we have seen many great successes of Bayesian optimization as a black-box and hyperparameter optimization method in many applications of machine learning. Most existing approaches aim to optimize an unknown objective function by treating it as a random function and place a parametric prior over it. Recently an alternative approach was introduced which allows Bayesian optimization to work in nonparametric settings to optimize functionals (Bayesian functional optimization). Another well recognized framework that powers some of today’s most competitive machine learning algorithms are artificial neural networks which are state of the art tools to parameterize and train complex nonlinear models. However, while normally a lot of attention is paid to the network’s layout and structure the neuron’s nonlinear activation function is often still chosen from the set of commonly used function. While recent work addressing this problem mainly considers steepest-descent-based methods to jointly train individual neuron activation functions and the network parameters, we use Bayesian functional optimization to search for globally optimal shared activation functions. Therefore, we formulate the problem as a functional optimization problem and model the activation functions as elements in a reproducing kernel Hilbert space. Our experiments have shown that Bayesian functional optimization outperforms a similar parametric approach using standard Bayesian optimization and works well for higher dimensional problems. Compared to the baseline models with fixed sigmoid and jointly trained shared activation function we achieved an improvement of the relative classification error over 39% and over 20%, respectively.
In der Vergangenheit konnte Bayesian Optimization viele Erfolge als Black-Box und Hyperparameter-Optimierungsverfahren in vielen Anwendungen des maschinellen Lernens erzielen. Die meisten bestehenden Ansätze zielen auf die Optimierung einer unbekannter unbekannten Zielfunktion ab, indem sie diese als zufällige Funktion behandeln und einen parametrischen Ansatz wählen. Kürzlich wurde ein alternativer Ansatz vorgestellt, der es ermöglicht Bayesian Optimization in nicht parametrischen Szenarien zu verwenden (Bayesian functional optimization). Eine weiteres viel beachtetes Framework, dass in viele wettbewerbsfähigen Algorithmen des maschinellen Lernens verwendet wird, sind künstliche neuronale Netze, die zu den state-of-the-art Werkzeugen zum Parametrisieren und Trainieren komplexer nicht linearer Modelle gehören. Während dem Layout und der Struktur des Netzwerks viel Aufmerksamkeit zukommt, wird die nichtlineare Aktivierung der Neuronen oftmals aus einer Menge von oft benutzten Aktivierungsfunktionen gewählt. Während bisherige Arbeiten vor allem Trainingsverfahren untersuchen, die individuelle Aktivierungsfunktionen zusammen mit den Netzwerkparametern optimieren, verwenden wir Bayesian Function Optimization, um gemeinsame global optimale Aktivierungsfunktionen zu suchen. Wir formulieren das Problem als Optimierungsproblem für Funktionale und modellieren die Aktivierungsfunktion als Element in einem Hilbertraum mit reproduzierendem Kern. Unsere Experimente haben gezeigt, dass Bayesian Function Optimization einen ähnlichen parametrischen Ansatz mit Standard Bayesian Optimization schlägt und gut für höhere dimensionale Probleme funktioniert. Verglichen mit den zugrundegelegten Modellen mit fester Sigmoid-Aktivierungsfunktion und gemeinsam trainierten Aktivierungsfunktionen erzielen wir eine Verbesserung des relativen Klassifikationsfehlers von 39% beziehungsweise 20%.
Enthalten in den Sammlungen:05 Fakultät Informatik, Elektrotechnik und Informationstechnik

Dateien zu dieser Ressource:
Datei Beschreibung GrößeFormat 
thesis.pdf952,77 kBAdobe PDFÖffnen/Anzeigen


Alle Ressourcen in diesem Repositorium sind urheberrechtlich geschützt.