Bitte benutzen Sie diese Kennung, um auf die Ressource zu verweisen: http://dx.doi.org/10.18419/opus-9558
Langanzeige der Metadaten
DC ElementWertSprache
dc.contributor.authorWallkötter, Sebastian-
dc.date.accessioned2018-01-25T11:49:34Z-
dc.date.available2018-01-25T11:49:34Z-
dc.date.issued2016de
dc.identifier.other500307830-
dc.identifier.urihttp://nbn-resolving.de/urn:nbn:de:bsz:93-opus-ds-95759de
dc.identifier.urihttp://elib.uni-stuttgart.de/handle/11682/9575-
dc.identifier.urihttp://dx.doi.org/10.18419/opus-9558-
dc.description.abstractThis bachelor thesis presents a novel approach to training deep neural networks. While back propagating on these deep architectures, it is often found that the gradient vanishes. Further, layers with logistic activation functions will saturate from top to bottom, which is slowing down convergence as the gradient can't propagate well past these saturated layers. Both observations awaken the wish to have the ability to regularize the gradient and directly force its properties. This thesis enables such regularization by modifying the network's cost function. Such changes modify the classic back propagation equations and therefore, the new extended back propagation equations are computed. Finally, two methods of regularization and their combination are presented and tested on a binary and a multi-class (MNIST) classification problem to show the benefits of training with these methods. A result of this thesis is the finding that this setup massively improves training on logistic networks, on the one hand enabling otherwise impossible classification in the multi-class case, while on the other speeding up training on a single class.en
dc.description.abstractDiese Bachelorarbeit präsentiert einen neuen Ansatz zum Trainieren von tiefen neuronalen Netzen. Während des Rückwärtspropagierens in solchen tiefen Architekturen wird häufig beobachtet, dass der Gradient verschwindet. Weiterhin wird beobachtet, dass Schichten mit einer logistischen Aktivierungsfunktion von oben nach unten saturieren, was die Konvergenz verlangsamt, da der Gradient nur schlecht hinter diesen Schichten propagiert. Beide Beobachtungen erzeugen den Wunsch Eigenschaften des Gradienten direkt beeinflussen zu können und seine Eigenschaften direkt festlegen zu können. Diese Arbeit ermöglicht ein solches Vorgehen, indem sie die Kostenfunktion des Netzwerks modifiziert. Hierdurch werden die klassischen "back propagation"-Gleichungen modifiziert, weshalb neue "extended back propagation"-Gleichungen hergeleitet werden. Abschließend werden zwei Methoden und deren Kombination zur Regulierung des Gradienten vorgestellt und an einem zwei-Klassen, sowie einem mehr-Klassen (MNIST) Klassifikationsproblem getestet, um die Vorteile des Trainierens mit dieser Methode herauszustellen. Das Ergebnis ist, dass diese Methode das Trainieren von tiefen neuronalen Netzen mit logistischer Aktivierungsfunktion stark verbessert und einerseits die sonst unmögliche Klassifikation im mehr-Klassen-Fall ermöglicht, während andererseits eine Verbesserung der Konvergenzgeschwindigkeit im ein-Klassen Fall erreicht wird.de
dc.language.isoende
dc.rightsinfo:eu-repo/semantics/openAccessde
dc.subject.ddc004de
dc.titleRegularizing gradient properties on deep neural networksen
dc.typebachelorThesisde
ubs.fakultaetInformatik, Elektrotechnik und Informationstechnikde
ubs.institutInstitut für Parallele und Verteilte Systemede
ubs.publikation.seiten27de
ubs.publikation.typAbschlussarbeit (Bachelor)de
Enthalten in den Sammlungen:05 Fakultät Informatik, Elektrotechnik und Informationstechnik

Dateien zu dieser Ressource:
Datei Beschreibung GrößeFormat 
Bachelorarbeit.pdf1,05 MBAdobe PDFÖffnen/Anzeigen


Alle Ressourcen in diesem Repositorium sind urheberrechtlich geschützt.