Bitte benutzen Sie diese Kennung, um auf die Ressource zu verweisen: http://dx.doi.org/10.18419/opus-12816
Langanzeige der Metadaten
DC ElementWertSprache
dc.contributor.authorPilz, Daniel-
dc.date.accessioned2023-03-17T10:38:41Z-
dc.date.available2023-03-17T10:38:41Z-
dc.date.issued2022de
dc.identifier.other1839564075-
dc.identifier.urihttp://nbn-resolving.de/urn:nbn:de:bsz:93-opus-ds-128359de
dc.identifier.urihttp://elib.uni-stuttgart.de/handle/11682/12835-
dc.identifier.urihttp://dx.doi.org/10.18419/opus-12816-
dc.description.abstractWhile neural networks nowadays are widely used in different areas and applications, many usages of such neural networks are hindered by lacking computation power, especially on smaller devices like mobile devices. For this reason, it is very attractive to find ways to enable such devices to use neural networks under their restricted hardware conditions. There are different ways to approach that goal, but I will focus on an approach that enhances a given neural network to perform better on the same device and data without any distribution on other devices or reduction of potential redundancy. To achieve a better performance, I will create a supporting structure consisting of at least one supporting network processing input data instead of the original network. To decide which network processes which input, I will create a deciding neural network which will allocate each input value to exactly one network. This requires more computation in the training process because I will have to search the supporting and the deciding network and train them accordingly, but will reduce the error in the output of the whole network construction compared to the original network.en
dc.description.abstractWährend neuronale Netze heutzutage in vielen verschiedenen Bereichen und Anwendungen genutzt werden, ist die Effektivität solcher Netze oft verringert durch fehlende Rechenleistung. Dies gilt insbesondere für kleinere Geräte wie Mobilgeräte. Daher ist das Verbessern der Leistung von neuronalen Netzen unter den beschränkten Hardware-Bedingungen solcher Geräte attraktiv. Um dieses Ziel zu erreichen gibt es verschiedene Wege. Ich beschränke mich in dieser Arbeit darauf, ein neuronales Netzwerk so zu verbessern, dass die Performance auf dem selben Gerät verbessert wird. Dies soll mit den selben Daten wie zuvor und ohne Verteilung auf andere Geräte oder der Reduktion von potentiell redundanten Teilen des Netzwerks geschehen. Um eine verbesserte Leistung zu erzielen werde ich eine unterstützende Struktur erstellen. Diese soll aus mindestens einem "Support-Netzwerk" bestehen, das einen Teil der einkommenden Daten des ursprünglichen Netzwerks verarbeitet. Um zu entscheiden welches Netzwerk welche Daten verarbeitet, werde ich ein "Entscheider-Netzwerk" erstellen, das jeden Daten-Punkt genau einem der anderen Netzwerke zuordnet. Dies benötigt mehr Berechnung im Trainings-Prozess, da die zusätzlichen neuronalen Netze erstellt und entsprechend trainiert werden müssen. Dafür wird der Fehler im berechneten Ergebnis der gesamten Struktur sinken, verglichen mit dem Fehler im Ergebnis des ursprünglichen Netzes.de
dc.language.isoende
dc.rightsinfo:eu-repo/semantics/openAccessde
dc.subject.ddc004de
dc.titleAutomated quality enhancer for fast neural networks on mobile devicesen
dc.typemasterThesisde
ubs.fakultaetInformatik, Elektrotechnik und Informationstechnikde
ubs.institutInstitut für Parallele und Verteilte Systemede
ubs.publikation.seiten61de
ubs.publikation.typAbschlussarbeit (Master)de
Enthalten in den Sammlungen:05 Fakultät Informatik, Elektrotechnik und Informationstechnik

Dateien zu dieser Ressource:
Datei Beschreibung GrößeFormat 
Master_Thesis_Daniel_Pilz.pdf2,37 MBAdobe PDFÖffnen/Anzeigen


Alle Ressourcen in diesem Repositorium sind urheberrechtlich geschützt.