Bitte benutzen Sie diese Kennung, um auf die Ressource zu verweisen: http://dx.doi.org/10.18419/opus-12990
Autor(en): Schmidt, Alexander
Schellroth, Florian
Fischer, Marc
Allimant, Lukas
Riedel, Oliver
Titel: Reinforcement learning methods based on GPU accelerated industrial control hardware
Erscheinungsdatum: 2021
Dokumentart: Zeitschriftenartikel
Seiten: 12191-12207
Erschienen in: Neural computing and applications 33 (2021), S. 12191-12207
URI: http://nbn-resolving.de/urn:nbn:de:bsz:93-opus-ds-130099
http://elib.uni-stuttgart.de/handle/11682/13009
http://dx.doi.org/10.18419/opus-12990
ISSN: 0941-0643
1433-3058
Zusammenfassung: Reinforcement learning is a promising approach for manufacturing processes. Process knowledge can be gained automatically, and autonomous tuning of control is possible. However, the use of reinforcement learning in a production environment imposes specific requirements that must be met for a successful application. This article defines those requirements and evaluates three reinforcement learning methods to explore their applicability. The results show that convolutional neural networks are computationally heavy and violate the real-time execution requirements. A new architecture is presented and validated that allows using GPU-based hardware acceleration while meeting the real-time execution requirements.
Enthalten in den Sammlungen:07 Fakultät Konstruktions-, Produktions- und Fahrzeugtechnik

Dateien zu dieser Ressource:
Datei Beschreibung GrößeFormat 
s00521-021-05848-4.pdf965,71 kBAdobe PDFÖffnen/Anzeigen


Diese Ressource wurde unter folgender Copyright-Bestimmung veröffentlicht: Lizenz von Creative Commons Creative Commons