Bitte benutzen Sie diese Kennung, um auf die Ressource zu verweisen:
http://dx.doi.org/10.18419/opus-10604
Langanzeige der Metadaten
DC Element | Wert | Sprache |
---|---|---|
dc.contributor.author | Nguyen, Truong Thinh | - |
dc.date.accessioned | 2019-10-21T13:05:58Z | - |
dc.date.available | 2019-10-21T13:05:58Z | - |
dc.date.issued | 2019 | de |
dc.identifier.other | 168133240X | - |
dc.identifier.uri | http://nbn-resolving.de/urn:nbn:de:bsz:93-opus-ds-106212 | de |
dc.identifier.uri | http://elib.uni-stuttgart.de/handle/11682/10621 | - |
dc.identifier.uri | http://dx.doi.org/10.18419/opus-10604 | - |
dc.description.abstract | The Transformer translation model (Vaswani et al., 2017), which relies on selfattention mechanisms, has achieved state-of-the-art performance in recent neural machine translation (NMT) tasks. Although the Recurrent Neural Network (RNN) is one of the most powerful and useful architectures for transforming one sequence into another one, the Transformer model does not employ any RNN. This work aims to investigate the performance of the Transformer model compared to different kinds of RNN model in a variety of difficulty levels of NMT problems. | en |
dc.language.iso | en | de |
dc.rights | info:eu-repo/semantics/openAccess | de |
dc.subject.ddc | 004 | de |
dc.title | Machine translation with transformers | en |
dc.type | masterThesis | de |
ubs.fakultaet | Informatik, Elektrotechnik und Informationstechnik | de |
ubs.institut | Institut für Maschinelle Sprachverarbeitung | de |
ubs.publikation.seiten | 60 | de |
ubs.publikation.typ | Abschlussarbeit (Master) | de |
Enthalten in den Sammlungen: | 05 Fakultät Informatik, Elektrotechnik und Informationstechnik |
Dateien zu dieser Ressource:
Datei | Beschreibung | Größe | Format | |
---|---|---|---|---|
thesis.pdf | 1,41 MB | Adobe PDF | Öffnen/Anzeigen |
Alle Ressourcen in diesem Repositorium sind urheberrechtlich geschützt.