Bitte benutzen Sie diese Kennung, um auf die Ressource zu verweisen: http://dx.doi.org/10.18419/opus-9436
Autor(en): Daiß, Gregor
Titel: Verteiltes Dünngitter Clustering mit großen Datensätzen
Erscheinungsdatum: 2015
Dokumentart: Abschlussarbeit (Bachelor)
Seiten: 79
URI: http://nbn-resolving.de/urn:nbn:de:bsz:93-opus-ds-94534
http://elib.uni-stuttgart.de/handle/11682/9453
http://dx.doi.org/10.18419/opus-9436
Zusammenfassung: Clustering ist ein Verfahren, das in vielen unterschiedlichen Disziplinen eingesetzt wird, um Muster in Daten zu erkennen. Wachsende Datenvolumen erfordern hierzu effiziente Algorithmen, welche auch große Datenmengen in akzeptabler Zeit clustern können. In dieser Arbeit wird zu diesem Zweck ein Clustering Verfahren genutzt, das auf einer Dichteschätzung mit dünnen Gittern und einem k-nearest-neighbors Verfahren basiert. Dieser Algorithmus ist gut geeignet um große, höherdimensionale Datensätze zu clustern und in verrauschten Datensätzen Cluster beliebiger Form zu suchen. Um die heutigen Parallelrechner ausnutzen zu können, wird zur Implementierung OpenCL verwendet. Zur weiteren Aufteilung des Problemes wird das Message Passing Interface genutzt, um das Clustering auf mehrere Rechner verteilen zu können. Mit dieser Implementierung wurde auf einem Rechencluster mit 64 Xeon Phi Coprozessoren ein zehndimensionaler, stark verrauschter Datensatz mit einer Million Datenpunkte in 1434 Sekunden geclustert, wobei sämtliche Cluster erkannt und 88.99% der Datenpunkte dem richtigen Cluster zugeordnet wurden.
Enthalten in den Sammlungen:05 Fakultät Informatik, Elektrotechnik und Informationstechnik

Dateien zu dieser Ressource:
Datei Beschreibung GrößeFormat 
bachelorarbeit_daiss.pdf10,09 MBAdobe PDFÖffnen/Anzeigen


Alle Ressourcen in diesem Repositorium sind urheberrechtlich geschützt.