Universität Stuttgart
Permanent URI for this communityhttps://elib.uni-stuttgart.de/handle/11682/1
Browse
120 results
Search Results
Item Open Access Analyse der Echtzeitfähigkeit und des Ressourcenverbrauchs von OpenGL ES 2.0(2011) Cont, ArminOpenGL ES 2.0 (Open Graphics Library for Embedded Systems 2.0) ist eine Schnittstelle zur Entwicklung von 2D- und 3D-Computergrafik-Anwendungen. Die Spezifikation von OpenGL ES 2.0 definiert eine Reihe von Befehlen, mit denen Daten zum und vom OpenGL ES-System übermittelt werden können, mit denen das Zeichnen von Grafiken angestoßen werden kann (Rendering) und Einstellungen für das Rendering durchgeführt werden können. Üblicherweise verwenden OpenGL ES-Systeme für das Rendering physische Grafikkarten (GPUs). Keines der heute verfügbaren OpenGL ES-Systeme mit physischer GPU unterstützt aber die Priorisierung von Anwendungen hinsichtlich der Ausführung von OpenGL ES-Befehlen oder Einschränkungen von Anwendungen hinsichtlich der Nutzung von GPU-Ressourcen. Insbesondere bietet OpenGL ES weder einen konfigurierbaren Scheduler noch die Möglichkeit, Echtzeitgarantien für die Ausführung von OpenGL ES-Befehlen zu erfüllen. Ziel dieser Arbeit ist es, zu untersuchen, inwieweit dennoch sichergestellt werden kann, dass Befehle sicherheitskritischer Anwendungen rechtzeitig ausgeführt werden können. Dazu werden relevante Befehle bestimmt, deren Laufzeitverhalten und Ressourcenverbrauch analysiert wird. Außerdem werden spezielle Szenarien untersucht, um festzustellen, inwiefern das Verhalten von OpenGL ES-Systemen die rechtzeitige Ausführung kritischer Befehle verhindern kann. Schließlich werden Untersuchungsmethoden und Metriken für die Prognose des Ressourcenverbrauchs von OpenGL ES-Befehlen und die Ermittlung der dafür notwendigen systemspezifischen Kennzahlen entwickelt. Die Untersuchung werden auf einigen realen OpenGL ES-Systeme durchgeführt. Dabei wird gezeigt, dass insbesondere das Speicherbelegungsverhalten und die Nutzung der Renderpipeline mit Problemen verbunden sind, die der Erfüllung von Echtzeitgarantien im Wege stehen und nicht auf der Ebene von OpenGL ES gelöst werden können.Item Open Access Eine OSLC-Plattform zur Unterstützung der Situationserkennung in Workflows(2015) Jansa, PaulDas Internet der Dinge gewinnt immer mehr an Bedeutung durch eine starke Vernetzung von Rechnern, Produktionsanlagen, mobilen Endgeräten und weiteren technischen Geräten. Derartige vernetzte Umgebungen werden auch als SMART Environments bezeichnet. Auf Basis von Sensordaten können in solchen Umgebungen höherwertige Situationen (Zustandsänderungen) erkannt und auf diese meist automatisch reagiert werden. Dadurch werden neuartige Technologien wie zum Beispiel "Industrie 4.0", "SMART Homes" oder "SMART Cities" ermöglicht. Komplexe Vernetzungen und Arbeitsabläufe in derartigen Umgebungen werden oftmals mit Workflows realisiert. Um eine robuste Ausführung dieser Workflows zu gewährleisten, müssen Situationsänderungen beachtet und auf diese entsprechend reagiert werden, zum Beispiel durch Workflow-Adaption. Das heißt, erst durch die Erkennung höherwertiger Situationen können solche Workflows robust modelliert und ausgeführt werden. Jedoch stellen die für die Erkennung von Situationen notwendige Anbindung und Bereitstellung von Sensordaten eine große Herausforderung dar. Oft handelt es sich bei den Sensordaten um Rohdaten. Sie sind schwer extrahierbar, liegen oftmals nur lokal vor, sind ungenau und lassen sich dementsprechend schwer verarbeiten. Um die Sensordaten zu extrahieren, müssen für jeden Sensor individuelle Adapter programmiert werden, die wiederum ein einheitliches Datenformat der Sensordaten bereitstellen müssen und anschließend mit sehr viel Aufwand untereinander verbunden werden. Im Rahmen dieser Diplomarbeit wird ein Konzept erarbeitet und entwickelt, mit dessen Hilfe eine einfache Integration von Sensordaten ermöglicht wird. Dazu werden die Sensoren über eine webbasierte Benutzeroberfläche oder über eine programmatische Schnittstelle in einer gemeinsamen Datenbank registriert. Die Sensordaten werden durch REST-Ressourcen abstrahiert, in RDF-basierte Repräsentationen umgewandelt und mit dem Linked-Data Prinzip miteinander verbunden. Durch die standardisierte Schnittstelle können Endbenutzer oder Anwendungen über das Internet auf die Sensordaten zugreifen, neue Sensoren anmelden oder entfernen.Item Open Access Konzeption und Realisierung eines Sicherheitskonzepts zur sicheren Datenstromverarbeitung in einer verteilten Ausfürhungsumgebung(2011) Dörler, OliverVorliegende Diplomarbeit entwickelt ein Sicherheitskonzept für NexusDS. Das Konzept definiert Sicherheitsmechanismen um den Zugriff und die Verarbeitung von sensiblen und geschützten Daten zu kontrollieren. Die Mechanismen beinhalten Funktionen um Daten zu Anonymisieren und zu Verschleiern. Die Entwicklung des Konzeptes beinhaltet die Abgrenzung von Sicherheit im Kontext von NexusDS, Erhebung von Anforderungen aus Anwendungsszenarien und NexusDS selbst, die Entwicklung entsprechend dienlicher Maßnahmen, deren Umsetzung in eine Sicherheitsarchitektur und eine prototypische Implementierung in NexusDS.Item Open Access Konzeption und Implementierung eines skalierbaren Systems zur Verfolgung mobiler Objekte(2011) Biliniewicz, Daniel AlexanderHeutzutage besitzen viele mobile Geräte wie Smartphones eine immer größere werdende Anzahl verschiedener Sensoren. Die Nutzung dieser, insbesondere in städtischen Gebieten, in hoher Zahl vorhandenen Geräte als mobiles Sensornetzwerk, eröffnet zur Zeit einen neuen Forschungsbereich, der als public sensing bezeichnet wird. In dieser Arbeit betrachten wir hierbei die Nutzung eines solchen Systems zur Verfolgung mobiler Objekte. Dabei legen wir unseren Fokus auf die Effizienz, hinsichtlich der gesamt übertragenen Daten zwischen mobilen Geräten und der Infrastruktur, bei gleichzeitig hoher Effektivität bezüglich der gemeldeten Objektpositionen. Um dies zu realisieren entwickeln wir einen auf einem Gitter basierenden Ansatz, der unter Einbeziehung der Mobilität der Objekte Suchaufträge gezielt an die mobilen Geräte verteilt. Der entworfene Ansatz wird in Simulationen mittels des Netzwerksimulators ns2 hinsichtlich seiner Effizient und Effektivität für verschiedene Gittergrößen untersucht. Hierfür vergleichen wir ihn mittels realistischer Mobilitätsdaten mit einem maximal effektiven Basis-Ansatz. Es zeigt sich, dass der Gitter-Ansatz bei nahezu gleichbleibender Effektivität, im Vergleich zum Basis-Ansatz, die Menge der übertragenen Daten minimiert.Item Open Access Visual Analytics im Kontext der Daten- und Analysequalität am Beispiel von Data Mashups(2016) Behringer, MichaelViele Prozesse und Geschäftsmodelle der Gegenwart basieren auf der Auswertung von Daten. Durch Fortschritte in der Speichertechnologie und Vernetzung ist die Akquisition von Daten heute sehr einfach und wird umfassend genutzt. Das weltweit vorhandene Datenvolumen steigt exponentiell und sorgt für eine zunehmende Komplexität der Analyse. In den letzten Jahren fällt in diesem Zusammenhang öfter der Begriff Visual Analytics. Dieses Forschungsgebiet kombiniert visuelle und automatische Verfahren zur Datenanalyse. Im Rahmen dieser Arbeit werden die Verwendung und die Ziele von Visual Analytics evaluiert und eine neue umfassendere Definition entwickelt. Aus dieser wird eine Erweiterung des Knowledge Discovery-Prozesses abgeleitet und verschiedene Ansätze bewertet. Um die Unterschiede zwischen Data Mining, der Visualisierung und Visual Analytics zu verdeutlichen, werden diese Themengebiete gegenübergestellt und in einem Ordnungsrahmen hinsichtlich verschiedener Dimensionen klassifiziert. Zusätzlich wird untersucht, inwiefern dieser neue Ansatz im Hinblick auf Daten- und Analysequalität eingesetzt werden kann. Abschließend wird auf Basis der gewonnenen Erkenntnisse eine prototypische Implementierung auf Basis von FlexMash, einem an der Universität Stuttgart entwickelten Data Mashup-Werkzeug, beschrieben. Data Mashups vereinfachen die Einbindung von Anwendern ohne technischen Hintergrund und harmonieren daher ausgezeichnet mit Visual Analytics.Item Open Access Implementierung eines Peridynamik-Verfahrens auf GPU(2012) Diehl, PatrickThis thesis presents an approach for implementing a Peridynamic technique on a Graphics Processing Unit (GPU). The Peridynamic theory is a non local theory in continuum mechanic, with a focus on discontinuous functions as they arrive in fracture mechanics. The word Peridynamic is the syncrisis of the two Greek words peri = near and dynami = force. The principle of this theory is, that particles in a continuum interact with other particles in a finite distance by exchanging forces. For the implementation on the GPU the Compute Unified Device Architecture (CUDA) is used.Item Open Access Evaluierung von Verfahren zum optischen Lokalisieren und Kartographieren (SLAM) mit Eignung für den Einsatz auf UAVs(2013) Price, EricIn der Robotik werden kleine UAVs (unmanned aerial vehicles) dank zunehmender Hardwareminiaturisierung immer interessanter. Jedoch gelten auf diesen Plattformen wie Quadcoptern oder Modellflugzeugen zusätzliche Beschränkungen wie Größe, Bauform und Gewicht, die die zur Verfügung stehende Rechnerleistung für Anwendungen der autonomen Robotik nach wie vor einschränken. Thema dieser Diplomarbeit ist die Evaluierung von Verfahren zum simultanen Lokalisieren und Kartographieren an Hand optisch erfasster Bilddaten von einem mikro-UAV aus, wobei besonderes Augenmerk auf der Eignung der SLAM Verfahren für autonome optische Navigation in einer 3D Outdoor-Umgebung liegt.Item Open Access Selbstorganisierte Strukturbildung in verteilten Robotersystemen(2011) Weber, MartinRoboterschwärme und andere verteilte Systeme bieten in vielen Bereichen ein vielversprechendes Konzept. Insbesondere sind in der Robustheit, der aus vielen simplen Teilen bestehenden, aber komplex organisierten Strukturen große Vorteile zu finden. Ein Bereich dieses Arbeitsgebietes befasst sich damit, dass die verteilten Robotersysteme Aufgaben im Team lösen, zu denen ein einzelner Roboter nicht in der Lage wäre. Ein Beispiel wäre ein verteiltes Wartungs- und Reinigungssystem für Tankanlagen, deren Öffnungen für einzelne große Roboter zu klein sind. Hier könnten kleine verteilte Roboter einzeln vordringen und sich im Inneren entsprechend formieren. Bei der Bildung von Strukturen aus einzelnen Komponenten muss unter anderem auch immer die Verteilung der Aufgaben berücksichtigt werden. In dieser Arbeit soll hierzu auf gekoppelte Selektionsgleichungen zurückgegriffen werden. In dieser Arbeit werden zunächst die mathematischen Grundlagen des Konzepts dieser gekoppelten Selektionsgleichungen vorgestellt. Im wesentlichen Teil der Arbeit werden verschiedene Möglichkeiten aufgezeigt, wie mit Hilfe der Selektionsgleichungen zunächst einfache geometrische Strukturen gebildet werden können. Simulationen verdeutlichen die Funktionsweise und die Robustheit der gewählten Lösungswege.Item Open Access Konzepte und Algorithmen zur Datensynchronisation mit Cloud-Datenzentren(2012) Hummel, PaulCloud Computing überzeugt immer mehr durch seine Vorteile, wie z. B. Verfügbarkeit, Skalierbarkeit und Kosteneffizienz. Ein aktuelles Forschungsthema ist die Synchronisation der Daten mit Cloud-Rechenzentren. In dieser Arbeit betrachten wir daher Aspekte, die bei diesem Problem im Mittelpunkt stehen. Zuerst werden in dieser Arbeit theoretische Grundlagen und aktuelle Technologien untersucht. Anschließend wird das hier betrachtete Synchronisations-Problem genauer beschrieben und potentielle Lösungsansätze vorgestellt. Das Ziel ist es, die lokalen Datenbanksysteme durch den Einsatz des Cloud Computings überflüssig zu machen und dabei die Vorteile des lokalen Datenbanksystems zu behalten. Es werden eine Architektur und Mechanismen entwickelt, ein Ausschnitt der Lösung implementiert und evaluiert. Abschließend wird die Arbeit zusammengefasst und ein Ausblick auf mögliche zukünftige Arbeiten gegeben.Item Open Access Cache-effiziente Block-Matrix-Löser für die Partition of Unity Methode(2012) Gründer, PatrickDie Partition of Unity Methode findet Anwendung in gitterlosen Diskretisierungsverfahren zum Lösen elliptischer partieller Differentialgleichungen. Die bei der Diskretisierung entstehenden Gleichungssysteme besitzen eine Blockstruktur, die sich mittels der Multilevel Partition of Unity Methode asymptotisch optimal lösen lassen. Ein alternatives Verfahren zum Lösen dieser Gleichungssysteme stellen die vorkonditionierten Krylow- Unterraumverfahren dar. In dieser Arbeit wird ein auf der ILU-Zerlegung basierenders CG-Verfahren für Block-Matrizen implementiert, das auf Cache-effizienten Algorithmen basiert. Der Ausgangspunkt stellt die Bibliothek TifaMMy dar. Die in den letzten Jahren entwickelte Bibliothek basiert auf inhärent Cache-effiziente Algorithmen für dicht- und dünnbesetzte Matrizen. Dabei wird eine neue Datenstruktur für Blockmatrizen (BCRS) und die nötigen Algorithmen implementiert. Die Leistung des Block-Matrix-Löser wird mit der Multilevel Partition of Unity Methode verglichen.