Universität Stuttgart

Permanent URI for this communityhttps://elib.uni-stuttgart.de/handle/11682/1

Browse

Search Results

Now showing 1 - 10 of 120
  • Thumbnail Image
    ItemOpen Access
    Analyse der Echtzeitfähigkeit und des Ressourcenverbrauchs von OpenGL ES 2.0
    (2011) Cont, Armin
    OpenGL ES 2.0 (Open Graphics Library for Embedded Systems 2.0) ist eine Schnittstelle zur Entwicklung von 2D- und 3D-Computergrafik-Anwendungen. Die Spezifikation von OpenGL ES 2.0 definiert eine Reihe von Befehlen, mit denen Daten zum und vom OpenGL ES-System übermittelt werden können, mit denen das Zeichnen von Grafiken angestoßen werden kann (Rendering) und Einstellungen für das Rendering durchgeführt werden können. Üblicherweise verwenden OpenGL ES-Systeme für das Rendering physische Grafikkarten (GPUs). Keines der heute verfügbaren OpenGL ES-Systeme mit physischer GPU unterstützt aber die Priorisierung von Anwendungen hinsichtlich der Ausführung von OpenGL ES-Befehlen oder Einschränkungen von Anwendungen hinsichtlich der Nutzung von GPU-Ressourcen. Insbesondere bietet OpenGL ES weder einen konfigurierbaren Scheduler noch die Möglichkeit, Echtzeitgarantien für die Ausführung von OpenGL ES-Befehlen zu erfüllen. Ziel dieser Arbeit ist es, zu untersuchen, inwieweit dennoch sichergestellt werden kann, dass Befehle sicherheitskritischer Anwendungen rechtzeitig ausgeführt werden können. Dazu werden relevante Befehle bestimmt, deren Laufzeitverhalten und Ressourcenverbrauch analysiert wird. Außerdem werden spezielle Szenarien untersucht, um festzustellen, inwiefern das Verhalten von OpenGL ES-Systemen die rechtzeitige Ausführung kritischer Befehle verhindern kann. Schließlich werden Untersuchungsmethoden und Metriken für die Prognose des Ressourcenverbrauchs von OpenGL ES-Befehlen und die Ermittlung der dafür notwendigen systemspezifischen Kennzahlen entwickelt. Die Untersuchung werden auf einigen realen OpenGL ES-Systeme durchgeführt. Dabei wird gezeigt, dass insbesondere das Speicherbelegungsverhalten und die Nutzung der Renderpipeline mit Problemen verbunden sind, die der Erfüllung von Echtzeitgarantien im Wege stehen und nicht auf der Ebene von OpenGL ES gelöst werden können.
  • Thumbnail Image
    ItemOpen Access
    Eine OSLC-Plattform zur Unterstützung der Situationserkennung in Workflows
    (2015) Jansa, Paul
    Das Internet der Dinge gewinnt immer mehr an Bedeutung durch eine starke Vernetzung von Rechnern, Produktionsanlagen, mobilen Endgeräten und weiteren technischen Geräten. Derartige vernetzte Umgebungen werden auch als SMART Environments bezeichnet. Auf Basis von Sensordaten können in solchen Umgebungen höherwertige Situationen (Zustandsänderungen) erkannt und auf diese meist automatisch reagiert werden. Dadurch werden neuartige Technologien wie zum Beispiel "Industrie 4.0", "SMART Homes" oder "SMART Cities" ermöglicht. Komplexe Vernetzungen und Arbeitsabläufe in derartigen Umgebungen werden oftmals mit Workflows realisiert. Um eine robuste Ausführung dieser Workflows zu gewährleisten, müssen Situationsänderungen beachtet und auf diese entsprechend reagiert werden, zum Beispiel durch Workflow-Adaption. Das heißt, erst durch die Erkennung höherwertiger Situationen können solche Workflows robust modelliert und ausgeführt werden. Jedoch stellen die für die Erkennung von Situationen notwendige Anbindung und Bereitstellung von Sensordaten eine große Herausforderung dar. Oft handelt es sich bei den Sensordaten um Rohdaten. Sie sind schwer extrahierbar, liegen oftmals nur lokal vor, sind ungenau und lassen sich dementsprechend schwer verarbeiten. Um die Sensordaten zu extrahieren, müssen für jeden Sensor individuelle Adapter programmiert werden, die wiederum ein einheitliches Datenformat der Sensordaten bereitstellen müssen und anschließend mit sehr viel Aufwand untereinander verbunden werden. Im Rahmen dieser Diplomarbeit wird ein Konzept erarbeitet und entwickelt, mit dessen Hilfe eine einfache Integration von Sensordaten ermöglicht wird. Dazu werden die Sensoren über eine webbasierte Benutzeroberfläche oder über eine programmatische Schnittstelle in einer gemeinsamen Datenbank registriert. Die Sensordaten werden durch REST-Ressourcen abstrahiert, in RDF-basierte Repräsentationen umgewandelt und mit dem Linked-Data Prinzip miteinander verbunden. Durch die standardisierte Schnittstelle können Endbenutzer oder Anwendungen über das Internet auf die Sensordaten zugreifen, neue Sensoren anmelden oder entfernen.
  • Thumbnail Image
    ItemOpen Access
    Konzeption und Realisierung eines Sicherheitskonzepts zur sicheren Datenstromverarbeitung in einer verteilten Ausfürhungsumgebung
    (2011) Dörler, Oliver
    Vorliegende Diplomarbeit entwickelt ein Sicherheitskonzept für NexusDS. Das Konzept definiert Sicherheitsmechanismen um den Zugriff und die Verarbeitung von sensiblen und geschützten Daten zu kontrollieren. Die Mechanismen beinhalten Funktionen um Daten zu Anonymisieren und zu Verschleiern. Die Entwicklung des Konzeptes beinhaltet die Abgrenzung von Sicherheit im Kontext von NexusDS, Erhebung von Anforderungen aus Anwendungsszenarien und NexusDS selbst, die Entwicklung entsprechend dienlicher Maßnahmen, deren Umsetzung in eine Sicherheitsarchitektur und eine prototypische Implementierung in NexusDS.
  • Thumbnail Image
    ItemOpen Access
    Konzeption und Implementierung eines skalierbaren Systems zur Verfolgung mobiler Objekte
    (2011) Biliniewicz, Daniel Alexander
    Heutzutage besitzen viele mobile Geräte wie Smartphones eine immer größere werdende Anzahl verschiedener Sensoren. Die Nutzung dieser, insbesondere in städtischen Gebieten, in hoher Zahl vorhandenen Geräte als mobiles Sensornetzwerk, eröffnet zur Zeit einen neuen Forschungsbereich, der als public sensing bezeichnet wird. In dieser Arbeit betrachten wir hierbei die Nutzung eines solchen Systems zur Verfolgung mobiler Objekte. Dabei legen wir unseren Fokus auf die Effizienz, hinsichtlich der gesamt übertragenen Daten zwischen mobilen Geräten und der Infrastruktur, bei gleichzeitig hoher Effektivität bezüglich der gemeldeten Objektpositionen. Um dies zu realisieren entwickeln wir einen auf einem Gitter basierenden Ansatz, der unter Einbeziehung der Mobilität der Objekte Suchaufträge gezielt an die mobilen Geräte verteilt. Der entworfene Ansatz wird in Simulationen mittels des Netzwerksimulators ns2 hinsichtlich seiner Effizient und Effektivität für verschiedene Gittergrößen untersucht. Hierfür vergleichen wir ihn mittels realistischer Mobilitätsdaten mit einem maximal effektiven Basis-Ansatz. Es zeigt sich, dass der Gitter-Ansatz bei nahezu gleichbleibender Effektivität, im Vergleich zum Basis-Ansatz, die Menge der übertragenen Daten minimiert.
  • Thumbnail Image
    ItemOpen Access
    Visual Analytics im Kontext der Daten- und Analysequalität am Beispiel von Data Mashups
    (2016) Behringer, Michael
    Viele Prozesse und Geschäftsmodelle der Gegenwart basieren auf der Auswertung von Daten. Durch Fortschritte in der Speichertechnologie und Vernetzung ist die Akquisition von Daten heute sehr einfach und wird umfassend genutzt. Das weltweit vorhandene Datenvolumen steigt exponentiell und sorgt für eine zunehmende Komplexität der Analyse. In den letzten Jahren fällt in diesem Zusammenhang öfter der Begriff Visual Analytics. Dieses Forschungsgebiet kombiniert visuelle und automatische Verfahren zur Datenanalyse. Im Rahmen dieser Arbeit werden die Verwendung und die Ziele von Visual Analytics evaluiert und eine neue umfassendere Definition entwickelt. Aus dieser wird eine Erweiterung des Knowledge Discovery-Prozesses abgeleitet und verschiedene Ansätze bewertet. Um die Unterschiede zwischen Data Mining, der Visualisierung und Visual Analytics zu verdeutlichen, werden diese Themengebiete gegenübergestellt und in einem Ordnungsrahmen hinsichtlich verschiedener Dimensionen klassifiziert. Zusätzlich wird untersucht, inwiefern dieser neue Ansatz im Hinblick auf Daten- und Analysequalität eingesetzt werden kann. Abschließend wird auf Basis der gewonnenen Erkenntnisse eine prototypische Implementierung auf Basis von FlexMash, einem an der Universität Stuttgart entwickelten Data Mashup-Werkzeug, beschrieben. Data Mashups vereinfachen die Einbindung von Anwendern ohne technischen Hintergrund und harmonieren daher ausgezeichnet mit Visual Analytics.
  • Thumbnail Image
    ItemOpen Access
    Implementierung eines Peridynamik-Verfahrens auf GPU
    (2012) Diehl, Patrick
    This thesis presents an approach for implementing a Peridynamic technique on a Graphics Processing Unit (GPU). The Peridynamic theory is a non local theory in continuum mechanic, with a focus on discontinuous functions as they arrive in fracture mechanics. The word Peridynamic is the syncrisis of the two Greek words peri = near and dynami = force. The principle of this theory is, that particles in a continuum interact with other particles in a finite distance by exchanging forces. For the implementation on the GPU the Compute Unified Device Architecture (CUDA) is used.
  • Thumbnail Image
    ItemOpen Access
    Evaluierung von Verfahren zum optischen Lokalisieren und Kartographieren (SLAM) mit Eignung für den Einsatz auf UAVs
    (2013) Price, Eric
    In der Robotik werden kleine UAVs (unmanned aerial vehicles) dank zunehmender Hardwareminiaturisierung immer interessanter. Jedoch gelten auf diesen Plattformen wie Quadcoptern oder Modellflugzeugen zusätzliche Beschränkungen wie Größe, Bauform und Gewicht, die die zur Verfügung stehende Rechnerleistung für Anwendungen der autonomen Robotik nach wie vor einschränken. Thema dieser Diplomarbeit ist die Evaluierung von Verfahren zum simultanen Lokalisieren und Kartographieren an Hand optisch erfasster Bilddaten von einem mikro-UAV aus, wobei besonderes Augenmerk auf der Eignung der SLAM Verfahren für autonome optische Navigation in einer 3D Outdoor-Umgebung liegt.
  • Thumbnail Image
    ItemOpen Access
    Selbstorganisierte Strukturbildung in verteilten Robotersystemen
    (2011) Weber, Martin
    Roboterschwärme und andere verteilte Systeme bieten in vielen Bereichen ein vielversprechendes Konzept. Insbesondere sind in der Robustheit, der aus vielen simplen Teilen bestehenden, aber komplex organisierten Strukturen große Vorteile zu finden. Ein Bereich dieses Arbeitsgebietes befasst sich damit, dass die verteilten Robotersysteme Aufgaben im Team lösen, zu denen ein einzelner Roboter nicht in der Lage wäre. Ein Beispiel wäre ein verteiltes Wartungs- und Reinigungssystem für Tankanlagen, deren Öffnungen für einzelne große Roboter zu klein sind. Hier könnten kleine verteilte Roboter einzeln vordringen und sich im Inneren entsprechend formieren. Bei der Bildung von Strukturen aus einzelnen Komponenten muss unter anderem auch immer die Verteilung der Aufgaben berücksichtigt werden. In dieser Arbeit soll hierzu auf gekoppelte Selektionsgleichungen zurückgegriffen werden. In dieser Arbeit werden zunächst die mathematischen Grundlagen des Konzepts dieser gekoppelten Selektionsgleichungen vorgestellt. Im wesentlichen Teil der Arbeit werden verschiedene Möglichkeiten aufgezeigt, wie mit Hilfe der Selektionsgleichungen zunächst einfache geometrische Strukturen gebildet werden können. Simulationen verdeutlichen die Funktionsweise und die Robustheit der gewählten Lösungswege.
  • Thumbnail Image
    ItemOpen Access
    Konzepte und Algorithmen zur Datensynchronisation mit Cloud-Datenzentren
    (2012) Hummel, Paul
    Cloud Computing überzeugt immer mehr durch seine Vorteile, wie z. B. Verfügbarkeit, Skalierbarkeit und Kosteneffizienz. Ein aktuelles Forschungsthema ist die Synchronisation der Daten mit Cloud-Rechenzentren. In dieser Arbeit betrachten wir daher Aspekte, die bei diesem Problem im Mittelpunkt stehen. Zuerst werden in dieser Arbeit theoretische Grundlagen und aktuelle Technologien untersucht. Anschließend wird das hier betrachtete Synchronisations-Problem genauer beschrieben und potentielle Lösungsansätze vorgestellt. Das Ziel ist es, die lokalen Datenbanksysteme durch den Einsatz des Cloud Computings überflüssig zu machen und dabei die Vorteile des lokalen Datenbanksystems zu behalten. Es werden eine Architektur und Mechanismen entwickelt, ein Ausschnitt der Lösung implementiert und evaluiert. Abschließend wird die Arbeit zusammengefasst und ein Ausblick auf mögliche zukünftige Arbeiten gegeben.
  • Thumbnail Image
    ItemOpen Access
    Cache-effiziente Block-Matrix-Löser für die Partition of Unity Methode
    (2012) Gründer, Patrick
    Die Partition of Unity Methode findet Anwendung in gitterlosen Diskretisierungsverfahren zum Lösen elliptischer partieller Differentialgleichungen. Die bei der Diskretisierung entstehenden Gleichungssysteme besitzen eine Blockstruktur, die sich mittels der Multilevel Partition of Unity Methode asymptotisch optimal lösen lassen. Ein alternatives Verfahren zum Lösen dieser Gleichungssysteme stellen die vorkonditionierten Krylow- Unterraumverfahren dar. In dieser Arbeit wird ein auf der ILU-Zerlegung basierenders CG-Verfahren für Block-Matrizen implementiert, das auf Cache-effizienten Algorithmen basiert. Der Ausgangspunkt stellt die Bibliothek TifaMMy dar. Die in den letzten Jahren entwickelte Bibliothek basiert auf inhärent Cache-effiziente Algorithmen für dicht- und dünnbesetzte Matrizen. Dabei wird eine neue Datenstruktur für Blockmatrizen (BCRS) und die nötigen Algorithmen implementiert. Die Leistung des Block-Matrix-Löser wird mit der Multilevel Partition of Unity Methode verglichen.