05 Fakultät Informatik, Elektrotechnik und Informationstechnik

Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/6

Browse

Search Results

Now showing 1 - 10 of 242
  • Thumbnail Image
    ItemOpen Access
    Analyse der Echtzeitfähigkeit und des Ressourcenverbrauchs von OpenGL ES 2.0
    (2011) Cont, Armin
    OpenGL ES 2.0 (Open Graphics Library for Embedded Systems 2.0) ist eine Schnittstelle zur Entwicklung von 2D- und 3D-Computergrafik-Anwendungen. Die Spezifikation von OpenGL ES 2.0 definiert eine Reihe von Befehlen, mit denen Daten zum und vom OpenGL ES-System übermittelt werden können, mit denen das Zeichnen von Grafiken angestoßen werden kann (Rendering) und Einstellungen für das Rendering durchgeführt werden können. Üblicherweise verwenden OpenGL ES-Systeme für das Rendering physische Grafikkarten (GPUs). Keines der heute verfügbaren OpenGL ES-Systeme mit physischer GPU unterstützt aber die Priorisierung von Anwendungen hinsichtlich der Ausführung von OpenGL ES-Befehlen oder Einschränkungen von Anwendungen hinsichtlich der Nutzung von GPU-Ressourcen. Insbesondere bietet OpenGL ES weder einen konfigurierbaren Scheduler noch die Möglichkeit, Echtzeitgarantien für die Ausführung von OpenGL ES-Befehlen zu erfüllen. Ziel dieser Arbeit ist es, zu untersuchen, inwieweit dennoch sichergestellt werden kann, dass Befehle sicherheitskritischer Anwendungen rechtzeitig ausgeführt werden können. Dazu werden relevante Befehle bestimmt, deren Laufzeitverhalten und Ressourcenverbrauch analysiert wird. Außerdem werden spezielle Szenarien untersucht, um festzustellen, inwiefern das Verhalten von OpenGL ES-Systemen die rechtzeitige Ausführung kritischer Befehle verhindern kann. Schließlich werden Untersuchungsmethoden und Metriken für die Prognose des Ressourcenverbrauchs von OpenGL ES-Befehlen und die Ermittlung der dafür notwendigen systemspezifischen Kennzahlen entwickelt. Die Untersuchung werden auf einigen realen OpenGL ES-Systeme durchgeführt. Dabei wird gezeigt, dass insbesondere das Speicherbelegungsverhalten und die Nutzung der Renderpipeline mit Problemen verbunden sind, die der Erfüllung von Echtzeitgarantien im Wege stehen und nicht auf der Ebene von OpenGL ES gelöst werden können.
  • Thumbnail Image
    ItemOpen Access
    Automated composition of adaptive pervasive applications in heterogeneous environments
    (2012) Schuhmann, Stephan Andreas; Rothermel, Kurt (Prof. Dr. rer. nat. Dr. h. c.)
    Distributed applications for Pervasive Computing represent a research area of high interest. Configuration processes are needed before the application execution to find a composition of components that provides the required functionality. As dynamic pervasive environments and device failures may yield unavailability of arbitrary components and devices at any time, finding and maintaining such a composition represents a nontrivial task. Obviously, many degrees of decentralization and even completely centralized approaches are possible in the calculation of valid configurations, spanning a wide spectrum of possible solutions. As configuration processes produce latencies which are noticed by the application user as undesired waiting times, configurations have to be calculated as fast as possible. While completely distributed configuration is inevitable in infrastructure-less Ad Hoc scenarios, many realistic Pervasive Computing environments are located in heterogeneous environments, where additional computation power of resource-rich devices can be utilized by centralized approaches. However, in case of strongly heterogeneous pervasive environments including several resource-rich and resource-weak devices, both centralized and decentralized approaches may lead to suboptimal results concerning configuration latencies: While the resource-weak devices may be bottlenecks for decentralized configuration, the centralized approach faces the problem of not utilizing parallelism. Most of the conducted projects in Pervasive Computing only focus on one specific type of environment: Either they concentrate on heterogeneous environments, which rely on additional infrastructure devices, leading to inapplicability in infrastructure-less environments. Or they address homogeneous Ad Hoc environments and treat all involved devices as equal, which leads to suboptimal results in case of present resource-rich devices, as their additional computation power is not exploited. Therefore, in this work we propose an advanced comprehensive adaptive approach that particularly focuses on the efficient support of heterogeneous environments, but is also applicable in infrastructure-less homogeneous scenarios. We provide multiple configuration schemes with different degrees of decentralization for distributed applications, optimized for specific scenarios. Our solution is adaptive in a way that the actual scheme is chosen based on the current system environment and calculates application compositions in a resource-aware efficient manner. This ensures high efficiency even in dynamically changing environments. Beyond this, many typical pervasive environments contain a fixed set of applications and devices that are frequently used. In such scenarios, identical resources are part of subsequent configuration calculations. Thus, the involved devices undergo a quite similar configuration process whenever an application is launched. However, starting the configuration from scratch every time not only consumes a lot of time, but also increases communication overhead and energy consumption of the involved devices. Therefore, our solution integrates the results from previous configurations to reduce the severity of the configuration problem in dynamic scenarios. We prove in prototypical real-world evaluations as well as by simulation and emulation that our comprehensive approach provides efficient automated configuration in the complete spectrum of possible application scenarios. This extensive functionality has not been achieved by related projects yet. Thus, our work supplies a significant contribution towards seamless application configuration in Pervasive Computing.
  • Thumbnail Image
    ItemOpen Access
    Konzeption und Realisierung eines Sicherheitskonzepts zur sicheren Datenstromverarbeitung in einer verteilten Ausfürhungsumgebung
    (2011) Dörler, Oliver
    Vorliegende Diplomarbeit entwickelt ein Sicherheitskonzept für NexusDS. Das Konzept definiert Sicherheitsmechanismen um den Zugriff und die Verarbeitung von sensiblen und geschützten Daten zu kontrollieren. Die Mechanismen beinhalten Funktionen um Daten zu Anonymisieren und zu Verschleiern. Die Entwicklung des Konzeptes beinhaltet die Abgrenzung von Sicherheit im Kontext von NexusDS, Erhebung von Anforderungen aus Anwendungsszenarien und NexusDS selbst, die Entwicklung entsprechend dienlicher Maßnahmen, deren Umsetzung in eine Sicherheitsarchitektur und eine prototypische Implementierung in NexusDS.
  • Thumbnail Image
    ItemOpen Access
    Konzeption und Implementierung eines skalierbaren Systems zur Verfolgung mobiler Objekte
    (2011) Biliniewicz, Daniel Alexander
    Heutzutage besitzen viele mobile Geräte wie Smartphones eine immer größere werdende Anzahl verschiedener Sensoren. Die Nutzung dieser, insbesondere in städtischen Gebieten, in hoher Zahl vorhandenen Geräte als mobiles Sensornetzwerk, eröffnet zur Zeit einen neuen Forschungsbereich, der als public sensing bezeichnet wird. In dieser Arbeit betrachten wir hierbei die Nutzung eines solchen Systems zur Verfolgung mobiler Objekte. Dabei legen wir unseren Fokus auf die Effizienz, hinsichtlich der gesamt übertragenen Daten zwischen mobilen Geräten und der Infrastruktur, bei gleichzeitig hoher Effektivität bezüglich der gemeldeten Objektpositionen. Um dies zu realisieren entwickeln wir einen auf einem Gitter basierenden Ansatz, der unter Einbeziehung der Mobilität der Objekte Suchaufträge gezielt an die mobilen Geräte verteilt. Der entworfene Ansatz wird in Simulationen mittels des Netzwerksimulators ns2 hinsichtlich seiner Effizient und Effektivität für verschiedene Gittergrößen untersucht. Hierfür vergleichen wir ihn mittels realistischer Mobilitätsdaten mit einem maximal effektiven Basis-Ansatz. Es zeigt sich, dass der Gitter-Ansatz bei nahezu gleichbleibender Effektivität, im Vergleich zum Basis-Ansatz, die Menge der übertragenen Daten minimiert.
  • Thumbnail Image
    ItemOpen Access
    Implementierung eines Peridynamik-Verfahrens auf GPU
    (2012) Diehl, Patrick
    This thesis presents an approach for implementing a Peridynamic technique on a Graphics Processing Unit (GPU). The Peridynamic theory is a non local theory in continuum mechanic, with a focus on discontinuous functions as they arrive in fracture mechanics. The word Peridynamic is the syncrisis of the two Greek words peri = near and dynami = force. The principle of this theory is, that particles in a continuum interact with other particles in a finite distance by exchanging forces. For the implementation on the GPU the Compute Unified Device Architecture (CUDA) is used.
  • Thumbnail Image
    ItemOpen Access
    Evaluierung von Verfahren zum optischen Lokalisieren und Kartographieren (SLAM) mit Eignung für den Einsatz auf UAVs
    (2013) Price, Eric
    In der Robotik werden kleine UAVs (unmanned aerial vehicles) dank zunehmender Hardwareminiaturisierung immer interessanter. Jedoch gelten auf diesen Plattformen wie Quadcoptern oder Modellflugzeugen zusätzliche Beschränkungen wie Größe, Bauform und Gewicht, die die zur Verfügung stehende Rechnerleistung für Anwendungen der autonomen Robotik nach wie vor einschränken. Thema dieser Diplomarbeit ist die Evaluierung von Verfahren zum simultanen Lokalisieren und Kartographieren an Hand optisch erfasster Bilddaten von einem mikro-UAV aus, wobei besonderes Augenmerk auf der Eignung der SLAM Verfahren für autonome optische Navigation in einer 3D Outdoor-Umgebung liegt.
  • Thumbnail Image
    ItemOpen Access
    Selbstorganisierte Strukturbildung in verteilten Robotersystemen
    (2011) Weber, Martin
    Roboterschwärme und andere verteilte Systeme bieten in vielen Bereichen ein vielversprechendes Konzept. Insbesondere sind in der Robustheit, der aus vielen simplen Teilen bestehenden, aber komplex organisierten Strukturen große Vorteile zu finden. Ein Bereich dieses Arbeitsgebietes befasst sich damit, dass die verteilten Robotersysteme Aufgaben im Team lösen, zu denen ein einzelner Roboter nicht in der Lage wäre. Ein Beispiel wäre ein verteiltes Wartungs- und Reinigungssystem für Tankanlagen, deren Öffnungen für einzelne große Roboter zu klein sind. Hier könnten kleine verteilte Roboter einzeln vordringen und sich im Inneren entsprechend formieren. Bei der Bildung von Strukturen aus einzelnen Komponenten muss unter anderem auch immer die Verteilung der Aufgaben berücksichtigt werden. In dieser Arbeit soll hierzu auf gekoppelte Selektionsgleichungen zurückgegriffen werden. In dieser Arbeit werden zunächst die mathematischen Grundlagen des Konzepts dieser gekoppelten Selektionsgleichungen vorgestellt. Im wesentlichen Teil der Arbeit werden verschiedene Möglichkeiten aufgezeigt, wie mit Hilfe der Selektionsgleichungen zunächst einfache geometrische Strukturen gebildet werden können. Simulationen verdeutlichen die Funktionsweise und die Robustheit der gewählten Lösungswege.
  • Thumbnail Image
    ItemOpen Access
    Konzepte und Algorithmen zur Datensynchronisation mit Cloud-Datenzentren
    (2012) Hummel, Paul
    Cloud Computing überzeugt immer mehr durch seine Vorteile, wie z. B. Verfügbarkeit, Skalierbarkeit und Kosteneffizienz. Ein aktuelles Forschungsthema ist die Synchronisation der Daten mit Cloud-Rechenzentren. In dieser Arbeit betrachten wir daher Aspekte, die bei diesem Problem im Mittelpunkt stehen. Zuerst werden in dieser Arbeit theoretische Grundlagen und aktuelle Technologien untersucht. Anschließend wird das hier betrachtete Synchronisations-Problem genauer beschrieben und potentielle Lösungsansätze vorgestellt. Das Ziel ist es, die lokalen Datenbanksysteme durch den Einsatz des Cloud Computings überflüssig zu machen und dabei die Vorteile des lokalen Datenbanksystems zu behalten. Es werden eine Architektur und Mechanismen entwickelt, ein Ausschnitt der Lösung implementiert und evaluiert. Abschließend wird die Arbeit zusammengefasst und ein Ausblick auf mögliche zukünftige Arbeiten gegeben.
  • Thumbnail Image
    ItemOpen Access
    Verwaltung von zeitbezogenen Daten und Sensordatenströmen
    (2013) Hönle, Nicola Anita Margarete; Mitschang, Bernhard (Prof. Dr.-Ing. habil.)
    Sogenannte ortsbezogene Anwendungen interpretieren die räumliche Position des Benutzers als wichtigste Kontextinformation, um ihr Verhalten darauf abzustimmen. Im Rahmen des Nexus-Projekts (SFB627) werden Konzepte zur Unterstützung ortsbezogener Anwendungen erforschtund die Ergebnisse in der sogenannten Nexus-Plattform integriert. Der Benutzerkontext wird aber auch durch die Zeit beeinflusst, da Zeit ein wesentlicher Bestandteil unseres Lebens ist und so gut wie jede Information einen zeitlichen Bezug hat. Die Integration von Zeit bedeutet eine Erweiterung der Nexus-Plattform von der ortsbezogenen Unterstützung hin zu einem allgemeineren kontextbezogenen System. Da die uneingeschränkte Berücksichtigung von Zeit im allgemeinen Fall ein zu großes Themenfeld ist, wurden im Rahmen einer Use-Case-Analyse Anforderungen identifiziert, die besondere Relevanz für das Nexus-Projekt haben. Diese Anforderungen und ihre Umsetzung werden in der vorliegenden Arbeit beschrieben. Die Speicherung von Zeiträumen und Zeitpunkten basiert auf dem GML-Zeitdatentyp, so dass Zeitwerte im Format des ISO-8601-Standards dargestellt werden. Mit diesem Basisdatentyp sind temporale Attribute im Nexus-Datenmodell definierbar. Für die Formulierung von Anfragen wird das neue Prädikat temporalIntersects eingeführt, mit dem eine beliebige Überschneidung eines temporalen Attributs zu einem vorgegebenen Zeitraum angegeben werden kann. Da jedoch die Anfragekriterien nicht im Vorfeld eingeschränkt werden sollen, werden außerdem die minimal notwendigen temporalen Basisprädikate beschrieben, mit denen alle Relationen der Allen-Intervallalgebra formuliert werden können. Die Gültigkeitszeit gibt an, zu welchen Zeiten ein bestimmter Wert den tatsächlichen Realweltzustand korrekt modelliert. Zur Annotation von Daten mit Gültigkeitszeiten, aber auch mit anderen Metadaten, wird ein allgemeines Metadatenkonzept für das Nexus-Datenmodell beschrieben. Mit Metadaten können dann Gültigkeitszeiten von Objekten und Attributen angegeben und so auf einfache Weise Historien von beliebigen Attributen modelliert werden. Interpolationsfunktionen ermöglichen eine genauere und komprimierte Darstellung von sich häufig ändernden Daten mit kontinuierlichen Werteverläufen wie z.B. Sensordatenhistorien. Deshalb werden die Basisdatentypen für Gleitkommazahlen und räumliche Werte so geändert, dass lineare Interpolationsfunktionen für die kontinuierliche Änderung von Werten über die Zeit modellierbar sind. Zur Speicherung wird die Implementierung eines Historienservers beschrieben, der interpolierbare Basisdatentypen verarbeiten kann. Messwerte von Sensoren bestehen meist aus diskreten (Wert, Zeitpunkt)-Tupeln. Da bei der dauerhaften Speicherung von Sensordaten schnell eine große Menge an Daten anfallen kann, ist es sinnvoll, die Daten vorher zu komprimieren. In dieser Arbeit werden sowohl strombasierte als auch konventionell arbeitende Ansätze für eine Komprimierung von Sensordatenströmen vorgestellt: Einfache Approximationsverfahren und die Approximation durch lineare Ausgleichsrechnung sowie Verfahren zur Polygonzugvereinfachung, aber auch ein kartenbasierter Ansatz speziell für Positionsdaten. Zur Klassifikation der Ansätze werden verschiedene Eigenschaften von Komprimierungsalgorithmen vorgestellt. Für die Alterung von komprimierten Sensordaten wird das neue Konzept der Fehlerbeschränktheit bei Alterung eingeführt. Die Algorithmen werden entsprechend klassifiziert und mit GPS-Testdatensätzen von PKW-Fahrten evaluiert. Die gelungene Integration der Zeitaspekte wird anhand dem Messetagebuch, einer Beispielanwendung zur Aufzeichnung und Auswertung von Benutzeraktivitäten, gezeigt. Ein weiteres Anwendungsbeispiel ist der Einsatz des NexusDS-Datenstrommanagementsystems zur Erfassung, Integration und Historisierung von Datenströmen unterschiedlicher Herkunft in einer sogenannten Smart Factory.
  • Thumbnail Image
    ItemOpen Access
    Cache-effiziente Block-Matrix-Löser für die Partition of Unity Methode
    (2012) Gründer, Patrick
    Die Partition of Unity Methode findet Anwendung in gitterlosen Diskretisierungsverfahren zum Lösen elliptischer partieller Differentialgleichungen. Die bei der Diskretisierung entstehenden Gleichungssysteme besitzen eine Blockstruktur, die sich mittels der Multilevel Partition of Unity Methode asymptotisch optimal lösen lassen. Ein alternatives Verfahren zum Lösen dieser Gleichungssysteme stellen die vorkonditionierten Krylow- Unterraumverfahren dar. In dieser Arbeit wird ein auf der ILU-Zerlegung basierenders CG-Verfahren für Block-Matrizen implementiert, das auf Cache-effizienten Algorithmen basiert. Der Ausgangspunkt stellt die Bibliothek TifaMMy dar. Die in den letzten Jahren entwickelte Bibliothek basiert auf inhärent Cache-effiziente Algorithmen für dicht- und dünnbesetzte Matrizen. Dabei wird eine neue Datenstruktur für Blockmatrizen (BCRS) und die nötigen Algorithmen implementiert. Die Leistung des Block-Matrix-Löser wird mit der Multilevel Partition of Unity Methode verglichen.