05 Fakultät Informatik, Elektrotechnik und Informationstechnik

Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/6

Browse

Search Results

Now showing 1 - 10 of 393
  • Thumbnail Image
    ItemOpen Access
    Analyse der Echtzeitfähigkeit und des Ressourcenverbrauchs von OpenGL ES 2.0
    (2011) Cont, Armin
    OpenGL ES 2.0 (Open Graphics Library for Embedded Systems 2.0) ist eine Schnittstelle zur Entwicklung von 2D- und 3D-Computergrafik-Anwendungen. Die Spezifikation von OpenGL ES 2.0 definiert eine Reihe von Befehlen, mit denen Daten zum und vom OpenGL ES-System übermittelt werden können, mit denen das Zeichnen von Grafiken angestoßen werden kann (Rendering) und Einstellungen für das Rendering durchgeführt werden können. Üblicherweise verwenden OpenGL ES-Systeme für das Rendering physische Grafikkarten (GPUs). Keines der heute verfügbaren OpenGL ES-Systeme mit physischer GPU unterstützt aber die Priorisierung von Anwendungen hinsichtlich der Ausführung von OpenGL ES-Befehlen oder Einschränkungen von Anwendungen hinsichtlich der Nutzung von GPU-Ressourcen. Insbesondere bietet OpenGL ES weder einen konfigurierbaren Scheduler noch die Möglichkeit, Echtzeitgarantien für die Ausführung von OpenGL ES-Befehlen zu erfüllen. Ziel dieser Arbeit ist es, zu untersuchen, inwieweit dennoch sichergestellt werden kann, dass Befehle sicherheitskritischer Anwendungen rechtzeitig ausgeführt werden können. Dazu werden relevante Befehle bestimmt, deren Laufzeitverhalten und Ressourcenverbrauch analysiert wird. Außerdem werden spezielle Szenarien untersucht, um festzustellen, inwiefern das Verhalten von OpenGL ES-Systemen die rechtzeitige Ausführung kritischer Befehle verhindern kann. Schließlich werden Untersuchungsmethoden und Metriken für die Prognose des Ressourcenverbrauchs von OpenGL ES-Befehlen und die Ermittlung der dafür notwendigen systemspezifischen Kennzahlen entwickelt. Die Untersuchung werden auf einigen realen OpenGL ES-Systeme durchgeführt. Dabei wird gezeigt, dass insbesondere das Speicherbelegungsverhalten und die Nutzung der Renderpipeline mit Problemen verbunden sind, die der Erfüllung von Echtzeitgarantien im Wege stehen und nicht auf der Ebene von OpenGL ES gelöst werden können.
  • Thumbnail Image
    ItemOpen Access
    Eine OSLC-Plattform zur Unterstützung der Situationserkennung in Workflows
    (2015) Jansa, Paul
    Das Internet der Dinge gewinnt immer mehr an Bedeutung durch eine starke Vernetzung von Rechnern, Produktionsanlagen, mobilen Endgeräten und weiteren technischen Geräten. Derartige vernetzte Umgebungen werden auch als SMART Environments bezeichnet. Auf Basis von Sensordaten können in solchen Umgebungen höherwertige Situationen (Zustandsänderungen) erkannt und auf diese meist automatisch reagiert werden. Dadurch werden neuartige Technologien wie zum Beispiel "Industrie 4.0", "SMART Homes" oder "SMART Cities" ermöglicht. Komplexe Vernetzungen und Arbeitsabläufe in derartigen Umgebungen werden oftmals mit Workflows realisiert. Um eine robuste Ausführung dieser Workflows zu gewährleisten, müssen Situationsänderungen beachtet und auf diese entsprechend reagiert werden, zum Beispiel durch Workflow-Adaption. Das heißt, erst durch die Erkennung höherwertiger Situationen können solche Workflows robust modelliert und ausgeführt werden. Jedoch stellen die für die Erkennung von Situationen notwendige Anbindung und Bereitstellung von Sensordaten eine große Herausforderung dar. Oft handelt es sich bei den Sensordaten um Rohdaten. Sie sind schwer extrahierbar, liegen oftmals nur lokal vor, sind ungenau und lassen sich dementsprechend schwer verarbeiten. Um die Sensordaten zu extrahieren, müssen für jeden Sensor individuelle Adapter programmiert werden, die wiederum ein einheitliches Datenformat der Sensordaten bereitstellen müssen und anschließend mit sehr viel Aufwand untereinander verbunden werden. Im Rahmen dieser Diplomarbeit wird ein Konzept erarbeitet und entwickelt, mit dessen Hilfe eine einfache Integration von Sensordaten ermöglicht wird. Dazu werden die Sensoren über eine webbasierte Benutzeroberfläche oder über eine programmatische Schnittstelle in einer gemeinsamen Datenbank registriert. Die Sensordaten werden durch REST-Ressourcen abstrahiert, in RDF-basierte Repräsentationen umgewandelt und mit dem Linked-Data Prinzip miteinander verbunden. Durch die standardisierte Schnittstelle können Endbenutzer oder Anwendungen über das Internet auf die Sensordaten zugreifen, neue Sensoren anmelden oder entfernen.
  • Thumbnail Image
    ItemOpen Access
    Konzeption und Realisierung eines Sicherheitskonzepts zur sicheren Datenstromverarbeitung in einer verteilten Ausfürhungsumgebung
    (2011) Dörler, Oliver
    Vorliegende Diplomarbeit entwickelt ein Sicherheitskonzept für NexusDS. Das Konzept definiert Sicherheitsmechanismen um den Zugriff und die Verarbeitung von sensiblen und geschützten Daten zu kontrollieren. Die Mechanismen beinhalten Funktionen um Daten zu Anonymisieren und zu Verschleiern. Die Entwicklung des Konzeptes beinhaltet die Abgrenzung von Sicherheit im Kontext von NexusDS, Erhebung von Anforderungen aus Anwendungsszenarien und NexusDS selbst, die Entwicklung entsprechend dienlicher Maßnahmen, deren Umsetzung in eine Sicherheitsarchitektur und eine prototypische Implementierung in NexusDS.
  • Thumbnail Image
    ItemOpen Access
    REST Testbed
    (2013) Eisenbraun, Nick
    Web Services, die gemäß dem Architekturstil REST entworfen werden, zeichnen sich durch Eigenschaften wie Interoperabilität, lose Kopplung, Wiederverwendbarkeit, Leistung und Skalierbarkeit aus. In verteilten Systemen werden deswegen oft REST-basierteWeb Services eingesetzt. Verteilte Systeme haben höhere Fehleranfälligkeit als Standalone-Anwendungen und diese Erkenntnis sollte beim Entwicklungsprozess durch ausreichende Testszenarien berücksichtigt werden. Bei der Entwicklung von REST-basierten Client-Anwendungen wird ein REST-basierter Web Service benötigt, um die Funktionalitäten der Client-Anwendung zu testen. In dieser Diplomarbeit werden Anforderungen an ein Testbed zum Testen von REST-basierten Client-Anwendungen gestellt. Es wird eine Architektur zu diesem Testbed entworfen und anschließend ein Testbed prototypisch implementiert. Bei der Entwicklung des Testbeds werden die Eigenschaften wie Erweiterbarkeit und Konfigurierbarkeit der Funktionalitäten des REST-basiertenWeb Services sichergestellt. Durch die berücksichtigte Erweiterbarkeit kann das Testbed leicht um neue Funktionalitäten ergänzt werden. Die Konfigurierbarkeit erlaubt das Anpassen der funktionalen und nicht-funktionalen Eigenschaften des Testbeds, um die Erfüllbarkeit der an eine Client-Anwendung gestellten funktionalen und nicht-funktionalen Anforderungen zu überprüfen.
  • Thumbnail Image
    ItemOpen Access
    Concept and implementation of a pluggable framework for storage, transformation, and analysis of large-scale enterprise topology graphs
    (2013) Todenhagen, Hannes
    The addition of on-demand cloud computing offerings increases the complexity of IT systems rapidly. Enterprise Topology Graphs depict all the components of enterprise IT and their relations, to regain insight into enterprise IT. The focus of this work is the research, design and implementation of a framework to store and manage these graphs in an efficient way. The difficulties are the enormous graph sizes and a lot of meta information, leading to a complex design to offer a good performing solution. The framework is based on a graph database to store the Enterprise Topology Graph efficiently and offers a pluggable architecture to be able to extend the functionality, e.g. with transformation operations the graphs. With the reference implementation of this framework, the complex structures of enterprise IT systems can be stored, managed and easily manipulated to gain a more detailed view on the IT components and their dependencies.
  • Thumbnail Image
    ItemOpen Access
    Performance Evaluation of Time-Based and Movement-Based Location Update Schemes
    (2006) Bachmaier, Sebastian
    In Personal Communications Service (PCS) networks, location management is a key issue. Mobility tracking operations are executed to maintain known the whereabouts of each mobile terminal. In this work, some modifications on the classical time-based and movement-based registration methods are evaluated. The goal is to provide a unified approach of the time-based and distance-based schemes on one hand, and the movement-based and distance-based strategies on the other hand. Furthermore what is achieved is that the Mobile Terminal sends less location update messages, which results in less contacts with the network and an increase in the uncertainty of the Mobile Terminal position. Although the Mobile Terminal Paging costs are lightly increased, the result is a significant reduction in the Location Update cost, and the net effect is a saving in the total location management cost per call arrival, i.e. the Location Update cost plus the Paging cost. The studied mechanisms will be compared with the original dynamic schemes by means of a performance evaluation method based on software simulation tools and contrasted to an analysis based on Markovian standard tools. The location management costs for all these dynamic policies will be evaluated.
  • Thumbnail Image
    ItemOpen Access
    Konzeption und Implementierung eines skalierbaren Systems zur Verfolgung mobiler Objekte
    (2011) Biliniewicz, Daniel Alexander
    Heutzutage besitzen viele mobile Geräte wie Smartphones eine immer größere werdende Anzahl verschiedener Sensoren. Die Nutzung dieser, insbesondere in städtischen Gebieten, in hoher Zahl vorhandenen Geräte als mobiles Sensornetzwerk, eröffnet zur Zeit einen neuen Forschungsbereich, der als public sensing bezeichnet wird. In dieser Arbeit betrachten wir hierbei die Nutzung eines solchen Systems zur Verfolgung mobiler Objekte. Dabei legen wir unseren Fokus auf die Effizienz, hinsichtlich der gesamt übertragenen Daten zwischen mobilen Geräten und der Infrastruktur, bei gleichzeitig hoher Effektivität bezüglich der gemeldeten Objektpositionen. Um dies zu realisieren entwickeln wir einen auf einem Gitter basierenden Ansatz, der unter Einbeziehung der Mobilität der Objekte Suchaufträge gezielt an die mobilen Geräte verteilt. Der entworfene Ansatz wird in Simulationen mittels des Netzwerksimulators ns2 hinsichtlich seiner Effizient und Effektivität für verschiedene Gittergrößen untersucht. Hierfür vergleichen wir ihn mittels realistischer Mobilitätsdaten mit einem maximal effektiven Basis-Ansatz. Es zeigt sich, dass der Gitter-Ansatz bei nahezu gleichbleibender Effektivität, im Vergleich zum Basis-Ansatz, die Menge der übertragenen Daten minimiert.
  • Thumbnail Image
    ItemOpen Access
    Visual Analytics im Kontext der Daten- und Analysequalität am Beispiel von Data Mashups
    (2016) Behringer, Michael
    Viele Prozesse und Geschäftsmodelle der Gegenwart basieren auf der Auswertung von Daten. Durch Fortschritte in der Speichertechnologie und Vernetzung ist die Akquisition von Daten heute sehr einfach und wird umfassend genutzt. Das weltweit vorhandene Datenvolumen steigt exponentiell und sorgt für eine zunehmende Komplexität der Analyse. In den letzten Jahren fällt in diesem Zusammenhang öfter der Begriff Visual Analytics. Dieses Forschungsgebiet kombiniert visuelle und automatische Verfahren zur Datenanalyse. Im Rahmen dieser Arbeit werden die Verwendung und die Ziele von Visual Analytics evaluiert und eine neue umfassendere Definition entwickelt. Aus dieser wird eine Erweiterung des Knowledge Discovery-Prozesses abgeleitet und verschiedene Ansätze bewertet. Um die Unterschiede zwischen Data Mining, der Visualisierung und Visual Analytics zu verdeutlichen, werden diese Themengebiete gegenübergestellt und in einem Ordnungsrahmen hinsichtlich verschiedener Dimensionen klassifiziert. Zusätzlich wird untersucht, inwiefern dieser neue Ansatz im Hinblick auf Daten- und Analysequalität eingesetzt werden kann. Abschließend wird auf Basis der gewonnenen Erkenntnisse eine prototypische Implementierung auf Basis von FlexMash, einem an der Universität Stuttgart entwickelten Data Mashup-Werkzeug, beschrieben. Data Mashups vereinfachen die Einbindung von Anwendern ohne technischen Hintergrund und harmonieren daher ausgezeichnet mit Visual Analytics.
  • Thumbnail Image
    ItemOpen Access
    Approach and realization of a multi-tenant service composition engine
    (2013) Hahn, Michael
    The support of multi-tenancy is an essential requirement to leverage the full extent of Cloud computing. Multi-tenancy enables service providers to maximize the utilization of their infrastructure and to reduce the servicing costs per customer. With regard to the fact that nowadays new applications or services are often composed out of multiple existing services or applications, a middleware is required which enables these compositions. A Service Composition Engine (SCE) provides the required functionality to enable the definition and execution of service compositions. In this diploma thesis we investigate the requirements and define an abstract architecture for the realization of a multi-tenant SCE. This architecture is prototypically realized with an open-source SCE and integrated into an existing multi-tenant aware ESB. The resulting middleware provides configurability for service compositions, tenant-aware messaging and tenant-based administration and management of the SCE and the ESB.
  • Thumbnail Image
    ItemOpen Access
    Interaktive Analyse von Supercomputer-Leistungsdaten
    (2013) Hackländer, Jessica
    Mit den stetig wachsenden Datenmengen wachsen auch heutige High Performance Computing (HPC)-Umgebungen in ihrer Größe und Komplexität. Gleichzeitig wächst aber auch ihre Fehleranfälligkeit, wodurch es zunehmend wichtig ist, HPC-Systeme fehlertoleranter zu machen. In dieser Arbeit werden Visualisierungstechniken vorgestellt, die für die Visualisierung und Analyse von HPC-Leistungsdaten geeignet scheinen und gezeigt, dass keine dieser Visualisierungen alleine die Komplexität dieser Daten vollständig erfassen kann. Bereits bestehende Ansätze im Bereich der HPC-Leistungsanalyse werden vorgestellt und gezeigt, dass diese entweder nur Anwendungsdaten betrachten oder nur einfache Visualisierungs- und Interaktionstechniken bieten. Im Hauptteil dieser Arbeit wird die Entwicklung eines Prototyps beschrieben, der auf diesen Kenntnissen basierend verschiedene Visualisierungen implementiert, die unterschiedliche Aspekte der Daten betrachten und anwendungsbasierte mit infrastrukturellen Daten kombinieren. Durch die Implementierung verschiedener Interaktionstechniken, wie Multiple Coordinated Views, Selektion und Filtermöglichkeiten, bietet der Prototyp unterschiedliche Möglichkeiten, um die Daten zu explorieren und analysieren. In einer anschließenden beschriebenen Benutzerstudie wird für einzelne umgesetzte Visualisierungs- und Interaktionstechniken gezeigt, dass diese sinnvoll und hilfreich für die Analyse von HPC-Leistungsdaten sind. Der Prototyp stellt damit einen sinnvollen Ansatz für die Analyse von HPC-Leistungsdaten dar und kann in Zukunft durch weitere Visualisierungs- und Interaktionstechniken erweitert werden.