Universität Stuttgart
Permanent URI for this communityhttps://elib.uni-stuttgart.de/handle/11682/1
Browse
929 results
Search Results
Item Open Access Analyse der Echtzeitfähigkeit und des Ressourcenverbrauchs von OpenGL ES 2.0(2011) Cont, ArminOpenGL ES 2.0 (Open Graphics Library for Embedded Systems 2.0) ist eine Schnittstelle zur Entwicklung von 2D- und 3D-Computergrafik-Anwendungen. Die Spezifikation von OpenGL ES 2.0 definiert eine Reihe von Befehlen, mit denen Daten zum und vom OpenGL ES-System übermittelt werden können, mit denen das Zeichnen von Grafiken angestoßen werden kann (Rendering) und Einstellungen für das Rendering durchgeführt werden können. Üblicherweise verwenden OpenGL ES-Systeme für das Rendering physische Grafikkarten (GPUs). Keines der heute verfügbaren OpenGL ES-Systeme mit physischer GPU unterstützt aber die Priorisierung von Anwendungen hinsichtlich der Ausführung von OpenGL ES-Befehlen oder Einschränkungen von Anwendungen hinsichtlich der Nutzung von GPU-Ressourcen. Insbesondere bietet OpenGL ES weder einen konfigurierbaren Scheduler noch die Möglichkeit, Echtzeitgarantien für die Ausführung von OpenGL ES-Befehlen zu erfüllen. Ziel dieser Arbeit ist es, zu untersuchen, inwieweit dennoch sichergestellt werden kann, dass Befehle sicherheitskritischer Anwendungen rechtzeitig ausgeführt werden können. Dazu werden relevante Befehle bestimmt, deren Laufzeitverhalten und Ressourcenverbrauch analysiert wird. Außerdem werden spezielle Szenarien untersucht, um festzustellen, inwiefern das Verhalten von OpenGL ES-Systemen die rechtzeitige Ausführung kritischer Befehle verhindern kann. Schließlich werden Untersuchungsmethoden und Metriken für die Prognose des Ressourcenverbrauchs von OpenGL ES-Befehlen und die Ermittlung der dafür notwendigen systemspezifischen Kennzahlen entwickelt. Die Untersuchung werden auf einigen realen OpenGL ES-Systeme durchgeführt. Dabei wird gezeigt, dass insbesondere das Speicherbelegungsverhalten und die Nutzung der Renderpipeline mit Problemen verbunden sind, die der Erfüllung von Echtzeitgarantien im Wege stehen und nicht auf der Ebene von OpenGL ES gelöst werden können.Item Open Access Eine OSLC-Plattform zur Unterstützung der Situationserkennung in Workflows(2015) Jansa, PaulDas Internet der Dinge gewinnt immer mehr an Bedeutung durch eine starke Vernetzung von Rechnern, Produktionsanlagen, mobilen Endgeräten und weiteren technischen Geräten. Derartige vernetzte Umgebungen werden auch als SMART Environments bezeichnet. Auf Basis von Sensordaten können in solchen Umgebungen höherwertige Situationen (Zustandsänderungen) erkannt und auf diese meist automatisch reagiert werden. Dadurch werden neuartige Technologien wie zum Beispiel "Industrie 4.0", "SMART Homes" oder "SMART Cities" ermöglicht. Komplexe Vernetzungen und Arbeitsabläufe in derartigen Umgebungen werden oftmals mit Workflows realisiert. Um eine robuste Ausführung dieser Workflows zu gewährleisten, müssen Situationsänderungen beachtet und auf diese entsprechend reagiert werden, zum Beispiel durch Workflow-Adaption. Das heißt, erst durch die Erkennung höherwertiger Situationen können solche Workflows robust modelliert und ausgeführt werden. Jedoch stellen die für die Erkennung von Situationen notwendige Anbindung und Bereitstellung von Sensordaten eine große Herausforderung dar. Oft handelt es sich bei den Sensordaten um Rohdaten. Sie sind schwer extrahierbar, liegen oftmals nur lokal vor, sind ungenau und lassen sich dementsprechend schwer verarbeiten. Um die Sensordaten zu extrahieren, müssen für jeden Sensor individuelle Adapter programmiert werden, die wiederum ein einheitliches Datenformat der Sensordaten bereitstellen müssen und anschließend mit sehr viel Aufwand untereinander verbunden werden. Im Rahmen dieser Diplomarbeit wird ein Konzept erarbeitet und entwickelt, mit dessen Hilfe eine einfache Integration von Sensordaten ermöglicht wird. Dazu werden die Sensoren über eine webbasierte Benutzeroberfläche oder über eine programmatische Schnittstelle in einer gemeinsamen Datenbank registriert. Die Sensordaten werden durch REST-Ressourcen abstrahiert, in RDF-basierte Repräsentationen umgewandelt und mit dem Linked-Data Prinzip miteinander verbunden. Durch die standardisierte Schnittstelle können Endbenutzer oder Anwendungen über das Internet auf die Sensordaten zugreifen, neue Sensoren anmelden oder entfernen.Item Open Access Automated composition of adaptive pervasive applications in heterogeneous environments(2012) Schuhmann, Stephan Andreas; Rothermel, Kurt (Prof. Dr. rer. nat. Dr. h. c.)Distributed applications for Pervasive Computing represent a research area of high interest. Configuration processes are needed before the application execution to find a composition of components that provides the required functionality. As dynamic pervasive environments and device failures may yield unavailability of arbitrary components and devices at any time, finding and maintaining such a composition represents a nontrivial task. Obviously, many degrees of decentralization and even completely centralized approaches are possible in the calculation of valid configurations, spanning a wide spectrum of possible solutions. As configuration processes produce latencies which are noticed by the application user as undesired waiting times, configurations have to be calculated as fast as possible. While completely distributed configuration is inevitable in infrastructure-less Ad Hoc scenarios, many realistic Pervasive Computing environments are located in heterogeneous environments, where additional computation power of resource-rich devices can be utilized by centralized approaches. However, in case of strongly heterogeneous pervasive environments including several resource-rich and resource-weak devices, both centralized and decentralized approaches may lead to suboptimal results concerning configuration latencies: While the resource-weak devices may be bottlenecks for decentralized configuration, the centralized approach faces the problem of not utilizing parallelism. Most of the conducted projects in Pervasive Computing only focus on one specific type of environment: Either they concentrate on heterogeneous environments, which rely on additional infrastructure devices, leading to inapplicability in infrastructure-less environments. Or they address homogeneous Ad Hoc environments and treat all involved devices as equal, which leads to suboptimal results in case of present resource-rich devices, as their additional computation power is not exploited. Therefore, in this work we propose an advanced comprehensive adaptive approach that particularly focuses on the efficient support of heterogeneous environments, but is also applicable in infrastructure-less homogeneous scenarios. We provide multiple configuration schemes with different degrees of decentralization for distributed applications, optimized for specific scenarios. Our solution is adaptive in a way that the actual scheme is chosen based on the current system environment and calculates application compositions in a resource-aware efficient manner. This ensures high efficiency even in dynamically changing environments. Beyond this, many typical pervasive environments contain a fixed set of applications and devices that are frequently used. In such scenarios, identical resources are part of subsequent configuration calculations. Thus, the involved devices undergo a quite similar configuration process whenever an application is launched. However, starting the configuration from scratch every time not only consumes a lot of time, but also increases communication overhead and energy consumption of the involved devices. Therefore, our solution integrates the results from previous configurations to reduce the severity of the configuration problem in dynamic scenarios. We prove in prototypical real-world evaluations as well as by simulation and emulation that our comprehensive approach provides efficient automated configuration in the complete spectrum of possible application scenarios. This extensive functionality has not been achieved by related projects yet. Thus, our work supplies a significant contribution towards seamless application configuration in Pervasive Computing.Item Open Access Konzeption und Realisierung eines Sicherheitskonzepts zur sicheren Datenstromverarbeitung in einer verteilten Ausfürhungsumgebung(2011) Dörler, OliverVorliegende Diplomarbeit entwickelt ein Sicherheitskonzept für NexusDS. Das Konzept definiert Sicherheitsmechanismen um den Zugriff und die Verarbeitung von sensiblen und geschützten Daten zu kontrollieren. Die Mechanismen beinhalten Funktionen um Daten zu Anonymisieren und zu Verschleiern. Die Entwicklung des Konzeptes beinhaltet die Abgrenzung von Sicherheit im Kontext von NexusDS, Erhebung von Anforderungen aus Anwendungsszenarien und NexusDS selbst, die Entwicklung entsprechend dienlicher Maßnahmen, deren Umsetzung in eine Sicherheitsarchitektur und eine prototypische Implementierung in NexusDS.Item Open Access A context-aware hoarding mechanism for location-dependent information systems(2000) Kubach, Uwe; Rothermel, KurtWhen used in an outdoor environment mobile information systems often suffer from the disadvantages of wireless WANs, especially low bandwidth, high delay, and frequent disconnections. Hoarding is an effective method to overcome these disadvantages by transferring information which is probably needed by the user in advance. In this paper we propose a generic, context-aware hoarding mechanism. When selecting the information to hoard, it considers the user's future location as well as the expected speed of movement. In contrast to existing hoarding mechanisms it is universally applicable for different types of location-dependent, mobile information systems. Its flexibility allows it to rely on different knowledge sources in order to get information about a user's context.Item Open Access Modeling recommendations for pattern-based mashup plans(2018) Das, SomeshData mashups are modeled as pipelines. The pipelines are basically a chain of data processing steps in order to integrate data from different data sources into a single one. These processing steps include data operations, such as join, filter, extraction, integration or alteration. To create and execute data mashups, modelers need to have technical knowledge in order to understand these data operations. In order to solve this issue, an extended data mashup approach was created - FlexMash developed at the University of Stuttgart - which allows users to define data mashups without technical knowledge about any execution details. Consquently, modelers with no or limited technical knowledge can design their own domain-specific mashup based on their use case scenarios. However, designing data mashups graphically is still difficult for non-IT users. When users design a model graphically, it is hard to understand which patterns or nodes should be modeled and connected in the data flow graph. In order to cope with this issue, this master thesis aims to provide users modeling recommendations during modeling time. At each modeling step, user can query for recommendations. The recommendations are generated by analyzing the existing models. To generate the recommendations from existing models, association rule mining algorithms are used in this thesis. If users accept a recommendation, the recommended node is automatically added to the partial model and connected with the node for which recommendations were given.Item Open Access Konzeption und Implementierung eines skalierbaren Systems zur Verfolgung mobiler Objekte(2011) Biliniewicz, Daniel AlexanderHeutzutage besitzen viele mobile Geräte wie Smartphones eine immer größere werdende Anzahl verschiedener Sensoren. Die Nutzung dieser, insbesondere in städtischen Gebieten, in hoher Zahl vorhandenen Geräte als mobiles Sensornetzwerk, eröffnet zur Zeit einen neuen Forschungsbereich, der als public sensing bezeichnet wird. In dieser Arbeit betrachten wir hierbei die Nutzung eines solchen Systems zur Verfolgung mobiler Objekte. Dabei legen wir unseren Fokus auf die Effizienz, hinsichtlich der gesamt übertragenen Daten zwischen mobilen Geräten und der Infrastruktur, bei gleichzeitig hoher Effektivität bezüglich der gemeldeten Objektpositionen. Um dies zu realisieren entwickeln wir einen auf einem Gitter basierenden Ansatz, der unter Einbeziehung der Mobilität der Objekte Suchaufträge gezielt an die mobilen Geräte verteilt. Der entworfene Ansatz wird in Simulationen mittels des Netzwerksimulators ns2 hinsichtlich seiner Effizient und Effektivität für verschiedene Gittergrößen untersucht. Hierfür vergleichen wir ihn mittels realistischer Mobilitätsdaten mit einem maximal effektiven Basis-Ansatz. Es zeigt sich, dass der Gitter-Ansatz bei nahezu gleichbleibender Effektivität, im Vergleich zum Basis-Ansatz, die Menge der übertragenen Daten minimiert.Item Open Access Anonymisierung von Daten : von der Literatur zum Automobilbereich(2023) Herkommer, JanDie Datenanonymisierung im Automobilbereich gewinnt immer mehr an Bedeutung. Jedoch gibt es kaum Literatur und Ansätze, die sich mit der Anonymisierung von Automobildaten beschäftigen. In dieser Arbeit werden deshalb mit Hilfe einer strukturierten Literaturrecherche die aktuell verbreitetsten Verfahren und Anwendungsbereiche erörtert und die wichtigsten Erkenntnisse der Recherche zusammengefasst. So werden bei den analysierten Paper der Anwendungsbereich, die Methodik sowie der zu anonymisierende Datentyp ermittelt. DesWeiteren werden die Metriken zum Vergleich von unterschiedlichen Ansätzen betrachtet. Mit Hilfe dieser Erkenntnisse wird im Anschluss auf die Anonymisierung von Fahrzeugdaten anhand verschiedener Anwendungsfälle eingegangen und Herausforderungen und Lösungsansätze skizziert. Zuletzt wird beispielhaft ein Ansatz zur Anonymisierung von Routen implementiert, um mit Hilfe eines GPS-Sensors aufgezeichnete Fahrzeugrouten zu anonymisieren. Dabei werden zusätzliche Probleme wie der Umgang mit Messungenauigkeiten und Messfehlern sowie die tatsächlichen Auswirkungen von reduzierter Datennutzbarkeit verdeutlicht.Item Open Access Inferring object hypotheses based on feature motion from different sources(2015) Fuchs, SteffenPerception systems in robotics are typically closely tailored to the given task, e.g., in typical pick-and-place tasks the perception systems only recognizes the mugs that are supposed to be moved and the table the mugs are placed on. The obvious limitation of those systems is that for a new task a new vision system must be designed and implemented. This master's thesis proposes a method that allows to identify entities in the world based on motion of various features from various sources. This is without relying on strong prior assumptions and to provide an important piece towards a more general perception system. While entities are rigid bodies in the world, the sources can be anything that allows to track certain features over time in order to create trajectories. For example, these feature trajectories can be obtained from RGB and RGB-D sensors of a robot, from external cameras, or even the end effector of the robot (proprioception). The core conceptual elements are: the distance variance between trajectory pairs is computed to construct an affinity matrix. This matrix is then used as input for a divisive k-means algorithm in order to cluster trajectories into object hypotheses. In a final step these hypotheses are combined with previously observed hypotheses by computing the correlations between the current and the updated sets. This approach has been evaluated on both simulated and real world data. Generating simulated data provides an elegant way for a qualitative analysis of various scenarios. The real world data was obtained by tracking Shi-Tomasi corners using the Lucas-Kanade optical flow estimation of RGB image sequences and projecting the features into range image space.Item Open Access Development of an Euler-Lagrangian framework for point-particle tracking to enable efficient multiscale simulations of complex flows(2023) Kschidock, HelenaIn this work, we implement, test, and validate an Euler-Lagrangian point-particle tracking framework for the commercial aerodynamics and aeroacoustics simulation tool ultraFluidX, which is based on the Lattice Boltzmann Method and optimized for GPUs. Our framework successfully simulates one-way and two-way coupled particle-laden flows based on drag forces and gravitation. Trilinear interpolation is used for determining the fluid's macroscopic properties at the particle position. Object and domain boundary conditions are implemented using a planar surface approximation. The whole particle framework is run within three dedicated GPU kernels, and data is only copied back to the CPU upon output. We show validation for the velocity interpolation, gravitational acceleration, back-coupling forces and boundary conditions, and test runtimes and memory requirements. We also propose the next steps required to make the particle framework ready for use in engineering applications.