05 Fakultät Informatik, Elektrotechnik und Informationstechnik
Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/6
Browse
Search Results
Item Open Access Modeling recommendations for pattern-based mashup plans(2018) Das, SomeshData mashups are modeled as pipelines. The pipelines are basically a chain of data processing steps in order to integrate data from different data sources into a single one. These processing steps include data operations, such as join, filter, extraction, integration or alteration. To create and execute data mashups, modelers need to have technical knowledge in order to understand these data operations. In order to solve this issue, an extended data mashup approach was created - FlexMash developed at the University of Stuttgart - which allows users to define data mashups without technical knowledge about any execution details. Consquently, modelers with no or limited technical knowledge can design their own domain-specific mashup based on their use case scenarios. However, designing data mashups graphically is still difficult for non-IT users. When users design a model graphically, it is hard to understand which patterns or nodes should be modeled and connected in the data flow graph. In order to cope with this issue, this master thesis aims to provide users modeling recommendations during modeling time. At each modeling step, user can query for recommendations. The recommendations are generated by analyzing the existing models. To generate the recommendations from existing models, association rule mining algorithms are used in this thesis. If users accept a recommendation, the recommended node is automatically added to the partial model and connected with the node for which recommendations were given.Item Open Access Vision assisted biasing for robot manipulation planning(2018) Puang, En YenSampling efficiency has been one of the major bottlenecks of sampling-based motion planner. Although being more reliable in complex environments, Rapidly-exploring Random Tree for example often requires longer planning time than its optimisation-based counterpart. Recent developments have introduced numerous methods to bias sampling in configuration-space. Gaussian mixture model, in particular, was proposed to estimate feasible regions in configuration-space for low-variance task. Unfortunately this method does not adapt its biases according to individual planning scene during inference. Therefore, this work proposes vision assisted biasing to adapt biases by changing the weights of Gaussian components upon query. It uses autoencoder to extract features directly from depth image, and the resulted latent code is then used for either nearest neighbours search or direct weights prediction. With a modified pipeline, these extensions show improvements on not only the sampling efficiency but also path optimality of simple motion planner.Item Open Access Orthogonale Dünngitter-Teilraumzerlegungen(2018) Schreiber, ConstantinIn der Simulation treten Häufg hochdimensionale partielle Differentialgleichungen auf. Das Lösen dieser wird für volle Gitter sehr schnell zu teuer. In dieser Arbeit wird ein Verfahren für das Lösen partieller Differentialgleichungen mit Hilfe von Dünnen Gittern, welche für mehrdimensionale Probleme besser skalieren, sowie dessen Implementierung in das Programmpaket SG++ vorgestellt. Durch Funktionsdarstellung in einem Erzeugendensystem wird die Verwendung einer L2-orthogonalen Teilraumzerlegung ermöglicht. Projektionsoperatoren ersetzen hierbei die explizite Transformation in eine Prewavelet-Basis. Diese Zerlegung erlaubt das Lumping der Steifgkeitsmatrix, also das Weglassen von großen Blöcken der Matrix. Hiermit wird ein Algorithmus zur Matrixmultiplikation, welcher dem von Schwab und Todor ähnelt implementiert. Dieser wird in einem konjugierten Gradienten-Verfahren verwendet und auch auf krummberandete Gebieten angewendet. Des Weiteren wird die Teilraumzerlegung durch L2-Projektion mit anderen Zerlegungen in Bezug auf Laufzeit und Fehlerentwicklung verglichen.Item Open Access Speech interface for human and robot collaboration(2018) Kashif, Moin UddinIn the past, robots and machines were mostly designed to perform specific tasks without much human interaction needed. Nowadays with the advancements in technology, intelligent robots can be designed which can perform multiple tasks, interact with the surrounding environment, assist and give valuable suggestions to humans etc. so an efficient and natural mode of communication is required for this human-robot interaction. In this thesis, we proposed an architecture to develop a speech interface for human-robot interaction. The speech interface is used to give voice commands to the robot, PR2, in order to perform 5 tasks which are designed to test the performance of the speech interface. The tasks are sorting, shaping, stacking, building and balancing of 6 objects on table-top which are designed and ordered by the level of difficulty. First two tasks are comparatively easier as the user doesn't have to follow any order to finish them, next two tasks require to follow the order and in the last task, the stack of objects must be balanced in order to finish it. The speech interface receives voice commands from the user, convert them into text, maps to the corresponding command and send to the task manager to perform the operation. After that, it processes the received command, takes the appropriate decision based on the current status of the task and available actions and sends the command to the PR2 to perform the operation. Additionally, we have designed a feedback mechanism where PR2 sends back the feedback to the task manager which is delivered back to the speech manager so that it can be converted into an audio signal and play for the user. Furthermore, the system uses a TCP connection for the exchange of data and information between the speech manager and the task manager. The speech interface is also compared with other modalities such as text input and graphical user interface with the same tasks and we have also conducted user study to evaluate the system performance. The results show that the participants prefer speech interface as it feels more natural.Item Open Access Vergleich und Analyse geläufiger CEP Systeme(2018) Göggel, JonathanHeutzutage werden komplexe Anfragen in Echtzeit auf großen Datenmengen ausgeführt. Immer mehr Daten fallen an und das Interesse diese in Echtzeit zu analysieren steigt. Die Performance eines Systems ist ein enorm wichtiger Faktor. Momentan setzen besonders große Firmen wie Google, Amazon und Netflix CEP-Systeme ein, um effizient Nutzerdaten zu analysieren und dem Anwender daraufhin Empfehlungen vorzuschlagen. Die aktuell verfügbaren CEP-Frameworks verhalten sich jeweils unterschiedlich und haben unterschiedliche Ziele. Bisherige Auswertungen fokussieren sich nur auf jeweils ein Framework und optimieren dieses. In meiner Arbeit werden verschiedene Frameworks gegenübergestellt und untersucht, wie flexibel sie angesteuert werden können und inwieweit sie zur Laufzeit detaillierte statistische Werte liefern können. Des Weiteren wird eine API entworfen, die ermöglicht verschiedene CEP Frameworks anzusprechen und somit standardisiert den Parallelisierungsgrad und somit die Performance eines CEP-Systems zu verbessern. Durch die Standardisierung ist es auch möglich die Performance bei CEP-Systemen mit mehrere CEP-Frameworks zu regeln. Im ersten Teil der Ausarbeitung werden verschiedene Frameworks verglichen und untersucht inwieweit sich diese für eine zentrale Ansteuerung eignen. Im zweiten Teil wird ein Interface definiert und zum Evaluieren beispielhaft ein Adapter für ein CEP-Framework erstellt.Item Open Access Deep reinforcement learning for high-level behavior decision making(2018) Dittrich, FlorianAs the vision of fully autonomous vehicles potentially introduces significant benefits for our society, this work investigates approaches for sequential decision making for high-level actions in highway scenarios. These scenarios are modeled using an markov decision process (MDP) and consider deep reinforcement learning to solve it. Our approach, based on deep Q-networks (DQNs), is able to fully avoid collisions and learns a policy that results in comfortable trajectories compared to baseline policies we developed. One of the main challenges for reinforcement learning are sparse rewards, which we aim to overcome employing reward shaping. Additionally, the necessity of multiple layers of non-liniearities in the DQN algorithm is empirically evaluated using our scenarios. The results support the usage of multiple levels of non-linearities, as a linear variant of the DQN is not capable of learning effective policies in our experiments. Due to a weight initialization with behavioral cloning, an acceleration of the learning procedure is achieved.Item Open Access Octo-Tiger: Binary star systems with HPX on Nvidia P100(2018) Daiß, GregorStellar mergers between two suns are a significant field of study since they can lead to astrophysical phenomena such as type Ia supernovae. Octo-Tiger simulates merging stars by computing self-gravitating astrophysical fluids. By relying on the high-level library HPX for parallelization and Vc for vectorization, Octo-Tiger combines high performance with ease of development. For accurate simulations, Octo-Tiger requires massive computational resources. To improve hardware utilization, we introduce a stencil-based approach for computing the gravitational field using the fast multipole method. This approach was tailored for machines with wide vector units like Intel's Knights Landing or modern GPUs. Our implementation targets AVX512 enabled processors and is backward compatible with older vector extensions (AVX2, AVX, SSE). We further extended our approach to make use of available NVIDIA GPUs as coprocessors. We developed a tasking system that processes critical compute kernels on the GPU or the processor, depending on their utilization. Using the stencil-based fast multipole method, we gain a consistent speedup on all platforms, over the classical interaction-list-based implementation. On an Intel Xeon Phi 7210, we achieve a speedup of 1.9x. On a heterogeneous node with an Intel Xeon E5-2690 v3, we can obtain a speedup of 1.46x by adding an NVIDIA P100 GPU.Item Open Access Realisierung von umfassenden Analysetechniken in einer hybriden Datenverarbeitungsarchitektur(2018) Schmidt, SimoneEs gibt heutzutage viele Bereiche, in denen große Mengen an Daten anfallen, wie zum Beispiel in der Industrie 4.0, bei eHealth und bei Überwachung und Regelung des öffentlichen Personennahverkehrs (ÖPNVs). Um möglichst viele vorteilhafte Informationen aus den Daten zu gewinnen, werden umfassende Analysen benötigt, die nicht nur historische, sondern auch Echtzeitdaten berücksichtigen und die Analyseergebnisse in Echtzeit anwenden können. Es gibt hybride Architekturen, welche die Analyse beider Arten von Daten durch die Nutzung von Stream- und Batchverarbeitung unterstützen. Eine solche Architektur ist Hybrid Processing Architecture for Big Data (BRAID), wobei BRAID zusätzlich die Zusammenarbeit zwischen Batch und Stream ermöglicht. Diese Arbeit untersucht, inwiefern BRAID für die Umsetzung solcher umfassender Analysen geeignet ist. Hierfür wird ein Anwendungsfall aus dem Bereich des ÖPNV entwickelt, welcher umfassende Analysen benötigt, und es werden Anforderungen abgeleitet, welche ein System erfüllen muss, um dem Anwendungsfall gerecht zu werden. Beispiele aus der Literatur werden untersucht. Dabei zeigt sich, dass die Anforderungen von bestehenden Systemen noch nicht voll erfüllt werden können. Unter Nutzung der Architektur BRAID wird ein System entwickelt, welches die Anforderungen erfüllt. Es werden verschiedene Machine Learning (ML)-Verfahren und Frameworks, welche für solch ein System genutzt werden können, diskutiert, untereinander verglichen und evaluiert. Das geeignetste wird jeweils für die Umsetzung ausgewählt und das System wird prototypisch implementiert. Das entwickelte System wird gegen die Anforderungen evaluiert, wobei sich zeigt, dass das System alle Anforderungen erfüllen kann. Insgesamt zeigt sich hierdurch, dass BRAID zur Umsetzung eines Systems für umfassende Analysen geeignet ist.Item Open Access Policy4TDLIoT - Policys für die Topic Description Language(2018) Lehmann, SimonIm Paradigma Internet of Things (IoT), im deutschen Internet der Dinge, werden heterogene Geräte über das Internet vernetzt. Diese Geräte enthalten Sensoren und Aktuatoren, um Daten aus ihrer Umgebung zu erfassen und in die Umwelt einzugreifen. Dies ermöglicht die Umsetzung von innovativen Systemen wie Smart Home, Smart City oder Smart Factory. Die Heterogenität der Geräte erschwert es Standardisierungen und einheitliche Metriken zu definieren. Gleichzeitig steigt die Anzahl an vernetzten Geräten und dieses Wachstum wird sich in den kommenden Jahren fortsetzen. Für diese beiden Probleme wurde die Topic Description Language für die IoT (TDLIoT) entwickelt. Topics sind Schnittstellen zwischen Sensoren oder Aktuatoren und Endverbraucher. Sie publizieren die Daten, anhand verschiedener Protokolle (z.B. MQTT, REST) an alle Verbraucher die sich bei ihnen registriert haben. Die TDLIoT ermöglicht es ein Topic mit mehreren Attributen zu beschreiben. Zudem bietet sie ein Katalog an, in dem alle Topic Beschreibungen gesammelt sind und durch Such- und Filterfunktionalitäten gefunden werden können. Die bisherige TDLIoT beinhaltet lediglich die Beschreibung von funktionalen Anforderungen, wie z.B. Datenformat, Datentyp, Zugriffspfad oder Standort. Das Ziel dieser Arbeit ist es der TDLIoT nichtfunktionale Anforderungen hinzuzufügen, um Topics genauer beschreiben zu können und dem Katalog weitere Filtermöglichkeiten zu bieten. Der Ansatz orientiert sich an WS-Policys der WSDL. Des Weiteren wird die Struktur der TDLIoT durch neue Komponenten und Rollen erweitert. Diese ermöglichen es Policys übersichtlich für die Erstellung eines Topics darzustellen und bieten eine Kontrollstruktur die neue Policys anhand der Anforderungen der TDLIoT überprüft, damit eine hohe Qualität der Policys gewährleistet werden kann. Ein Anbieter eines Topics kann beliebig viele Policys uneingeschränkt definieren. Dadurch können falsche Angaben in den Policys definiert werden. Um dem Nutzer eines Topics eine Sicherheit über den Wahrheitsgehalt eines Topics zu liefern wird es Verifikationen zur Überprüfung der Policy geben. Die Ergebnisse dieser Verifikationen geben jedem Nutzer Rückmeldung, ob das Topic die Angaben aus seinen Policys einhält.Item Open Access Generic templates for monitoring agents(2018) Weise, MarcThis thesis presents an agent-centric approach for monitoring IT resources, which enables the execution of preprocessing and aggregation steps directly on the target systems in order to limit data transfers to a central server and allow a local event detection and treatment. To keep the agent behavior definition as simple as possible, an extendable template model is introduced which can be used to define Monitoring Pipelines by chaining individual processing steps. Furthermore this work demonstrates how a graphical editor can be implemented which also allows non-experts in the field of monitoring to create and modify Monitoring Templates.