05 Fakultät Informatik, Elektrotechnik und Informationstechnik
Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/6
Browse
Search Results
Item Open Access Interaktive und inkrementelle Visualisierung im Kontext von Big Data(2017) Ast, BirgitStetig wachsende Datenmengen eröffnen Datenanalysten viele neue Chancen zur Gewinnung bislang unbekannten Wissens. Allerdings stellen sie Mensch und Technik auch vor neue Herausforderungen. Auf Grund der Größe der Datenmengen werden Analysen zu langwierigen, unflexiblen Prozessen. Ein Ansatz, um dem entgegenzuwirken, sind inkrementelle Verfahren. Dabei werden während des Analyseprozesses nach und nach Zwischenergebnisse generiert, welche sich letztlich dem Endergebnis annähern. Bei einer inkrementellen, visuellen Datenanalyse können anhand der Entwicklung der Teilergebnisse früh Schlussfolgerungen im Hinblick auf die Gesamtmenge gezogen und entsprechend schnell reagiert werden. Für eine zielführende inkrementelle Analyse ist es wichtig, repräsentative Teilergebnisse zu erhalten sowie deren Aussagekraft richtig einschätzen zu können. Auch eine aktive Einbindung des Analysten in den Visualisierungsprozess ist von Bedeutung. In der vorliegenden Arbeit wird ein Konzept für eine interaktive Webanwendung zur inkrementellen, visuellen Datenanalyse entwickelt. Die Notwendigkeit der genannten Anforderungen wird erläutert und Möglichkeiten zur praktischen Umsetzung beschrieben. Basierend darauf wird ein Prototyp entwickelt, welcher dieses Konzept realisiert.Item Open Access Subspace-optimal data mining on spatially adaptive sparse grids(2017) Luz, MaximilianContinued improvements in technology lead to an ever-growing amount of data generated, for example, by scientific measurements and simulations. Data-mining is required to gain useful knowledge from this data, however, can be challenging especially due to the size and dimensionality of these problems. The use of regular grids for such applications is often limited by the curse of dimensionality, a phrase used to describe an exponential dependency of the computational complexity of a problem on the dimensionality of this problem. For many higher-dimensional problems, e.g. with 28 dimensions, regular grids cannot be used to compute results with the desired accuracy in a reasonable amount of time, even if the memory required to store and process them is available. With spatially adaptive sparse grids, this problem can be overcome, as they lessen the influence of the dimensionality on the size of the grid, furthermore, they have been successfully applied for many tasks, including regression on large data sets. However, the currently preferred and in practice highly performant streaming-algorithm for regression on spatially adaptive sparse grids employs many unnecessary operations to effectively utilize modern parallel computer architectures, such as graphics processing units (GPUs). In this thesis, we show that the implementation of a by computational complexity more promising subspace-linear algorithm on the GPU is able to out-perform the currently preferred streaming-algorithm on many scenarios, even though the this algorithm does not utilize modern architectures as well as the streaming-algorithm. Furthermore, we explore the construction of a new algorithm by combining both, streaming- and subspace-linear algorithm, which aims to process each subgrid of the grid with the algorithm deemed most efficient for its structure. We evaluated both of our algorithms against the highly optimized implementation of the streaming-algorithm provided in the SG++ framework, and could indeed show speed-ups for both algorithms, depending on the experiments.Item Open Access Einsatz von Machine-Learning-Methoden zur adaptiven Darstellung von Software-Metriken(2017) Hermann, MatthiasAuf manchen SonarQube-Instanzen wird die verfügbare Fläche der Webseite nicht effizient genutzt und große Teile der Seite enthalten Leerflächen. Damit diese Flächen genutzt werden können, um genau die Informationen darzustellen, weswegen der Benutzer die Webseite aufgerufen hat, wurde im Rahmen dieser Arbeit mit DeepSonar eine adaptive Benutzeroberfläche für die Codeanalyse-Plattform SonarQube entwickelt. Diese erlernt mittels Machine-Learning die für den aktuellen Benutzer und Nutzungskontext relevantesten Informationen, d. h. die aus einer Programmcodeanalyse resultierenden Software-Metriken. Anhand der Ergebnisse des Machine-Learnings wird die Weboberfläche von SonarQube angepasst, sodass diese Metriken in der davor ungenutzten Fläche auf der Startseite angezeigt werden.Item Open Access Scalable hypergraph partitioning(2017) Geppert, HeikoThe interest in graph partitioning has become quite huge due to growing problem sizes. Therefore more abstract solutions are desirable. In this thesis, hypergraph partitioning is investigated since hypergraphs provide a better level of abstraction than normal graphs. Further, restreaming approaches are examined because the partitioning results of real time strategies are often not satisfiable. It will be shown that they can perform up to 15\% better than real time approaches and can sometimes even hold up to polynomial approaches. By putting more thought into the restreaming, the partitioning results become even better. This is shown empirical when proposing Fractional Restreaming a novel "Partial Forgetting" strategy. Meanwhile, the additional runtime needed is negligible compared to polynomial strategies. Finally SHP, a novel graph partitioning and evaluation framework is introduced.Item Open Access Evaluierung und Implementierung einer Verwaltungsschale für Industrie 4.0 Komponenten(2017) Schierle, ChristianAufgrund der enormen Anforderungen an die Flexibilität im produzierenden Gewerbe, steht die Industrie vor neuen Herausforderungen. Möglichst viele Bereiche des Marktes sollen weitläufig bedient werden. Gleichzeitig steht die Umsetzung von Kundenwünschen in der Produktion stark im Vordergrund. Die Vision Industrie 4.0 greift die neuen Anforderungen auf und sucht nach Lösungen, um Wertschöpfungsketten entsprechend zu verbessern. Diese Arbeit liefert einen Einblick in das Themengebiet Industrie 4.0 und die dabei zentralen Technologien. Der Fokus liegt hierbei auf dem Begriff der Verwaltungsschalen. Es wird deren Potential als Datenschnittstelle zwischen physischen Objekten und der Informationswelt untersucht. Im Zuge dessen bietet diese Arbeit auch eine kurze Einführung in OPC Unified Architecture. Ziel der Arbeit ist es, einen Überblick über die Anforderungen im Zusammenhang mit Industrie 4.0, vorhandene Technologien und deren Möglichkeiten zu bieten. Dazu wird eine Beispielimplementierung für Verwaltungsschalen anhand einiger Anforderungen analysiert. Anschließend werden vorbereitende Schritte für die Umsetzung einer eigenen Implementierung erläutert. Diese soll unter einigen Vereinfachungen ebenfalls den Anforderungen entsprechen.Item Open Access Ein Testwerkzeug für das Internet der Dinge(2017) Krüger, DanielWegen der stetig fallenden Preise für Hardware sind in der heutigen Zeit immer mehr Geräte miteinander vernetzt. Dabei kommunizieren Sensoren, Aktoren und Steuergeräte miteinander. Diesen Wandel nennt man das Internet der Dinge (IoT). Ein Ziel des Internet der Dinge ist es, Situationen automatisch zu erkennen und zu steuern. Dies kann durch sogenannte Complex Event Processing (CEP)-Systemen ermöglicht werden. Diese lesen Datenströme ein und erkennen vorher definierte Muster, die Situationen. Das Testen von IoT-Umgebungen ist jedoch teuer, da Hardware beschafft werden muss. Deswegen ist die Simulation von IoT-Umgebungen erstrebenswert. In dieser Arbeit wird ein web-basiertes Werkzeug vorgestellt, welches die Simulation von Sensoren ermöglicht. Es ist möglich, mehrere Sensoren mit unterschiedlichen Datentypen, Startwerten und Abweichungen zu simulieren. Ein weiteres, im Rahmen dieser Arbeit behandeltes, Problem ist, dass noch keine Benchmarks für CEP-Systeme existieren. Für darauf aufbauende Arbeiten wird hier untersucht, wie eine Datengenerierung für solche Benchmarks umgesetzt werden kann und welche Anforderungen an die Benchmarks gestellt werden.Item Open Access Qualitätsanalyse von Studienprojekten anhand von Quellcode-Repositories(2017) Kersjes, BenediktAn vielen Hochschulen werden studentische Softwareentwicklungsprojekte als Teil der akademischen Ausbildung in Studiengängen wie Informatik oder Softwaretechnik durchgeführt. Auch an der Universität Stuttgart und insbesondere am Fraunhofer IAO werden im Bachelorstudiengang Softwaretechnik Studienprojekte durchgeführt. Da das Institut die Studienprojekte als Grundlage ihrer weiteren Forschungstätigkeit verwendet, besteht ein Interesse, dass in den Projekten qualitativ hochwertige Software entsteht. In dieser Arbeit wurde die Qualität von sechs Studienprojekten anhand ihres Quellcodes analysiert, die in den letzten Jahren am Fraunhofer IAO durchgeführt wurden. Darüber hinaus wurde eine Analyse der Repositories durchgeführt und eine Befragung der Betreuer vorgenommen, um mögliche Einflussfaktoren auf die Qualität der Projekte zu ermitteln. Hierzu wurde ein Werkzeug entwickelt, das die Analyse automatisiert durchführt und verwendet werden kann, um zukünftige Projekte am Institut nach der gleichen Methodik auszuwerten. Die Analysen ergaben, dass die gleichmäßige Verteilung der Arbeit über das Projekt, die Teilnehmerzahl, die Qualifikation der Betreuer und die Verwendung von Drittanbieter-Bibliotheken einen hohen Einfluss auf die Qualität der untersuchten Projekte hatten. Aus diesen Erkenntnissen wurden Handlungsempfehlungen für die Betreuung und Durchführung zukünftiger Studienprojekte am Fraunhofer IAO abgeleitet.Item Open Access Transformation of TOSCA to natural language texts(2017) Radic, MarcoCloud computing changes the way businesses plan, use and manage their IT systems and resources. Different cloud providers offer distinctive interfaces for the deployment and management of applications in their respective cloud environments. The organization OASIS addresses these circumstances with the Topology and Orchestration Specification for Cloud Applications (TOSCA). This standard offers a language to express applications as directed graphs and their management behavior in a standardized and vendor-independent manner. In numerous roles in the development, a textual description of the application, its entities and their relationships, for instance to serve as textual documentation, is of use. The TOSCA standard places no restriction on the complexity of a topology graph. Therefore, a textual representation of the graph can also get arbitrarily large and complex. Additionally, every change has to be reflected in the documentation accordingly. Consequently, an automated approach to the generation of such textual representations is preferable. This work describes a concept for the automated generation of textual descriptions of TOSCA topology graphs. This is accomplished by combining typical tasks from natural language generation with domain-specific information in order to generate appropriate textual descriptions. The concept is implemented in a prototype and validated in a use-case scenario.Item Open Access Vergleich von Augenbewegungen mit multiplem Sequenzalignment und einer Consensus Matrix(2017) Kleinhans, NiklasAugenbewegungen können durch Koordinatenpunkte und deren Verbindung im Raum als eine Abfolge von Fixationspunkten modelliert werden. Die Analyse dieser raum-zeitlichen Daten ist eine Herausforderung. Weit entwickelte Systeme werden nicht nur präziser, sondern auch immer kompakter. Somit können künftig auch Daten über mobile Endgeräte gesammelt werden, wodurch das Spektrum der zu analysierenden Daten stetig erweitert wird. Diese Vielzahl an Daten gilt es zu verarbeiten. Insbesondere beim analysieren von Daten mehrerer Teilnehmer wird enorme Rechenleistung benötigt und fordert auch die Weiterentwicklung unterschiedlicher Analyseverfahren. Um diese Daten analysieren zu können, bilden Eye-Tracking Metriken eine Grundlage für die Reduzierung der Komplexität der Daten. In dieser Arbeit soll ein Verfahren vorgestellt werden, welches es ermöglicht, die aufgezeichneten Daten von mehreren Personen zu vergleichen. Dabei werden die aufgezeichneten Daten durch Metrikenwerte zu Sequenzen transformiert und anschließend verglichen. Ähnlich wie bei DNA-Sequenzen in der Bioinformatik, wird hierbei ein multipler Sequenzalignment Algorithmus verwendet. Außerdem wird ein Webinterface entwickelt das es ermöglicht die Daten zu vergleichen und anschließend durch eine Consenus Matrix visualisiert.Item Open Access Choreographiesprachen mit Datenmodellierungsfähigkeiten : eine Übersicht(2017) Lässig, NicoIn organisationsübergreifenden Geschäftsprozessen ist die Kommunikation zwischen den teilhabenden Diensten von zentraler Bedeutung. Choreographiesprachen liefern eine globale Sichtweise auf das Zusammenwirken der verschiedenen Dienste in solchen Geschäftsprozessen und legen den Fokus eben auf diese Kommunikation. Für die Modellierung von Choreographien existieren bereits eine Vielzahl an Sprachen, die jedoch aufgrund der unterschiedlichen Anforderungen oft unterschiedliche Modellierungskonstrukte und Eigenschaften haben. In dieser Arbeit sollen die existierenden Sprachen gefunden und im Anschluss miteinander verglichen und analysiert werden. Dafür werden Kriterien definiert, welche Choreographiesprachen erfüllen sollten. Es wird dabei besonders auf Datenmodellierungsaspekte eingegangen, da der Austausch von Daten ein wichtiger Faktor für die Interaktionen zwischen den verschiedenen Diensten ist.