05 Fakultät Informatik, Elektrotechnik und Informationstechnik
Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/6
Browse
139 results
Search Results
Item Open Access Interaktive und inkrementelle Visualisierung im Kontext von Big Data(2017) Ast, BirgitStetig wachsende Datenmengen eröffnen Datenanalysten viele neue Chancen zur Gewinnung bislang unbekannten Wissens. Allerdings stellen sie Mensch und Technik auch vor neue Herausforderungen. Auf Grund der Größe der Datenmengen werden Analysen zu langwierigen, unflexiblen Prozessen. Ein Ansatz, um dem entgegenzuwirken, sind inkrementelle Verfahren. Dabei werden während des Analyseprozesses nach und nach Zwischenergebnisse generiert, welche sich letztlich dem Endergebnis annähern. Bei einer inkrementellen, visuellen Datenanalyse können anhand der Entwicklung der Teilergebnisse früh Schlussfolgerungen im Hinblick auf die Gesamtmenge gezogen und entsprechend schnell reagiert werden. Für eine zielführende inkrementelle Analyse ist es wichtig, repräsentative Teilergebnisse zu erhalten sowie deren Aussagekraft richtig einschätzen zu können. Auch eine aktive Einbindung des Analysten in den Visualisierungsprozess ist von Bedeutung. In der vorliegenden Arbeit wird ein Konzept für eine interaktive Webanwendung zur inkrementellen, visuellen Datenanalyse entwickelt. Die Notwendigkeit der genannten Anforderungen wird erläutert und Möglichkeiten zur praktischen Umsetzung beschrieben. Basierend darauf wird ein Prototyp entwickelt, welcher dieses Konzept realisiert.Item Open Access Privatheit im Gesundheitsspiel Candy Castle(2016) Giebler, CorinnaDie zunehmende Verwendung elektronischer Endgeräte stellt die heutige Gesellschaft vor das große Problem der Datenprivatheit. Die digitalen Helfer verwalten verschiedenste persönliche Daten, auf die wiederum eine Vielzahl von Anwendungen Zugriff hat. Selten ist es dem Benutzer möglich, direkten Einfluss oder auch nur Einblick in die Verwendung seiner Daten zu erlangen. Besonders in der Kritik stehen hierbei mobile Plattformen, wie Smartphones oder Tablets. Die Applikationen, oder kurz Apps, für diese Plattformen verfügen nur selten über Datenschutzerklärungen oder Maßnahmen zum Datenschutz. Auch ist es auf bestimmten Betriebssystemen nicht möglich, die Berechtigungen einer App einzuschränken. Dabei werden gerade diese mobilen Endgeräte mehr und mehr zur Verwaltung sensibler Daten verwendet. Hierzu gehören inzwischen auch medizinische Daten, die mithilfe diverser Gesundheits-Apps aufgezeichnet und verarbeitet werden können. Da es sich bei diesen medizinischen Werten um sehr private Daten handelt, sind diese besonders schützenswert. Zudem sollte der Nutzer einer solchen Gesundheits-App stets wissen, was mit seinen Daten geschieht und die Kontrolle über ihre Verwendung innehaben. In dieser Arbeit soll darum erörtert werden, wie sich die persönlichen Daten mithilfe eines Berechtigungssystems schützen lassen. Zunächst wird hierfür ein Anforderungskatalog ermittelt, der neben Anforderungen an Funktionalität und Bedienbarkeit auch Forderungen an Privatheit und Nutzerbestimmung stellt. Mithilfe dieses Katalogs wird anschließend ein Gesundheitsspiel für Kinder mit Diabetes weiterentwickelt und um Privatheitsaspekte erweitert. So entsteht ein Prototyp für ein Spiel, dessen Privatheitsgrad vom Benutzer einstellbar ist. Zuletzt wird gezeigt werden, dass die zuvor gestellten Anforderungen erfüllt sind und dass verarbeitete Daten auch vor unerlaubtem Zugriff geschützt werden können.Item Open Access Control-plane consistency in software-defined networking: distributed controller synchronization using the ISIS² toolkit(2015) Strauß, JanSoftware-defined Networking (SDN) is a recent approach in computer networks to ease the network administration by separating the control-plane and the data-plane. The data-plane only forwards packets according to certain rules specified by the control-plane. The control-plane, implemented by a software called controller, determines the forwarding rules based on a global view of the network. In order to increase fault tolerance and to eliminate a possible performance bottleneck, the controller can be distributed. The synchronization of the data that holds the global view is conventionally realized using distributed key-value stores offering a fixed consistency semantic, not respecting the heterogeneous consistency requirements of the data items in controller state. The virtual synchrony model, an alternative approach to the commonly used state machine replication method, offers a more flexible solution that can result in higher performance when certain assumptions on the data kept in controller state can be made. In this thesis a distributed controller based on OpenDaylight, a state-of-the-art SDN controller and the ISIS² library, that implements the virtual synchrony model, is proposed. The modular architecture of the proposed controller and the usage of a platform independent data model allows to extend or replace parts of the system. The implementation of the distributed controller is described and the macro and micro performance is evaluated with benchmarks.Item Open Access Subspace-optimal data mining on spatially adaptive sparse grids(2017) Luz, MaximilianContinued improvements in technology lead to an ever-growing amount of data generated, for example, by scientific measurements and simulations. Data-mining is required to gain useful knowledge from this data, however, can be challenging especially due to the size and dimensionality of these problems. The use of regular grids for such applications is often limited by the curse of dimensionality, a phrase used to describe an exponential dependency of the computational complexity of a problem on the dimensionality of this problem. For many higher-dimensional problems, e.g. with 28 dimensions, regular grids cannot be used to compute results with the desired accuracy in a reasonable amount of time, even if the memory required to store and process them is available. With spatially adaptive sparse grids, this problem can be overcome, as they lessen the influence of the dimensionality on the size of the grid, furthermore, they have been successfully applied for many tasks, including regression on large data sets. However, the currently preferred and in practice highly performant streaming-algorithm for regression on spatially adaptive sparse grids employs many unnecessary operations to effectively utilize modern parallel computer architectures, such as graphics processing units (GPUs). In this thesis, we show that the implementation of a by computational complexity more promising subspace-linear algorithm on the GPU is able to out-perform the currently preferred streaming-algorithm on many scenarios, even though the this algorithm does not utilize modern architectures as well as the streaming-algorithm. Furthermore, we explore the construction of a new algorithm by combining both, streaming- and subspace-linear algorithm, which aims to process each subgrid of the grid with the algorithm deemed most efficient for its structure. We evaluated both of our algorithms against the highly optimized implementation of the streaming-algorithm provided in the SG++ framework, and could indeed show speed-ups for both algorithms, depending on the experiments.Item Open Access Scalable hypergraph partitioning(2017) Geppert, HeikoThe interest in graph partitioning has become quite huge due to growing problem sizes. Therefore more abstract solutions are desirable. In this thesis, hypergraph partitioning is investigated since hypergraphs provide a better level of abstraction than normal graphs. Further, restreaming approaches are examined because the partitioning results of real time strategies are often not satisfiable. It will be shown that they can perform up to 15\% better than real time approaches and can sometimes even hold up to polynomial approaches. By putting more thought into the restreaming, the partitioning results become even better. This is shown empirical when proposing Fractional Restreaming a novel "Partial Forgetting" strategy. Meanwhile, the additional runtime needed is negligible compared to polynomial strategies. Finally SHP, a novel graph partitioning and evaluation framework is introduced.Item Open Access Evaluierung und Implementierung einer Verwaltungsschale für Industrie 4.0 Komponenten(2017) Schierle, ChristianAufgrund der enormen Anforderungen an die Flexibilität im produzierenden Gewerbe, steht die Industrie vor neuen Herausforderungen. Möglichst viele Bereiche des Marktes sollen weitläufig bedient werden. Gleichzeitig steht die Umsetzung von Kundenwünschen in der Produktion stark im Vordergrund. Die Vision Industrie 4.0 greift die neuen Anforderungen auf und sucht nach Lösungen, um Wertschöpfungsketten entsprechend zu verbessern. Diese Arbeit liefert einen Einblick in das Themengebiet Industrie 4.0 und die dabei zentralen Technologien. Der Fokus liegt hierbei auf dem Begriff der Verwaltungsschalen. Es wird deren Potential als Datenschnittstelle zwischen physischen Objekten und der Informationswelt untersucht. Im Zuge dessen bietet diese Arbeit auch eine kurze Einführung in OPC Unified Architecture. Ziel der Arbeit ist es, einen Überblick über die Anforderungen im Zusammenhang mit Industrie 4.0, vorhandene Technologien und deren Möglichkeiten zu bieten. Dazu wird eine Beispielimplementierung für Verwaltungsschalen anhand einiger Anforderungen analysiert. Anschließend werden vorbereitende Schritte für die Umsetzung einer eigenen Implementierung erläutert. Diese soll unter einigen Vereinfachungen ebenfalls den Anforderungen entsprechen.Item Open Access Ein Testwerkzeug für das Internet der Dinge(2017) Krüger, DanielWegen der stetig fallenden Preise für Hardware sind in der heutigen Zeit immer mehr Geräte miteinander vernetzt. Dabei kommunizieren Sensoren, Aktoren und Steuergeräte miteinander. Diesen Wandel nennt man das Internet der Dinge (IoT). Ein Ziel des Internet der Dinge ist es, Situationen automatisch zu erkennen und zu steuern. Dies kann durch sogenannte Complex Event Processing (CEP)-Systemen ermöglicht werden. Diese lesen Datenströme ein und erkennen vorher definierte Muster, die Situationen. Das Testen von IoT-Umgebungen ist jedoch teuer, da Hardware beschafft werden muss. Deswegen ist die Simulation von IoT-Umgebungen erstrebenswert. In dieser Arbeit wird ein web-basiertes Werkzeug vorgestellt, welches die Simulation von Sensoren ermöglicht. Es ist möglich, mehrere Sensoren mit unterschiedlichen Datentypen, Startwerten und Abweichungen zu simulieren. Ein weiteres, im Rahmen dieser Arbeit behandeltes, Problem ist, dass noch keine Benchmarks für CEP-Systeme existieren. Für darauf aufbauende Arbeiten wird hier untersucht, wie eine Datengenerierung für solche Benchmarks umgesetzt werden kann und welche Anforderungen an die Benchmarks gestellt werden.Item Open Access Regularizing gradient properties on deep neural networks(2016) Wallkötter, SebastianThis bachelor thesis presents a novel approach to training deep neural networks. While back propagating on these deep architectures, it is often found that the gradient vanishes. Further, layers with logistic activation functions will saturate from top to bottom, which is slowing down convergence as the gradient can't propagate well past these saturated layers. Both observations awaken the wish to have the ability to regularize the gradient and directly force its properties. This thesis enables such regularization by modifying the network's cost function. Such changes modify the classic back propagation equations and therefore, the new extended back propagation equations are computed. Finally, two methods of regularization and their combination are presented and tested on a binary and a multi-class (MNIST) classification problem to show the benefits of training with these methods. A result of this thesis is the finding that this setup massively improves training on logistic networks, on the one hand enabling otherwise impossible classification in the multi-class case, while on the other speeding up training on a single class.Item Open Access Vergleich und Analyse geläufiger CEP Systeme(2018) Göggel, JonathanHeutzutage werden komplexe Anfragen in Echtzeit auf großen Datenmengen ausgeführt. Immer mehr Daten fallen an und das Interesse diese in Echtzeit zu analysieren steigt. Die Performance eines Systems ist ein enorm wichtiger Faktor. Momentan setzen besonders große Firmen wie Google, Amazon und Netflix CEP-Systeme ein, um effizient Nutzerdaten zu analysieren und dem Anwender daraufhin Empfehlungen vorzuschlagen. Die aktuell verfügbaren CEP-Frameworks verhalten sich jeweils unterschiedlich und haben unterschiedliche Ziele. Bisherige Auswertungen fokussieren sich nur auf jeweils ein Framework und optimieren dieses. In meiner Arbeit werden verschiedene Frameworks gegenübergestellt und untersucht, wie flexibel sie angesteuert werden können und inwieweit sie zur Laufzeit detaillierte statistische Werte liefern können. Des Weiteren wird eine API entworfen, die ermöglicht verschiedene CEP Frameworks anzusprechen und somit standardisiert den Parallelisierungsgrad und somit die Performance eines CEP-Systems zu verbessern. Durch die Standardisierung ist es auch möglich die Performance bei CEP-Systemen mit mehrere CEP-Frameworks zu regeln. Im ersten Teil der Ausarbeitung werden verschiedene Frameworks verglichen und untersucht inwieweit sich diese für eine zentrale Ansteuerung eignen. Im zweiten Teil wird ein Interface definiert und zum Evaluieren beispielhaft ein Adapter für ein CEP-Framework erstellt.Item Open Access Distributed graph partitioning for large-scale graph analytics(2016) Rieger, LukasThrough constant technical progress the amount of available data about almost anything is growing steadily. Since hardware has become very cheap in the last decades, it is also possible to store and process huge amounts of data. Moreover companies like Google have sprung up that generate a large part of their revenues by extracting valuable information from collected data. A common approach to compute large inputs efficiently is to use a distributed system and concurrent algorithms. Therefore it is necessary to distribute the data to be processed intelligently among the cores or machines. Thereby the distribution of the input has strong effects on the efficiency of algorithms processing it. Furthermore data which can be represented as graph is ubiquitous, Facebook and the world wide web are well known examples of it. In this case, graph partitioning algorithms are used to distribute the input data in the best possible way. Since graph partitioning is a NP-hard problem, heuristic methods have to be used to keep execution time within reasonable bounds. This thesis presents and analyses a divide-and-conquer based framework for graph partitioning which aims to approximate linear runtime with better partitioning results than linear time algorithms.