05 Fakultät Informatik, Elektrotechnik und Informationstechnik

Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/6

Browse

Search Results

Now showing 1 - 10 of 248
  • Thumbnail Image
    ItemOpen Access
    Interaktive und inkrementelle Visualisierung im Kontext von Big Data
    (2017) Ast, Birgit
    Stetig wachsende Datenmengen eröffnen Datenanalysten viele neue Chancen zur Gewinnung bislang unbekannten Wissens. Allerdings stellen sie Mensch und Technik auch vor neue Herausforderungen. Auf Grund der Größe der Datenmengen werden Analysen zu langwierigen, unflexiblen Prozessen. Ein Ansatz, um dem entgegenzuwirken, sind inkrementelle Verfahren. Dabei werden während des Analyseprozesses nach und nach Zwischenergebnisse generiert, welche sich letztlich dem Endergebnis annähern. Bei einer inkrementellen, visuellen Datenanalyse können anhand der Entwicklung der Teilergebnisse früh Schlussfolgerungen im Hinblick auf die Gesamtmenge gezogen und entsprechend schnell reagiert werden. Für eine zielführende inkrementelle Analyse ist es wichtig, repräsentative Teilergebnisse zu erhalten sowie deren Aussagekraft richtig einschätzen zu können. Auch eine aktive Einbindung des Analysten in den Visualisierungsprozess ist von Bedeutung. In der vorliegenden Arbeit wird ein Konzept für eine interaktive Webanwendung zur inkrementellen, visuellen Datenanalyse entwickelt. Die Notwendigkeit der genannten Anforderungen wird erläutert und Möglichkeiten zur praktischen Umsetzung beschrieben. Basierend darauf wird ein Prototyp entwickelt, welcher dieses Konzept realisiert.
  • Thumbnail Image
    ItemOpen Access
    Privatheit im Gesundheitsspiel Candy Castle
    (2016) Giebler, Corinna
    Die zunehmende Verwendung elektronischer Endgeräte stellt die heutige Gesellschaft vor das große Problem der Datenprivatheit. Die digitalen Helfer verwalten verschiedenste persönliche Daten, auf die wiederum eine Vielzahl von Anwendungen Zugriff hat. Selten ist es dem Benutzer möglich, direkten Einfluss oder auch nur Einblick in die Verwendung seiner Daten zu erlangen. Besonders in der Kritik stehen hierbei mobile Plattformen, wie Smartphones oder Tablets. Die Applikationen, oder kurz Apps, für diese Plattformen verfügen nur selten über Datenschutzerklärungen oder Maßnahmen zum Datenschutz. Auch ist es auf bestimmten Betriebssystemen nicht möglich, die Berechtigungen einer App einzuschränken. Dabei werden gerade diese mobilen Endgeräte mehr und mehr zur Verwaltung sensibler Daten verwendet. Hierzu gehören inzwischen auch medizinische Daten, die mithilfe diverser Gesundheits-Apps aufgezeichnet und verarbeitet werden können. Da es sich bei diesen medizinischen Werten um sehr private Daten handelt, sind diese besonders schützenswert. Zudem sollte der Nutzer einer solchen Gesundheits-App stets wissen, was mit seinen Daten geschieht und die Kontrolle über ihre Verwendung innehaben. In dieser Arbeit soll darum erörtert werden, wie sich die persönlichen Daten mithilfe eines Berechtigungssystems schützen lassen. Zunächst wird hierfür ein Anforderungskatalog ermittelt, der neben Anforderungen an Funktionalität und Bedienbarkeit auch Forderungen an Privatheit und Nutzerbestimmung stellt. Mithilfe dieses Katalogs wird anschließend ein Gesundheitsspiel für Kinder mit Diabetes weiterentwickelt und um Privatheitsaspekte erweitert. So entsteht ein Prototyp für ein Spiel, dessen Privatheitsgrad vom Benutzer einstellbar ist. Zuletzt wird gezeigt werden, dass die zuvor gestellten Anforderungen erfüllt sind und dass verarbeitete Daten auch vor unerlaubtem Zugriff geschützt werden können.
  • Thumbnail Image
    ItemOpen Access
    Control-plane consistency in software-defined networking: distributed controller synchronization using the ISIS² toolkit
    (2015) Strauß, Jan
    Software-defined Networking (SDN) is a recent approach in computer networks to ease the network administration by separating the control-plane and the data-plane. The data-plane only forwards packets according to certain rules specified by the control-plane. The control-plane, implemented by a software called controller, determines the forwarding rules based on a global view of the network. In order to increase fault tolerance and to eliminate a possible performance bottleneck, the controller can be distributed. The synchronization of the data that holds the global view is conventionally realized using distributed key-value stores offering a fixed consistency semantic, not respecting the heterogeneous consistency requirements of the data items in controller state. The virtual synchrony model, an alternative approach to the commonly used state machine replication method, offers a more flexible solution that can result in higher performance when certain assumptions on the data kept in controller state can be made. In this thesis a distributed controller based on OpenDaylight, a state-of-the-art SDN controller and the ISIS² library, that implements the virtual synchrony model, is proposed. The modular architecture of the proposed controller and the usage of a platform independent data model allows to extend or replace parts of the system. The implementation of the distributed controller is described and the macro and micro performance is evaluated with benchmarks.
  • Thumbnail Image
    ItemOpen Access
    Subspace-optimal data mining on spatially adaptive sparse grids
    (2017) Luz, Maximilian
    Continued improvements in technology lead to an ever-growing amount of data generated, for example, by scientific measurements and simulations. Data-mining is required to gain useful knowledge from this data, however, can be challenging especially due to the size and dimensionality of these problems. The use of regular grids for such applications is often limited by the curse of dimensionality, a phrase used to describe an exponential dependency of the computational complexity of a problem on the dimensionality of this problem. For many higher-dimensional problems, e.g. with 28 dimensions, regular grids cannot be used to compute results with the desired accuracy in a reasonable amount of time, even if the memory required to store and process them is available. With spatially adaptive sparse grids, this problem can be overcome, as they lessen the influence of the dimensionality on the size of the grid, furthermore, they have been successfully applied for many tasks, including regression on large data sets. However, the currently preferred and in practice highly performant streaming-algorithm for regression on spatially adaptive sparse grids employs many unnecessary operations to effectively utilize modern parallel computer architectures, such as graphics processing units (GPUs). In this thesis, we show that the implementation of a by computational complexity more promising subspace-linear algorithm on the GPU is able to out-perform the currently preferred streaming-algorithm on many scenarios, even though the this algorithm does not utilize modern architectures as well as the streaming-algorithm. Furthermore, we explore the construction of a new algorithm by combining both, streaming- and subspace-linear algorithm, which aims to process each subgrid of the grid with the algorithm deemed most efficient for its structure. We evaluated both of our algorithms against the highly optimized implementation of the streaming-algorithm provided in the SG++ framework, and could indeed show speed-ups for both algorithms, depending on the experiments.
  • Thumbnail Image
    ItemOpen Access
    Scalable hypergraph partitioning
    (2017) Geppert, Heiko
    The interest in graph partitioning has become quite huge due to growing problem sizes. Therefore more abstract solutions are desirable. In this thesis, hypergraph partitioning is investigated since hypergraphs provide a better level of abstraction than normal graphs. Further, restreaming approaches are examined because the partitioning results of real time strategies are often not satisfiable. It will be shown that they can perform up to 15\% better than real time approaches and can sometimes even hold up to polynomial approaches. By putting more thought into the restreaming, the partitioning results become even better. This is shown empirical when proposing Fractional Restreaming a novel "Partial Forgetting" strategy. Meanwhile, the additional runtime needed is negligible compared to polynomial strategies. Finally SHP, a novel graph partitioning and evaluation framework is introduced.
  • Thumbnail Image
    ItemOpen Access
    Neural Networks on Microsoft HoloLens 2
    (2021) Lazar, Léon
    The goal of the present Bachelor thesis is to enable comparing different approaches of integrating Neural Networks in HoloLens 2 applications in a quantitative and qualitative manner by defining highly diagnostic criteria. Moreover, multiple different approaches to accomplish the integration are proposed, implemented and evaluated using the aforementioned criteria. Finally, the work gives an expressive overview of all working approaches. The basic requirements are that Neural Networks trained by TensorFlow/Keras can be used and executed directly on the HoloLens 2 without requiring an internet connection. Furthermore, the Neural Networks have to be integrable in Mixed/Augmented Reality applications. In total four approaches are proposed: TensorFlow.js, Unity Barracuda, TensorFlow.NET, and Windows Machine Learning which is an already existing approach. For each working approach a benchmarking application is developed which runs a common reference model on a test datatset to measure inference time and accuracy. Moreover, a small proof of concept application is developed in order to show that the approach also works with real Augmented Reality applications. The application uses a MobileNetV2 model to classify image frames coming from the webcam and displays the results to the user. All the feasible approaches are evaluated using the aforementioned evaluation criteria which include ease of implementation, performance, accuracy, compatibility with Machine Learning frameworks and pre-trained models, and integrability with 3D frameworks. The Barracuda, TensorFlow.js and WinML approaches turned out to be feasible. Barracuda, which only can be integrated in Unity applications, is the most performant framework since it can make use of GPU inference. After that follows TensorFlow.js which can be integrated in JavaScript Augmented Reality frameworks such as A-Frame. Windows ML can currently only use CPU inference on the HoloLens 2 and is therefore the slowest one. It can be integrated in Unity projects with some difficulties as well as plain Win32 and UWP apps. Barracuda and Windows Machine Learning are also integrated in a biomechanical visualization application based on Unity for performing simulations. The results of this thesis make the different approaches for integrating Neural Networks on the HoloLens 2 comparable. Now an informed decision which approach is the best for a specific application can be made. Furthermore, the work shows that the use of Barracuda or TensorFlow.js on the HoloLens 2 is feasible and superior compared to the existing WinML approach.
  • Thumbnail Image
    ItemOpen Access
    Evaluierung und Implementierung einer Verwaltungsschale für Industrie 4.0 Komponenten
    (2017) Schierle, Christian
    Aufgrund der enormen Anforderungen an die Flexibilität im produzierenden Gewerbe, steht die Industrie vor neuen Herausforderungen. Möglichst viele Bereiche des Marktes sollen weitläufig bedient werden. Gleichzeitig steht die Umsetzung von Kundenwünschen in der Produktion stark im Vordergrund. Die Vision Industrie 4.0 greift die neuen Anforderungen auf und sucht nach Lösungen, um Wertschöpfungsketten entsprechend zu verbessern. Diese Arbeit liefert einen Einblick in das Themengebiet Industrie 4.0 und die dabei zentralen Technologien. Der Fokus liegt hierbei auf dem Begriff der Verwaltungsschalen. Es wird deren Potential als Datenschnittstelle zwischen physischen Objekten und der Informationswelt untersucht. Im Zuge dessen bietet diese Arbeit auch eine kurze Einführung in OPC Unified Architecture. Ziel der Arbeit ist es, einen Überblick über die Anforderungen im Zusammenhang mit Industrie 4.0, vorhandene Technologien und deren Möglichkeiten zu bieten. Dazu wird eine Beispielimplementierung für Verwaltungsschalen anhand einiger Anforderungen analysiert. Anschließend werden vorbereitende Schritte für die Umsetzung einer eigenen Implementierung erläutert. Diese soll unter einigen Vereinfachungen ebenfalls den Anforderungen entsprechen.
  • Thumbnail Image
    ItemOpen Access
    Webanwendung für Multiphysik-Simulationen mit opendihu
    (2020) Tompert, Matthias
    Opendihu ist ein Software-Framework zum Lösen von Multi-Physik-Problemen mit Hilfe der Finiten-Elemente-Methode. Die Anwendungen von Opendihu sind hauptsächlich im Bereich der Skelett-Muskel-Simulationen. Das Erstellen einer Simulation in Opendihu erfolgt über eine C++-Datei, in welcher verschachtelte Löserstrukturen angegeben werden und über eine Python-Datei in welcher die Parameter der verwendeten Löser konfiguriert werden. Das Bearbeiten vorhandener Simulationen und das Erstellen neuer Simulationen mit Hilfe dieser Schnittstelle erfordern gute Kenntnisse über den Sourcecode, beziehungsweise die Struktur von Opendihu. Daher wäre es Sinnvoll Opendihu um eine Nutzerfreundlichere und auch für Einsteiger geeignete Nutzerschnittstelle zu erweitern. Im Rahmen dieser Arbeit habe Ich daher eine grafische Benutzeroberfläche für Opendihu implementiert, welche die Löserstruktur und die Parameter der einzelnen Löser einer Simulation visualisiert. Außerdem ist es mit der Anwendung möglich vorhandene Simulationen zu ändern und neue Simulationen mit Hilfe eines Baukastensystems zu erstellen. Diese Bachelorarbeit erläutert den Aufbau dieser Anwendung und erforscht mit Hilfe einer Nutzerstudie ob die entstandene Benutzerschnittstelle einen Mehrwert gegenüber der bereits vorhandenen Schnittstelle bietet. Das Bearbeiten und Erstellen neuer Simulationen mit Hilfe der Anwendung wurde von den Teilnehmern der Studie im Durchschnitt als einfacher empfunden, als das Bearbeiten und Erstellen neuer Simulationen mit Hilfe der bereits vorhandenen Schnittstelle. Die entstandene Anwendung bietet also einen Mehrwert beim Bearbeiten und Erstellen von Opendihu-Simulationen. Besonders beim Erstellen neuer Simulationen wurde das Baukastensystem als hilfreich bewertet.
  • Thumbnail Image
    ItemOpen Access
    Ein Testwerkzeug für das Internet der Dinge
    (2017) Krüger, Daniel
    Wegen der stetig fallenden Preise für Hardware sind in der heutigen Zeit immer mehr Geräte miteinander vernetzt. Dabei kommunizieren Sensoren, Aktoren und Steuergeräte miteinander. Diesen Wandel nennt man das Internet der Dinge (IoT). Ein Ziel des Internet der Dinge ist es, Situationen automatisch zu erkennen und zu steuern. Dies kann durch sogenannte Complex Event Processing (CEP)-Systemen ermöglicht werden. Diese lesen Datenströme ein und erkennen vorher definierte Muster, die Situationen. Das Testen von IoT-Umgebungen ist jedoch teuer, da Hardware beschafft werden muss. Deswegen ist die Simulation von IoT-Umgebungen erstrebenswert. In dieser Arbeit wird ein web-basiertes Werkzeug vorgestellt, welches die Simulation von Sensoren ermöglicht. Es ist möglich, mehrere Sensoren mit unterschiedlichen Datentypen, Startwerten und Abweichungen zu simulieren. Ein weiteres, im Rahmen dieser Arbeit behandeltes, Problem ist, dass noch keine Benchmarks für CEP-Systeme existieren. Für darauf aufbauende Arbeiten wird hier untersucht, wie eine Datengenerierung für solche Benchmarks umgesetzt werden kann und welche Anforderungen an die Benchmarks gestellt werden.
  • Thumbnail Image
    ItemOpen Access
    Optimization of diffusive load-balancing for short-range molecular dynamics
    (2020) Hauser, Simon
    In recent years, multi-core processors have become more and more important for manufacturers, which means that developers now have to think more about how to distribute a single application sensibly over several processes. This is where load balancing comes in, allowing us to move load from an overloaded process to an underloaded process. One way of load balancing is diffusive load balancing, which is a method of moving load in the local neighborhood and therefore no global communication is needed. The advantage of this is that processes that have completed the local communication and thus the load-balancing process can continue with the next calculations. This form of load balancing is found in librepa, a library that deals with the balancing of linked-cell grids and can be used in the simulation software ESPResSo. In the course of this thesis the library has been extended with the First and Second Order Diffusion. Furthermore, a feature was added that allows to keep the initial structure of the grid constant, which means that the neighborhood of each process does not change. This feature is necessary for the Second Order Diffusion. A comparison between the methods shows that both First and Second Order Diffusion distribute the load better in the system than librepa's default and prior to this work only diffusive variant. Furthermore, we show that there is no significant overhead in using the Preserving Structure Diffusion. With the use of flow iteration the imbalance values of First and Second Order Diffusion can be improved even further.