05 Fakultät Informatik, Elektrotechnik und Informationstechnik

Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/6

Browse

Search Results

Now showing 1 - 10 of 23
  • Thumbnail Image
    ItemOpen Access
    Webanwendung für Multiphysik-Simulationen mit opendihu
    (2020) Tompert, Matthias
    Opendihu ist ein Software-Framework zum Lösen von Multi-Physik-Problemen mit Hilfe der Finiten-Elemente-Methode. Die Anwendungen von Opendihu sind hauptsächlich im Bereich der Skelett-Muskel-Simulationen. Das Erstellen einer Simulation in Opendihu erfolgt über eine C++-Datei, in welcher verschachtelte Löserstrukturen angegeben werden und über eine Python-Datei in welcher die Parameter der verwendeten Löser konfiguriert werden. Das Bearbeiten vorhandener Simulationen und das Erstellen neuer Simulationen mit Hilfe dieser Schnittstelle erfordern gute Kenntnisse über den Sourcecode, beziehungsweise die Struktur von Opendihu. Daher wäre es Sinnvoll Opendihu um eine Nutzerfreundlichere und auch für Einsteiger geeignete Nutzerschnittstelle zu erweitern. Im Rahmen dieser Arbeit habe Ich daher eine grafische Benutzeroberfläche für Opendihu implementiert, welche die Löserstruktur und die Parameter der einzelnen Löser einer Simulation visualisiert. Außerdem ist es mit der Anwendung möglich vorhandene Simulationen zu ändern und neue Simulationen mit Hilfe eines Baukastensystems zu erstellen. Diese Bachelorarbeit erläutert den Aufbau dieser Anwendung und erforscht mit Hilfe einer Nutzerstudie ob die entstandene Benutzerschnittstelle einen Mehrwert gegenüber der bereits vorhandenen Schnittstelle bietet. Das Bearbeiten und Erstellen neuer Simulationen mit Hilfe der Anwendung wurde von den Teilnehmern der Studie im Durchschnitt als einfacher empfunden, als das Bearbeiten und Erstellen neuer Simulationen mit Hilfe der bereits vorhandenen Schnittstelle. Die entstandene Anwendung bietet also einen Mehrwert beim Bearbeiten und Erstellen von Opendihu-Simulationen. Besonders beim Erstellen neuer Simulationen wurde das Baukastensystem als hilfreich bewertet.
  • Thumbnail Image
    ItemOpen Access
    Optimization of diffusive load-balancing for short-range molecular dynamics
    (2020) Hauser, Simon
    In recent years, multi-core processors have become more and more important for manufacturers, which means that developers now have to think more about how to distribute a single application sensibly over several processes. This is where load balancing comes in, allowing us to move load from an overloaded process to an underloaded process. One way of load balancing is diffusive load balancing, which is a method of moving load in the local neighborhood and therefore no global communication is needed. The advantage of this is that processes that have completed the local communication and thus the load-balancing process can continue with the next calculations. This form of load balancing is found in librepa, a library that deals with the balancing of linked-cell grids and can be used in the simulation software ESPResSo. In the course of this thesis the library has been extended with the First and Second Order Diffusion. Furthermore, a feature was added that allows to keep the initial structure of the grid constant, which means that the neighborhood of each process does not change. This feature is necessary for the Second Order Diffusion. A comparison between the methods shows that both First and Second Order Diffusion distribute the load better in the system than librepa's default and prior to this work only diffusive variant. Furthermore, we show that there is no significant overhead in using the Preserving Structure Diffusion. With the use of flow iteration the imbalance values of First and Second Order Diffusion can be improved even further.
  • Thumbnail Image
    ItemOpen Access
    Advanced object localization pipeline for robot manipulation
    (2020) Schäfer, Tim
    The thesis objective is to develop a robust tracking pipeline for a Baxter robot system. The tracking pipeline includes the applications of robot tracking and object tracking, which localizes the surrounding objects for robot manipulation. By combining, extending, and comparing state-of-theart approaches for object tracking and image segmentation, this thesis estimates the initial poses of the objects such that their pose can be used to auto-initialize object tracking algorithms. The pipeline is able to handle unfamiliar and dynamic environments. The system was implemented in simulation and can be applied to a real robotic system. The resulting pipeline uses an RGB image, a depth image, and the 3D object models as input. The outputs are the tracked object poses in real time. A dataset was generated to train the instance segmentation network. Furthermore, the pipeline was evaluated with several conditions to test the robustness of the tracking. A comparison to other 6D pose estimation approaches is provided in the results. The code of the pipeline is available on GitHub: https://github.com/timschaeferde/rai_baxter
  • Thumbnail Image
    ItemOpen Access
    Dynamic workload balancing for heterogeneous systems
    (2020) Strack, Alexander
    During the last two decades, GPUs developed into powerful and massively parallel processors. That rose the attention of scientist who started using GPUs for large scale scientific computing, e.g. simulations. However, the architecture of GPUs is different from CPUs. Furthermore, graphic processors have their now fast access memory. Computing in a heterogeneous system consisting of a CPU and multiple GPUs has various challenges. In this work, we focus on how to distribute the load among the different components. We consider an iterative load that can be redistributed after each iteration. The goal of our scheduling methods is to minimise the computation time of the next iteration by estimating the performance of each component. After a short introduction to load balancing, we specify the iterative workload scenario and differentiate it from the typical task-based scenario often found in the literature. Then, we show the basics of GPU programming with the help of NVIDIAs CUDA API. Furthermore, we introduce the different kernels we use for our test and derive multiple schedulers. Our dynamic schedulers use the time each component took to compute its assigned workload in the last iteration as a basis of the performance estimation. After investigating the influence of previous run-time data on the scheduling decisions, we turn our attention towards the properties of the workloads and therefore compare different types of memory management.
  • Thumbnail Image
    ItemOpen Access
    Optimizing ILP-based joint scheduling and routing for time-aware shaping in factory automation networks
    (2020) Haug, Lucas
    With the rise of Industry 4.0 and Internet of Things (IoT), the need for deterministic real-time communication is higher than ever before. In the past, fieldbus systems have dominated the field of time-critical applications. However, they are incompatible among each other and are not able to transmit time-sensitive and non-time-sensitive traffic over the same medium. The widespread usage of IEEE Ethernet Networks and the growing need for real-time communication lead to the IEEE Time-sensitive Networking (TSN) Standards. These TSN Standards extend IEEE Ethernet networks with real-time capabilities. They provide multiple priority levels and a Time Division Multiple Access (TDMA)-based gating mechanism for each switch. However, they do not define how to calculate the TDMA schedules. There are already different approaches, which solve the Scheduling- or the Joint Routing and Scheduling (JRaS) problem for TSN. These approaches are either complete and suffer from a high runtime or they are heuristic and do not guarantee to find a feasible solution. In this work, we improve upon an already existing Integer Linear Programming (ILP)-based JRaS approach. For this, we develop different optimizations of different categories, which reduce the complexity of the problem or make use of an ILP-solver's specific capabilities. We evaluate our different optimizations individually and in combination in order to find the best combination for two different switching types. These switching types are known as Store-and-Forward switching, which is the default switching type provided in the IEEE Ethernet standards and Cut-Through switching, which is an optimization commonly used in industrial networks. Additionally, we benchmark our optimized ILP-based approach against other schedulers. With our best optimization combination, we are able to reduce the runtime by about 80% compared to the base ILP-model.
  • Thumbnail Image
    ItemOpen Access
    Situationserkennung mithilfe eines In-Memory Data Grids
    (2020) Weber, Pascal
    Im Bereich des Internet der Dinge oder der Industrie 4.0 produzieren Sensoren laufend Daten, die Messwerte über einen aktuellen Zustand von Maschinen, Anlagen oder der Umgebung enthalten, auf jene eine Maschine jeweils rechtzeitig reagieren muss. Zudem befinden sich die Sensoren nicht immer in unmittelbarer Reichweite zueinander, noch sind sie an dasselbe Gerät angeschlossen. Dadurch wird die Verarbeitung der Sensordaten ein komplexes Thema, vor allem dann, wenn die Daten von verschiedenen Sensoren benötigt werden, um daraus letztendlich eine Entscheidung treffen zu können. Diese werden in sogenannten Situationstemplates definiert, welche bestimmte Bedingungen an Sensordaten festlegen, die alle (oder auch nur teilweise) erfüllt sein müssen, damit eine Situation eintreffen kann. Die erkannte Situation wird daraufhin mit den anderen Teilnehmern ausgetauscht, damit diese ihre Prozesse an die neuen Gegebenheiten anpassen können. Auf die Messwerte der Sensoren muss insbesondere mit sehr geringer Latenz (d. h. am besten in Echtzeit) reagiert werden können, da es ansonsten zu schwerwiegenden Folgen bei einzelnen Prozessschritten kommen könnte. Durch die gegebene Komplexität der verteilten Sensoren und die Anforderung an sehr geringe Latenzzeiten wird in dieser Arbeit ein In-Memory Data Grid zum Erkennen solcher Situationen evaluiert. Diese Technologie bietet durch das Halten der Daten im Arbeitsspeicher den entscheidenden Vorteil von sehr geringen Latenzzeiten, bringt natürlich auch den Nachteil, dass der Speicher nicht persistent ist. Es wird ein Konzept zum Erkennen von Situationen, im Umfeld des Internet der Dinge, mithilfe der In-Memory Data Grid Technologie entwickelt, sowie die Funktionsfähigkeit anhand von Beispiel-Anwendungen demonstriert.
  • Thumbnail Image
    ItemOpen Access
    Polynomial Chaos Expansion mit räumlich adaptiven Sparse Grids
    (2020) Albrecht, Thomas
    Die Polynomial Chaos Expansion (generalized Polynomial Chaos) ist eine Methode aus der Uncertainty Quantification. Mit ihr können die stochastischen Momente einer Funktion R, deren Parameter gemäß Verteilungsfunktionen verteilt sind, schnell berechnet werden. Außerdem liefert die Methode ein akkurates Surrogat das effizient ausgewertet werden kann. Dazu werden abhängig von den Verteilungsfunktionen in jeder Dimension bestimmte orthogonale Polynombasen verwendet. Die verwendeten Polynome sind jeweils genau bezüglich der Dichtefunktion der jeweiligen Verteilung orthogonal. Die Koeffizienten der Expansion werden mithilfe eines Spectral Projection Ansatzes berechnet. Bei diesem müssen hochdimensionale Integrale gelöst werden. In dieser Arbeit wird die Polynomial Chaos Expansion implementiert. Da traditionelle Integrationsmethoden unter dem sogenannten Fluch der Dimensionalität leiden, werden die Integrale mithilfe von räumlich adaptiven Sparse Grids (dünnen Gittern) gelöst. Die Ergebnisse der Polynomial Chaos Expansion mit räumlich adaptiven Sparse Grids werden mit denen einer Polynomial Chaos Expansion mit regulären Sparse Grids verglichen. Außerdem werden die Ergebnisse noch mit einer weiteren Methode aus der Uncertainty Quantification, der Stochastic Collocation, verglichen.
  • Thumbnail Image
    ItemOpen Access
    Efficient sampling of transition constraints for motion planning under sliding contacts
    (2020) Khoury, Marie Therese
    In contact-based motion planning we consider for humanoid and multiped robots problems like going up a staircase, walking over an uneven surface or climbing a steep hill. Solving such tasks requires finding sequences of fixed and sliding contacts and planning the transition from one contact in the environment to another. However, most existing algorithms do not take sliding contacts into account for navigation problems or consider them only for manipulation scenarios. We propose an approach to contact-based planning that uses sliding contacts and exploits contact transitions. Such transitions are elementary operations required for whole contact sequences. To model sliding contacts, we develop a sliding contact constraint that permits the robot to slide on an object’s surface. To exploit contact transitions, we utilize three constraint modes to enable passage: contact with a start surface, no contact and contact with a goal surface. We develop a sampler that samples these transition modes uniformly. In this thesis we focus on the motion of one robot link’s end from an initial contact point toward a designated goal surface while the other end of the robot remains in sliding contact with the initial surface. Our method is evaluated by testing it on manipulator arms of two, three and seven degrees of freedom with different objects and various sampling-based planning algorithms. From the considered manipulator arm, it would be possible to transfer our concept to more complex robots and scenarios and extend it to a whole sequence of contacts.
  • Thumbnail Image
    ItemOpen Access
    Adaptives Testwerkzeug für IoT Applikationen
    (2020) Seber, Katja
    Durch das Internet der Dinge (IoT) wird die Möglichkeit geboten, mit Hilfe von IoT- Applikationen Verbesserungen und Vorteile in diversen Anwendungsbereichen zu schaffen. Dabei werden mit Sensoren und Aktuatoren ausgestattete IoT-Geräte miteinander verknüpft, um die sich ständig ändernde Umgebung wahrzunehmen und auf diese möglichst ohne menschliches Eingreifen reagieren zu können. Die Stabilität und die korrekte Funktionsweise einer solchen Anwendung stellen dabei wichtige Anforderungen dar, welche besonders durch Ausnahmefälle (z.B. Ausreißer bei Sensorwerten) gefährdet werden. Aus diesem Grund sind Software-Tests bei der Entwicklung von IoT-Applikationen unabdinglich. Ziel dieser Bachelorarbeit ist es daher, ein weitgehend automatisiertes Testwerkzeug bereitzustellen, um stabile und korrekt arbeitende Anwendungen zu schaffen. Um effektive Tests von verschiedenen Testfällen zu ermöglichen, sollte die Simulation von Sensoren und Aktuatoren ermöglicht werden. Zur Integration der Simulatoren und des Testwerkzeugs lag die IoT-Plattform Multi-purpose Binding and Provisioning Platform (MBP) zugrunde. Innerhalb der Literatur konnten keine Quellen gefunden werden, welche konkrete Lösungen, beziehungsweise bereits bestehende Tools zur Erfüllung der Ziele zur Verfügung stellen. Daher wurden das Testwerkzeug sowie die Simulatoren eigenständig innerhalb dieser Arbeit entwickelt. Dadurch können mit Hilfe dieser verschiedene Testfälle einer IoT-Applikation effektiv geprüft werden. Anhand der Ergebnisse eines Tests können bei detektiertem Fehlverhalten erforderliche Maßnahmen getroffen werden. Dadurch sind die Anforderungen einer stabilen und korrekten Funktionsweise einer IoT-Applikation erfüllbar.
  • Thumbnail Image
    ItemOpen Access
    Umsetzung anwendungsspezifischer ETL-Prozesse im Data Lake
    (2020) Winckler, Magdalena
    In der heutigen Zeit entstehen tagtäglich immer mehr Daten. Um diese nutzen zu können, müssen sie gespeichert, verarbeitet und analysiert werden. Da dies bei immer größer werdenden Datensätzen, welche gleichzeitig heterogen sein können, viele neue Anforderungen mit sich bringt, entstehen auch immer wieder neue Technologien. So wird es immer schwerer relevante Daten herauszufiltern oder diese zu bereinigen. Eine dieser Technologien ist der Data Lake. Ein Data Lake ist ein System in dem jegliche Arten von Daten gespeichert und zu einem späteren Zeitpunkt bei Verwendung bereitgestellt werden können. Oft wird jedoch ein Data Lake mit einem Hadoop-Cluster gleichgesetzt. Um einen Data Lake effizienter zu konzeptionieren, wird in der Literatur deshalb oft darauf hingewiesen, dass auch auf andere Technologien innerhalb eines Data Lakes zurückgegriffen werden soll. Gleichzeitig kann ein Data Lake in unterschiedliche Zonen aufgeteilt werden, um diesen effizienter zu nutzen. Die Aufteilung eines Data Lakes in Zonen, wird allgemein als Zonenmodell bezeichnet. Bisher gibt es jedoch nur wenige wissenschaftliche Arbeiten, welche sich sowohl mit der Konzeptionierung als auch mit der Implementierung eines Data Lakes mit mehreren Technologien beschäftigt. In dieser Arbeit wird ein Konzept eines Data Lakes mit mehreren Technologien entworfen und dieses prototypisch umgesetzt. Um dies zu erreichen werden unterschiedliche Zonenmodelle und bereits in der Literatur vorhandene Anwendungen dieser auf einen Data Lake betrachtet. Anschließend wird ein Beispieldatensatz vorgestellt, anhand dessen unterschiedliche Anwendungsfälle entworfen werden. Um den Data Lake mit anderen Technologien zu erweitern, werden zudem unterschiedliche Datenbankarten vorgestellt. Darauf folgt in einer prototypischen Umsetzung die Übertragung der Daten von einem Hadoop-Cluster in die unterschiedlichen Datenbanken. Abschließend folgt eine Evaluation und eine Zusammenfassung der Arbeit.