05 Fakultät Informatik, Elektrotechnik und Informationstechnik

Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/6

Browse

Search Results

Now showing 1 - 10 of 61
  • Thumbnail Image
    ItemOpen Access
    Anonymisierung von Daten : von der Literatur zum Automobilbereich
    (2023) Herkommer, Jan
    Die Datenanonymisierung im Automobilbereich gewinnt immer mehr an Bedeutung. Jedoch gibt es kaum Literatur und Ansätze, die sich mit der Anonymisierung von Automobildaten beschäftigen. In dieser Arbeit werden deshalb mit Hilfe einer strukturierten Literaturrecherche die aktuell verbreitetsten Verfahren und Anwendungsbereiche erörtert und die wichtigsten Erkenntnisse der Recherche zusammengefasst. So werden bei den analysierten Paper der Anwendungsbereich, die Methodik sowie der zu anonymisierende Datentyp ermittelt. DesWeiteren werden die Metriken zum Vergleich von unterschiedlichen Ansätzen betrachtet. Mit Hilfe dieser Erkenntnisse wird im Anschluss auf die Anonymisierung von Fahrzeugdaten anhand verschiedener Anwendungsfälle eingegangen und Herausforderungen und Lösungsansätze skizziert. Zuletzt wird beispielhaft ein Ansatz zur Anonymisierung von Routen implementiert, um mit Hilfe eines GPS-Sensors aufgezeichnete Fahrzeugrouten zu anonymisieren. Dabei werden zusätzliche Probleme wie der Umgang mit Messungenauigkeiten und Messfehlern sowie die tatsächlichen Auswirkungen von reduzierter Datennutzbarkeit verdeutlicht.
  • Thumbnail Image
    ItemOpen Access
    Development of an Euler-Lagrangian framework for point-particle tracking to enable efficient multiscale simulations of complex flows
    (2023) Kschidock, Helena
    In this work, we implement, test, and validate an Euler-Lagrangian point-particle tracking framework for the commercial aerodynamics and aeroacoustics simulation tool ultraFluidX, which is based on the Lattice Boltzmann Method and optimized for GPUs. Our framework successfully simulates one-way and two-way coupled particle-laden flows based on drag forces and gravitation. Trilinear interpolation is used for determining the fluid's macroscopic properties at the particle position. Object and domain boundary conditions are implemented using a planar surface approximation. The whole particle framework is run within three dedicated GPU kernels, and data is only copied back to the CPU upon output. We show validation for the velocity interpolation, gravitational acceleration, back-coupling forces and boundary conditions, and test runtimes and memory requirements. We also propose the next steps required to make the particle framework ready for use in engineering applications.
  • Thumbnail Image
    ItemOpen Access
    Improving usability of gaze and voice based text entry systems
    (2023) Sengupta, Korok; Staab, Steffen (Prof. Dr.)
  • Thumbnail Image
    ItemOpen Access
    Hochperformante Auflösung kleiner Referenzen in verteilten Systemen
    (2023) Waimer, Joel
    Bereits mit dem Aufkommen erster Filesharing-Systeme wurde die Entwicklung effektiver Verfahren zum Auffinden von mittels global eindeutiger Referenzen bezeichneter Datenobjekte in Peer-to-Peer-Systemen intensiv diskutiert und vorangetrieben, mit dem Ergebnis zahlreicher konkret ausgearbeiteter Lösungsansätze. Unbeachtet geblieben ist dabei jedoch der, für Filesharing-Systeme nicht lohnenswerte, für kleinere verteilte Datenspeichersysteme aber durchaus vorteilhafte Einsatz kleiner Referenzen, in der, aufgrund neuer Fortschritte im Bereich der Speicherdichte, damit einhergehenden dünnen Besetzung dieser kleinen Adressräume, durch welche allerdings die den Verfahren zueigenen Garantien bezüglich der benötigten Anzahl an Schritten zur Auflösung einer Referenz innerhalb des Systems stark verzerrt werden und sich die je Auflösung nötige Laufzeit vergrößert. Diese Arbeit beleuchtet zunächst die Grundlagen der mit der Auflösung von Datenreferenzen in verteilten Speichersystemen einhergehenden Problematiken, beschreibt die beiden Verfahren Chord [SMK+01] und Koorde [KK03] und misst anschließend deren Leistungsfähigkeit in dünn besetzten Adressräumen, unter der Verwendung kleiner Referenzen; mit den Messungen kann schließlich die Vermutung eines negativen Einflusses der dünnen Besetztheit des Adressraums auf die benötigte Laufzeit je Auflösung bestätigt werden. Eingegangen wurde hierbei auch auf mögliche Gegenmaßnahmen zur Verbesserung der Leistungsfähigkeit der beiden Verfahren, wobei hier die Verbindung der beiden untersuchten Verfahren mit einer Abwandlung des beim Distance-Halving-Netzwerk [NW03] eingesetzten Initialisierungsverfahrens zu einer nahezu gleichmäßigen Aufteilung des Adressraumes auf die einzelnen Knoten hier großes Potential besitzt, da so einer Entartung der Pfadlänge je Auflösung entgegengewirkt werden kann; zudem zeigten sich in den Messungen stark ungünstige Auswirkungen einer naiven, iterativen Implementierung des Chord-Verfahrens gegenüber Koorde.
  • Thumbnail Image
    ItemOpen Access
    Entwurf und Implementierung eines Stream-basierten, dynamischen und fairen Scheduling-Verfahrens für WiFi-Netzwerkverkehr
    (2023) Herrmann, Jona
    Heutzutage sind Wireless Local Area Network (WLAN)-Netzwerke, basierend auf dem IEEE~802.11 Standard, für mobile Endgeräte besonders wichtig, da diese nur so Zugang zum Internet bekommen können. Dementsprechend gibt es solche Netzwerke fast überall wie beispielsweise in öffentlichen Verkehrsmitteln, in Hotels oder auch bei der Arbeit. Doch die Qualität und Geschwindigkeit einer Verbindung kann dabei stark variieren. Um dies zu verbessern, wird zuerst eine Analyse dieser Netzwerke vorgenommen, um die Stelle des Bottlenecks zu identifizieren. Dabei konnte gezeigt werden, dass der Bottleneck an zwei Stellen vorliegen könnte. Das wäre einmal der Uplink zum Internet und andererseits der entsprechende Downlink, wobei sich der Bottleneck am Downlink letztendlich beim Internet-Provider befindet. Mit einem neu entwickelten Stream-basierten, dynamischen und fairen Scheduling-Verfahren soll die Qualität und Geschwindigkeit im WLAN-Netzwerk verbessert werden. Dafür wird eine neue Art von Fairness definiert, sodass die Pakete von Endgeräten mit einem geringen Datenverbrauch eine höhere Priorität erhalten. Dadurch bekommen letztendlich Endgeräte, welche gutmütig sind, eine bessere Antwortzeit als diese, die eine große Datenmenge übertragen. Zum Schluss wird die Linux-Implementierung des Scheduling-Verfahrens noch unter verschiedenen Metriken evaluiert. Dabei konnte gezeigt werden, dass die gewünschte Art von Fairness damit realisiert werden kann. Dies wurde sowohl unter Laborbedingungen als auch mit realen Anwendungen des Internets erfolgreich evaluiert. Außerdem wurde durch Messungen gezeigt, dass es im Punkt Performanz keinen signifikanten Unterschied zu dem Standard Scheduling-Verfahren in Linux gibt.
  • Thumbnail Image
    ItemOpen Access
    Roaming with deterministic real-time guarantees in wireless Time-Sensitive Networking
    (2023) Haug, Lucas
    As Cyber-Physical Systems (CPSs) become increasingly popular in various domains such as Industrial Internet of Things (IIoT) and autonomous vehicles, the demand for deterministic real-time communication with a high reliability and bounded network delay and delay variance (jitter) has grown. In CPSs with networked sensors and actuators, these deterministic real-time bounds are often crucial in order to provide safety guarantees. Major standardization organizations like the Institute of Electrical and Electronics Engineers (IEEE) have acknowledged the necessity for deterministic networks, resulting in a set of standards known as Time-Sensitive Networking (TSN), which enable deterministic communication in wired Ethernet networks. Many CPSs, however, necessitate mobility and therefore rely on wirelessly connected devices, such as a worker wearing an exoskeleton in order to carry heavy loads. To this end, the TSN standards will also be part of the upcoming Wi-Fi 7 standard (IEEE 802.11be). Although the increased flexibility offered by the mobility of devices in these scenarios is advantageous, it presents new challenges, such as controlling access to the shared wireless transmission medium and managing handovers such that deterministic real-time guarantees are maintained. In this work, we investigate these challenges and provide novel approaches to improve the reliability, delay and jitter in wireless TSN. We first modify an already existing Integer Linear Program (ILP) to generate schedules for the Time-Aware Shaping (TAS) in a wireless network environment. The necessity for this arises because the wireless transmission medium utilizes a shared access method, whereas existing approaches are limited to point-to-point Ethernet connections. Furthermore, we provide a novel seamless handover approach for wireless TSN utilizing two wireless interfaces in a single device and extend it with a proactive handover approach in order to allow for smoother handovers with a greater reliability. In order to analyze our approaches, we extend the INET framework of the OMNeT++ simulator with an implementation of our approaches. Our evaluation shows that delay and jitter are mainly influenced by the random back-off algorithm of the channel access procedure in Wi-Fi indicating research topics for future work. Moreover, we were able to significantly improve the reliability for wireless TSN by employing our proactive handover approach in the simulation.
  • Thumbnail Image
    ItemOpen Access
    Ordering transactions on distributed persistent objects
    (2023) König, Simon
    Resilient and consistent data storage is critical for applications and services across all industries. As such, various persistent storage layers, such as database storage systems, have been developed. These either require complex data translations, commonly tackled through Object-Relational Mapping (ORM), or force the application to use data types specifically developed for persistent storage (e. g., Intel PMDK). Persistent objects describe a novel storage system that is able to persist and transactionally modify application-defined objects. With persistent objects, applications transactionally execute arbitrary functions on their existing data objects. However, they only allow local transactional modifications on individual objects, as there are no consistency guarantees across sequences of transactions. In this work, we present a novel distributed transaction coordination algorithm called Two-Phase Ordering (2PO) that provides isolation between concurrently executing clients. The algorithm uses application-specific knowledge, which becomes available through the use of application-native objects in the local persistent storage layer. Moreover, the distributed transaction execution order of 2PO depends entirely on the user’s desired semantics. Thus, the system accomodates both linearizable consistency as well as arbitrary interleavings of non-transactional interactions at the same time. By proving the consistency guarantees of 2PO in the general case, we show that our work is applicable to traditional transactional storage systems (e. g., databases) as well. Our evaluations show that 2PO supports linearizability as well as highly available transaction consistency models, such as Monotonic Atomic View (MAV), both with high commit rates (above 97 % under high contention), all while scaling linearly with the number of nodes.
  • Thumbnail Image
    ItemOpen Access
    Distributed Deep Reinforcement Learning for Learn-to-optimize
    (2023) Mayer, Paul
    In the context of increasingly complex applications, e.g., robust performance tuning in Integrated Circuit Design, conventional optimization methods have difficulties in achieving satisfactory results while keeping to a limited time budget. Therefore, learning optimization algorithms becomes more and more interesting, replacing the established way of hand-crafting or tweaking algorithms. Learned algorithms reduce the amount of assumptions and expert knowledge necessary to create state-of-the-art solvers by decreasing the need of hand-crafting heuristics and hyper-parameter tuning. First advancements using Reinforcement Learning have shown great success in outperforming typical zeroth- and first-order optimization algorithms, especially with respect to generalization capabilities. However, training still is very time consuming. Especially challenging is training models on functions with free parameters. Changing these parameters (that could represent, e.g., conditions in a real world example) affects the underlying objective function. Robust solutions therefore depend on thorough sampling, which tends to be the bottleneck considering time consumption. In this thesis we identified the runtime bottleneck of the Reinforcement Learning Algorithm and were able to decrease runtime drastically by distributing data collection. Additionally, we studied the effects of combining sampling strategies in regards to generalization capabilities of the learned algorithm.
  • Thumbnail Image
    ItemOpen Access
    Algorithms for calculating robust schedules for time sensitive networking (TSN)
    (2023) Nieß, Adriaan
    With the 802.1Qbv standard, the time-sensitive networking (TSN) task group has specified a TDMA-based scheduling method based on Ethernet, that allows to ensure real-time guarantees for time-critical data streams. A major challenge here is the computation of the cyclic schedules required for the switch configurations in the network. There exist already a number of different approaches to calculate these schedules. However, most of them focus on supporting a high number of streams and optimize target functions such as the Makespan. This leads to schedules that are particularly fragile against errors in the system model. To close this gap, we have developed a scheduler based on simple temporal networks (STNs) that maximizes the intervals allocated for the transmission of data packets in order to ensure a very high degree of robustness against unforeseen delay or cross-traffic. In a simulation it could be shown that the calculated schedules could still guarantee a loss-free data transmission under compliance with all deadlines if the actual per-hop network delay deviated from the assumed delay by a factor of up to 7. Furthermore, an even larger error did not immediately lead to a breakdown, but to a gradual degradation. This makes the scheduling method presented here as well as the underlying algorithms particularly interesting for applications that come with a high degree of uncertainty in the system model, such as wireless communications or heterogeneous networks.
  • Thumbnail Image
    ItemOpen Access
    Time-sensitive converged networks : a comprehensive architecture approach
    (2023) Hellmanns, David; Rothermel, Kurt (Prof. Dr. rer. nat.)