04 Fakultät Energie-, Verfahrens- und Biotechnik

Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/5

Browse

Search Results

Now showing 1 - 10 of 12
  • Thumbnail Image
    ItemOpen Access
    Tensorgesteuerte Entwicklung biokompatibler Strukturen
    (2021) Däges, Johannes-Maximilian
    Die vorliegende Arbeit verfolgt den Ansatz einer Topologieoptimierung um würfelförmige Strukturen zu erstellen die ein vorgegebenes elastisches Verhalten haben. Hierzu wird die Methode der Homogenisierung nach G. P. Steven angewendet um aus einem gegeben Steifigkeitstenor Beschränkungen für eine Topologieoptimierung zu entwickeln. Zudem wurde die Mandel-Notation in die Homogenisierung eingebaut. Das langfristige Ziel ist es, Femurnägel aus vielen Einzelstrukturen zusammen zu setzen und so auftretendes Stress shielding im Femurknochen zu verringern. Die Ergebnisse verschiedener Konfigurationen sind durchaus vielversprechend und unterstützen eine weitere Untersuchung des Ansatzes.
  • Thumbnail Image
    ItemOpen Access
    Untersuchung einer Augmented Reality Kollaborationssoftware in der verteilten agilen Arbeitsweise der Automobilentwicklung
    (2024) Dyhringer, Robert; Resch, Michael (Prof. Dr.-Ing. Dr. h.c. Dr. h.c. Prof. e.h)
    Der Begriff Metaverse motiviert seit 2021 neue Forschung in der Wissenschaft, insbesondere in der Automobilentwicklung. Die Kombination von agilen Arbeitsweisen und verteilter Zusammenarbeit wirft neue Herausforderungen auf, die durch den Einsatz einer kollaborativen Augmented Reality Software bewältigt werden können. Eine methodisch entwickelte Software und wissenschaftliche Studien zeigen in dieser Arbeit, dass die Technologie der Augmented Reality die gleichberechtigte Gruppenarbeit und die Kommunikation in einem agilen Setup verbessern kann.
  • Thumbnail Image
    ItemOpen Access
    Optimizing I/O performance with machine learning supported auto-tuning
    (Stuttgart : Höchstleistungsrechenzentrum, Universität Stuttgart, 2023) Bağbaba, Ayşe; Resch, Michael M. (Prof. Dr.-Ing. Dr. h.c. Dr. h.c. Prof. E.h.)
    Data access is a considerable challenge because of the scalability limitation of I/O. In addition, some applications spend most of their total execution times in I/O. This causes a massive slowdown and wastage of useful computing resources. Unfortunately, there is not any one-size-fits-all solution to the I/O problems, so I/O becomes a limiting factor for such applications. Parallel I/O is an essential technique for scientific applications running on high-performance computing systems. Typically, parallel I/O stacks offer many parameters that need to be tuned to achieve an I/O performance as good as possible. Unfortunately, there is no default best configuration of these parameters; in practice, these differ not only between systems but often also from one application use case to the other. However, scientific users might not have the time or the experience to explore the parameter space sensibly and choose a proper configuration for each application use case. I present a line of solutions to this problem containing a machine learning supported auto-tuning system which uses performance modelling to optimize I/O performance. I demonstrate the value of these solutions across applications and at scale.
  • Thumbnail Image
    ItemOpen Access
    Direkte Mechanik mit eindimensionalen finiten Elementen
    (2021) Schmid, Marc-Philipp
    Das Hüftgelenk zählt zu den am stärksten beanspruchten Bereichen im menschlichen Körper. Da es die Bewegung der unteren Extremitäten gegenüber dem Rumpf ermöglicht, führt ein Versagen direkt zur Immobilisation des Patienten. Je nach Versagensursache ist eine Behandlung durch die Implantation eines künstlichen Hüftgelenks unumgänglich. Auch die Prothesen selbst können wiederum z.B. wegen Lockerung des im Oberschenkel fixierten Prothesenschafts versagen. Um die Wahrscheinlichkeit eines solchen Prothesenversagens zu reduzieren, wird an der Anpassung der Steifigkeit des Prothesenschafts an die Steifigkeit der im Oberschenkelknochen enthaltenen Spongiosa geforscht. Zur Reduktion der Komplexität bei der Berechnung der Steifigkeit der Spongiosa kann die Direkte Mechanik nach Ralf Schneider (2016) angewendet werden. Da die Anwendung der Direkten Mechanik bisher auf durch Volumenelemente diskretisierten Strukturen stattgefunden hat, soll in der vorliegenden Arbeit die Anwendung der Direkten Mechanik auf ein idealisiertes Knoten-Kanten-Netzwerk, bestehend aus eindimensionalen finiten Elementen, untersucht und anschließend bewertet werden. In diesem Zusammenhang werden Vergleiche der durch die Direkten Mechanik bestimmten reduzierten Gesamtsteifigkeitsmatrix 𝑲𝑟𝑒𝑑 und der mit der Finiten Elemente Methode bestimmten Gesamtsteifigkeitsmatrix 𝑲𝑔𝑒𝑠 angestellt.
  • Thumbnail Image
    ItemOpen Access
    Der Mixed Mock-Up im Toleranzmanagement in der Automobilindustrie
    (2020) Küstner, Tim; Resch, Michael (Prof. Dr.-Ing. Dr. h.c. Dr. h.c. Prof. E.h.)
    Die Bedeutung von Augmented Reality hat in den letzten Jahren im Rahmen der Digitalisierung einen deutlichen Anstieg verzeichnet. In der Öffentlichkeit findet diese innovative Technologie große Aufmerksamkeit als Anwendung in Consumer Produkten. Ein zu Unrecht viel weniger betrachteter Aspekt ist hingegen das riesige Potential der Technologie bei Anwendungen in Entwicklungs- und Produktionsprozessen. Genau in diesem Anwendungsbereich entsteht durch Einsatz von Augmented Reality neben PMU und DMU eine neue, dritte Entwicklungsplattform, der Mixed-Mock Up (MMU). Bei der Entwicklung neuer MMU-Prozesse sowie der Integration noch unbeteiligter Entwicklungsbereiche in den MMU, müssen zahlreiche Herausforderungen gemeistert werden. In dieser Arbeit wird dieser Vorgang exemplarisch am Toleranzmanagement aufgezeigt. Die Herausforderungen bestehen hierbei zum einen in der Komplexität der Entwicklungswelt, in welcher der MMU als Schnittstelle zwischen DMU und PMU eingesetzt wird. Zum anderen muss die schnelle technologische Entwicklung der Augmented-Reality-Komponenten bei der Entwicklung berücksichtigt werden, um nachhaltig erfolgreiche Prozesse und Methoden im MMU zu implementieren. Bei der Konzeption neuer MMU-Prozesse müssen daher eine Vielzahl an technologischen und methodischen Fragestellungen erfasst und beantwortet werden. Um dieses Vorgehen zu unterstützen, stellt die vorliegende Arbeit ein Klassifikationsschema vor, mit welchem die Bestandteile und Methoden des MMU diesen Fragestellungen gegenüber gestellt werden. Am Beispiel des Toleranzmanagement wird dargestellt, wie ein MMU-Konzept für einen neuen Teilbereich des Entwicklungsprozesses erarbeitet werden kann. Dieses MMU-Konzept für den Einsatz im Toleranzmanagement besteht hierbei zu gleichen Teilen aus der Erweiterung bestehender Prozesse und Methoden durch MMU-Bestandteile als auch der Entwicklung neuer Methoden auf Grundlage der neuen MMU Möglichkeiten. An exemplarischen Beispielen entlang des Entwicklungsprozesses eines Automobilkonzerns wurde das hier erarbeitete Konzept in der Praxis ergiebig überprüft und bewertet.
  • Thumbnail Image
    ItemOpen Access
    Mikroservicearchitektur-basierte CFD-Simulation von Phänomenen Dynamischer Systeme am Beispiel moderner Bergbaubewetterung
    (Stuttgart : Höchstleistungsrechenzentrum, Universität Stuttgart, 2021) Cheptsov, Alexey; Resch, Michael (Prof. Dr.-Ing. Dr. h.c. Dr. h.c. Prof. E.h.)
    Es handelt sich in der Arbeit um Entwicklung neuartiger Ansätze zur strömungsdynamischen Simulation von Untertagebewetterungsobjekten.
  • Thumbnail Image
    ItemOpen Access
    Optimierte Zuteilungsmechanismen zur Leistungssteigerung von virtuellen Maschinen in Cloud Infrastrukturen
    (Stuttgart : Höchstleistungsrechenzentrum, Universität Stuttgart, 2020) Gienger, Michael; Resch, Michael M. (Prof. Dr.-Ing. Dr. h.c. Dr. h.c. Prof. E.h.)
    Cloud Computing ist ein flexibler und leistungsfähiger Ansatz, um Informationstechnologiedienste jeglicher Art zur Verfügung zu stellen. Die Dienste werden mit Hilfe einer Virtualisierungstechnologie bereitgestellt, über die auf einem einzigen Server mehrere virtuelle Instanzen dynamisch und ohne großen Managementaufwand verwaltet werden können. Dadurch können Serviceinstanzen mit limitierten Anforderungen auch leistungsstarken Servern zugeteilt werden, ohne deren Kapazitäten gänzlich zu blockieren. Der Vorteil effizienter Ressourcennutzung hat jedoch auch einen großen Nachteil. Aufgrund des gemeinsamen Ressourcenzugriffs können Prozessor, Hauptspeicher, Netzwerkschnittstelle oder auch lokale Festspeicher überlastet werden, so dass die gesamte Leistungsfähigkeit des Servers und damit aller virtuellen Instanzen sinkt. Ziel dieser Arbeit ist es, das Problem der Überlast in Cloud Umgebungen zu adressieren, um nachhaltig eine erhöhte Anwendungs- oder Diensteffizienz, aber auch eine verbesserte Infrastrukturauslastung, zu erreichen. Dementsprechend werden optimierte Zuteilungsstrategien für virtuelle Instanzen entwickelt, die anhand von spezifischen Anforderungsprofilen komplementäre Arbeitslasten identifizieren und diese effizient den vorhandenen Servern zuteilen können. Hierzu wird ein Mechanismus entwickelt, der sowohl initial mit Hilfe von Benutzerinformationen eine effektive Zuteilung ermöglicht, aber auch durch kontinuierliche Leistungsüberwachung von virtuellen Instanzen reaktiv eine optimale Zuteilung erreicht. Für die Bestimmung der Resultate dieser Arbeit wurde eine prototypische Anwendung implementiert, die die optimierten Zuteilungsstrategien umsetzt. Im Grundsatz basiert diese auf Anwendungscharakteristika und Echtzeitinformationen einer Cloud Infrastruktur, die vor der Bereitstellung einer virtuellen Instanz in Relation gesetzt werden. Somit kann für jede Server/Instanzkombination innerhalb der Cloud Umgebung ein Kostenfaktor berechnet werden, über den der optimale Server ausgewählt wird. Die entwickelte Lösung wurde mit Hilfe einer Anwendung aus dem Bereich Ingenieurswissenschaften in einer modifizierten, privaten Cloud Infrastruktur evaluiert und validiert. Dazu wurden individuelle Szenarien definiert, die sowohl herkömmliche als auch optimierte Zuteilungsmechanismen abbilden. Die gesammelten, realen Messwerte beinhalten folglich Referenzdaten sowie Daten von optimierten Zuteilungen, so dass eine hinreichende Datengrundlage für die Bewertung der Ergebnisse geschaffen werden kann. Die Resultate dieser Arbeit zeigen auf, dass der gewählte Ansatz die Leistungsfähigkeit einer Cloud Infrastruktur und deren Anwendungen deutlich verbessert. So kann bei gleichbleibender Infrastruktureffizienz die Anwendungsleistung durch die optimierte Zuteilung von virtuellen Instanzen um mehr als 20% gesteigert werden. Je nach Anwendungsanforderungen ist im Optimalfall sogar eine Leistungssteigerung um mehrere Faktoren möglich.
  • Thumbnail Image
    ItemOpen Access
    Hybrid deep learning approaches on HPC and quantum computing for data analysis
    (Stuttgart : Höchstleistungsrechenzentrum, Universität Stuttgart, 2024) Zhong, Li; Resch, Michael (Prof. Dr.-Ing. Dr. h.c. Dr. h.c. Prof. E.h.)
    This thesis explores the transformative role of machine learning, especially deep learning (DL), in engineering simulations, using material science as a key application area. By transitioning from human-driven to computer-analyzed simulations, DL can accelerate simulation workflows and enhance data insights. However, the computational and storage demands of DL present challenges that quantum computing might address. This research investigates how hybrid workflows, combining DL with quantum neural networks (QNNs), can improve tasks such as image classification and partial differential equation (PDE) solving.
  • Thumbnail Image
    ItemOpen Access
    Concepts for scalable molecular dynamics simulations on future HPC systems
    (Stuttgart : Höchstleistungsrechenzentrum, Universität Stuttgart, 2023) Niethammer, Christoph; Resch, Michael M. (Prof. Dr.-Ing. Dr. h.c. Dr. h.c. Prof. E.h.)
  • Thumbnail Image
    ItemOpen Access
    A methodology for validation of a radar simulation for virtual testing of autonomous driving
    (2023) Ngo, Anthony; Resch, Michael M. (Prof. Dr.)
    Autonomous driving offers great potential for reducing the number of accidents as well as optimizing traffic flow. The safety validation of such an autonomous system is an extremely difficult problem and new approaches are needed because the conventional statistical safety proof based on field testing is not feasible. The combination of real-world and simulation-based tests is a promising approach to significantly reduce the validation effort of autonomous driving. As environment sensors such as lidar, camera, and radar are key technologies for a self-driving vehicle, they have to be validated to be able to rely on virtual tests using synthetically generated sensor data. In particular, radar has traditionally been one of the most complex sensor to model. Since a sensor simulation is an approximation of the real sensor, a discrepancy between real sensor measurements and synthetic data can be assumed. However, there exists no systematic and sound method for validating a sensor model, especially for radar models. Therefore, this work makes several contributions to address this problem with the objective to gain an understanding of the capabilities and limitations of sensor simulation for virtual testing of autonomous driving. Considering that high fidelity radar simulations face challenges regarding the required execution time, a sensitivity analysis approach is introduced with the goal to identify the sensor effects that has the biggest impact on a downstream sensor data processing algorithm. In this way, the modeling effort can be focused on the most important components in terms of fidelity, while minimizing the overall computation time required. Furthermore, a novel machine learning-based metric is proposed for evaluating the accuracy of synthetic radar data. By learning the latent features that distinguish real and simulated radar point clouds, it can be demonstrated that the developed metric outperforms conventional metrics in terms of its capability to measure characteristic differences. Additionally, after training, this removes the need for real radar measurements as a reference to evaluate the fidelity of a sensor simulation. Moreover, a multi-layered evaluation approach is developed to measure the gap between radar simulation and reality, consisting of an explicit and an implicit sensor model evaluation. The former directly assesses the realism of the simulated data, whereas the latter refers to an evaluation of a subsequent perception application. It can be shown that by introducing multiple levels of evaluation, the existing discrepancies can be revealed in detail and the sensor model fidelity can be accurately measured across different scenarios in a holistic manner.