04 Fakultät Energie-, Verfahrens- und Biotechnik
Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/5
Browse
24 results
Search Results
Item Open Access Tensorgesteuerte Entwicklung biokompatibler Strukturen(2021) Däges, Johannes-MaximilianDie vorliegende Arbeit verfolgt den Ansatz einer Topologieoptimierung um würfelförmige Strukturen zu erstellen die ein vorgegebenes elastisches Verhalten haben. Hierzu wird die Methode der Homogenisierung nach G. P. Steven angewendet um aus einem gegeben Steifigkeitstenor Beschränkungen für eine Topologieoptimierung zu entwickeln. Zudem wurde die Mandel-Notation in die Homogenisierung eingebaut. Das langfristige Ziel ist es, Femurnägel aus vielen Einzelstrukturen zusammen zu setzen und so auftretendes Stress shielding im Femurknochen zu verringern. Die Ergebnisse verschiedener Konfigurationen sind durchaus vielversprechend und unterstützen eine weitere Untersuchung des Ansatzes.Item Open Access Interactive parallel post-processing of simulation results on unstructured grids(2014) Niebling, Florian; Resch, Michael (Prof. Dr.-Ing.)Numerical simulations and the assessment of their results are constantly gaining importance in product design and optimization workflows in many different fields of engineering. The availability of massively parallel manycore computing resources enables simulations to be executed with accuracies posing very high requirements on the methods for interactive post-processing of the simulation results. A traditional post-processing of such large-scale simulation datasets on single workstations is often no longer possible due to the limited resources such as main memory, the low number of compute cores and the available network bandwidth to the simulation cluster. In this work, concepts and solutions are presented that enable interactive post-processing of large-scale datasets generated by fluid dynamic simulations on unstructured grids through the use of parallel manycore environments. A software architecture the parallel post-processing and visualization, as well as specific optimizations of frequently used methods for post-processing are introduced that enable the interactive use of parallel manycore resources. The implementation of the methods and algorithms is based on existing manycore devices in the form of programmable graphics hardware, which are no longer solemnly usable for computer graphics applications, but are getting increasingly interesting for general purpose computing. It will be shown, that methods for visualization of fluid simulation data such as the interactive computation of cut-surfaces or particle traces is made possible even for large-scale unstructured data. Additionally, an algorithm for the dense texture-based visualization of flow fields will be introduced that combines the presented methods for the extraction of cut-surfaces, isosurfaces and particle tracing. This algorithm for line integral convolution enables the interactive post-processing of flow fields on partitioned and distributed unstructured grids. The methods introduced in this thesis are evaluated using several large-scale simulation datasets from different fields of engineering in scientific and industrial applications.Item Open Access Energieeffizienz von Prozessoren in High Performance Computinganwendungen der Ingenieurwissenschaften(Stuttgart : Höchstleistungsrechenzentrum, Universität Stuttgart, 2018) Khabi, Dmitry; Resch, Michael M. (Prof. Dr.-Ing. Dr. h.c. Dr. h.c. Prof. E.h.)Im Mittelpunkt dieser Arbeit steht die Frage nach Energieeffizienz im Hochleistungsrechnen (HPC) mit Schwerpunkt auf Zusammenhänge zwischen der elektrischen Leistung der Prozessoren und deren Rechenleistung. In Kapitel 1, Einleitung der folgenden Abhandlungen, werden die Motivation und der Stand der Technik auf dem Gebiet der Strommessung und der Energieeffizienz im HPC und dessen Komponenten erläutert. In den Folgenden Kapiteln 2 und 3 wird eine am Höchstleistungsrechenzentrum Stuttgart (HLRS) entwickelte Messtechnik detailliert diskutiert, die für die Strommessungen im Testcluster angewendet wird. Das Messverfahren der unterschiedlichen Hardwarekomponenten und die Abhängigkeit zwischen deren Stromversorgung, Messgenauigkeit und Messfrequenz werden dargelegt. Im Kapitel 4 der Arbeit beschreibe ich, welchen Zusammenhang es zwischen dem Stromverbrauch eines Prozessors, dessen Konfiguration und darauf ausgeführten Algorithmen gibt. Der Fokus liegt dabei auf den Zusammenhängen zwischen CPU-Frequenz, Grad der Parallelisierung, Rechenleistung und elektrischer Leistung. Für den Effizienzvergleich zwischen den Prozessoren und Algorithmen benutze ich ein Verfahren, das auf eine Approximation in der analytischen Form der Rechen- und der elektrischen Leistung der Prozessoren basiert. In diesem Kapitel wird außerdem gezeigt, dass die Koeffizienten der Approximation, die mehrere Hinweise auf Software und Hardware-Eigenschaften geben, als Basis für die Ausarbeitung eines erweiterten Modells dienen können. Wie im weiteren Verlauf gezeigt wird, berücksichtigen die existierenden Modelle der Rechen- und der elektrischen Leistung nur zum Teil die unterschiedlichen Frequenz-Domains der Hardwarekomponenten. Im Kapitel 5 wird eine Erweiterung des existierenden Modells der Rechenleistung erläutert, mit dessen Hilfe die entsprechenden neuen Eigenschaften der CPU-Architektur teilweise erklärt werden könnten. Die daraus gewonnenen Erkenntnisse sollen helfen, ein Modell zu entwickeln, das sowohl die Rechen- als auch die elektrische Leistung beschreibt. In Kapitel 6 beschreibe ich die Problemstellung der Energieeffizienz eines Hochleistungsrechners. Unter anderem werden die in dieser Arbeit entwickelten Methoden auf eine HPC-Platform evaluiert.Item Open Access Analyse kontinuumsmechanischer, anisotroper Materialparameter mikrostrukturierter Volumina mit Hilfe direkter mechanischer Simulation(Stuttgart : Höchstleistungsrechenzentrum, Universität Stuttgart, 2016) Schneider, Ralf; Resch, Michael M. (Prof. Dr.- Ing. Dr. h.c. Dr. h.c. Prof. E.h.)In Kapitel 1, Einleitung der folgenden Abhandlung, werden zunächst die Motivation für die durchgeführten Untersuchungen, der Stand der Technik auf dem Gebiet der kontinuumsmechanischen Materialdatenermittlung von mikrostrukturiertem bzw. im hier bearbeiteten, speziellen Fall von spongiösem Knochenmaterial sowie die Ziele der Arbeit dargelegt. Im folgenden Kapitel 2, Grundlagen, werden die mathematischen und technischen Prinzipien erläutert, die als Basis für die im Rahmen der Arbeit erfolgten Entwicklungen dienten. Hierzu zählen Grundlagen der Elastizitätstheorie, der Methode der Finiten Elemente (FEM), der multivariaten Statistik sowie die Erläuterung der Prinzipien der Computertomographie (CT). In Kapitel 3, Direkter mechanischer Ansatz zur Berechnung von elastischen Eigenschaften mikrostrukturierter Volumina, wird die Theorie der direkten mechanischen Simulation zur Bestimmung effektiver Materialparameter mikrostrukturierter Volumina auf Kontinuumsebene dargelegt. Da die von Hill entwickelte [1], klassische bzw. im folgenden als analytische Methode bezeichnete Vorgehensweise aus Sicht des Verfassers die Schwäche aufweist, dass die mit ihrer Hilfe berechneten Materialdaten von der Wahl der Randbedingungen abhängen, wird im gleichen Kapitel eine Erweiterung der Methode vorgeschlagen, die zur Berechnung der effektiven numerischen Steifigkeit mikrostrukturierter Volumina führt. Die effektive numerische Steifigkeit wird mit Hilfe der FEM abgeleitet, wodurch die entstehenden effektiven Steifigkeitseigenschaften direkt zum Einsatz mit dieser Methode geeignet sind. In Kapitel 4, Gewebeproben und Datensätze, werden die Parameter der mit Hilfe von Mikrofokus Computertomographien (μ-CT) und klinischer Computertomographie (k-CT) erhobenen Volumendatensätze angegeben. Als Basisdatensatz für die Entwicklung und erste Analyse der Implementierung sowie der, dieser Arbeit zu Grunde liegenden, Konzepte wird der μ-CT-Volumendatensatz eines menschlichen Femurkopfes verwendet. Der Femurkopf wurde im Rahmen der Implantation einer Totalhüftendoprothese in der Klinik für Unfallchirurgie und Orthopädie des Universitätsklinikum Freiburg entnommen. Der Volumendatensatz wurde nach der Entnahme durch das Institut für Bauweisen und Strukturtechnologie des Deutschen Zentrums für Luft- und Raumfahrt (DLR) Stuttgart erstellt. In diesem Kapitel werden desweiteren ausgezeichnete Bereiche des μ-CT-Datensatzes beschrieben, die im Verlauf der Arbeit zu Analysen herangezogen werden. In Kapitel 5, Implementierung, wird eine Prozesskette beschrieben, welche es ermöglicht, aus μ-CT-Datensätzen ganzer Knochenbereiche mit Hilfe direkter, mechanischer Simulation das Feld der linear elastischen Materialeigenschaften sowie das Feld der numerischen effektiven Steifigkeitsmatrizen auf Kontinuumsebene zu berechnen. Ein durch μ-CT gewonnener Datensatz kann in virtuelle Proben beliebiger Größe und Form zerlegt werden. Durch das Vorgehen ist es somit möglich, die Auflösung kontinuumsmechanischer Materialdaten entsprechend der Auflösung des verwendeten kontinuumsmechanischen Berechnungsgitters anzupassen. Als zentrales Glied der Prozesskette wird das Finite Elemente Programmsystem FMPS [2] verwendet. Die vorgelagerten Programme wie Gebietszerlegung und Geometrieextraktion sowie die nachfolgenden Berechnungen der effektiven Materialparameter wurden durch eigene Implementierungen realisiert. Im Hinblick auf die reibungslose Ausführung der Prozesskette auf den Ressourcen des High Performance Computing Center Stuttgart (HLRS) wurde ein für alle Teile der Kette gemeinsames Datenformat entwickelt, welches auch in FMPS integriert wurde. Das Datenformat zeichnet sich im wesentlichen durch die einfache Benutzbarkeit im Zusammenhang mit paralleler Ein- und Ausgabe (E/A), durch einen von den eigentlichen Daten unabhängigen Index sowie seine allgemeine Benutzbarkeit aus. In diesem Kapitel wird des weiteren die Kopplung zwischen FMPS, einem monolithischen Fortran 77 Softwarepaket mit tiefer Aufrufstruktur und der C++ Löserbibliothek PETSc [3] erläutert. Diese Entwicklung war notwendig, um auch Auflösungen der effektiven Materialparameter mit Gitterzellen größer als 2,4mm effektiv berechnen zu können. In Kapitel 6, Ergebnisse, werden die Analysen der auf unterschiedlichen Auflösungsstufen berechneten Datenfelder der effektiven Steifigkeit und deren Zusammenhang mit strukturbeschreibenden Parametern auf kontinuumsmechanischer Ebene diskutiert. Die erzeugten Felder der effektiven Steifigkeit werden mit Hilfe multivariater Methoden analysiert, und es wird gezeigt, dass eine wesentliche Reduktion deren 21-dimensionalen Parameterraumes möglich ist. Abschließend werden erste Vergleiche zwischen kontinuumsmechanischen Berechnungsergebnissen, die mit Hilfe der berechneten effektiven Steifigkeitsmatrizen erzeugt wurden, und Ergebnissen aus mikromechanischen Simulationen größerer Knochenbereiche, dargestellt und erläutert. Es wird gezeigt, dass es Zusammenhänge zwischen den Ergebnissen dieser beiden Skalen gibt und dass diese Zusammenhänge in Abhängigkeit der Porengröße der Spongiosa nichtlineares Verhalten annehmen.Item Open Access Entwicklung von Simulationsmethoden und Visualisierungsverfahren in der virtuellen Realität zur Unterstützung der Produktentstehung in der Gießtechnik(2009) Rost, Michael; Resch, Michael M. (Prof. Dr.-Ing.)Die Arbeit ist aus dem Gebiet der Produktentstehung der Gießtechnik und der virtuellen Produktentstehung. Die Unterstützung der simultanen Arbeitsabläufe in der Produktentstehung der Gießtechnik kann durch die Entwicklung bzw. Weiterentwicklung von Methoden, Verfahren und Werkzeugen der virtuellen Produktentstehung verbessert werden. Daher ist die Zielsetzung dieser Arbeit die Entwicklung von Simulationsmethoden und Visualisierungsverfahren in der virtuellen Realität (VR) zur Unterstützung der Produktentstehung in der Gießtechnik. Um die Zielsetzung dieser Arbeit zu erreichen, wird zuerst der Stand der Technik in der Produktentstehung und in der virtuellen Produktentstehung ausführlich herausgearbeitet. Zur Vorbereitung der Analyse werden die Arbeitsverfahren, -methoden und –werkzeuge der Produktentstehung der Gießtechnik erarbeitet. Das Ergebnis ist die Darstellung der Verknüpfungen der Produktentstehungsprozesse, die durch die gegenseitigen Wechselwirkungen hervorgerufen werden. Die Produktentstehungsprozesse beschreiben die Tätigkeiten in der Produktentstehung der Gießtechnik. Für die Vorbereitung der Entwicklung von Simulationsmethoden und Visualisierungsverfahren werden die Produktentstehungsprozesse analysiert. Dazu werden die beiden Kriterien Aufgabenspektrum und Kommunikationsfähigkeit eingeführt. Hinsichtlich dieser beiden Kriterien erfolgt die Herleitung von Verbesserungspotentialen für einige Produktentstehungsprozesse auf Basis der gegenseitigen Verknüpfungen. Parallel dazu werden aus den Produktentstehungsprozessen und den Verknüpfungen technische Produktentstehungssysteme gebildet. Kernpunkt bei der Systembildung ist die Zuordnung der Anwendungssoftwaresysteme sowie der Ein- und Ausgangsgrößen. In den Produktentstehungssystemen geschieht die Ableitung der Prozesse. Die Prozesse bilden die Grundlage für die Analyse der Potentialerfüllung zu den beiden Kriterien Aufgabenspektrum und Kommunikationsfähigkeit. Die Analyse ergibt in einigen Prozessen Verbesserungspotentiale für die Visualisierung der Ergebnisgrößen sowie die Erkenntnis, dass Aufgaben zur Kinematiksimulation in dem bestehenden Tätigkeitsspektrum der Gießtechnik nicht erarbeitet werden können. Zur Prüfung der Realisierbarkeit der Verbesserungspotentiale werden die Analyseergebnisse der verknüpften Produktentstehungsprozesse mit denen der Prozesse der Produktentstehungssysteme verglichen, die sich auf dieselben Tätigkeiten stützen. Der Vergleich zeigt Übereinstimmung beim Kriterium Aufgabenspektrum und Unterschiede beim Kriterium Kommunikationsfähigkeit. Die Unterschiede beim Kriterium Kommunikationsfähigkeit betreffen Verbesserungspotentiale für zwei weitere Tätigkeiten, basierend auf der Analyse der Produktentstehungsprozesse und deren Verknüpfungen. Da durch diese beiden Tätigkeiten keine nennenswerte Umsetzung von digitalen Ergebnissen erfolgt, werden sie zur Verbesserung des Kriteriums Kommunikationsfähigkeit an diesem Punkt der Arbeit nicht berücksichtigt. Ein Analyseergebnis ist die Entscheidung zur Erhöhung des Erfüllungsgrads des Kriteriums Aufgabenspektrum durch die Entwicklung von Simulationsmethoden für die Tätigkeit Kinematiksimulation von Fertigungssystemen. Ein weiteres Ergebnis ist die Entscheidung zur Erhöhung des Erfüllungsgrads des Kriteriums Kommunikationsfähigkeit durch die Entwicklung von Visualisierungsverfahren in der virtuellen Realität für bestimmte Tätigkeiten der Produktentstehung der Gießtechnik. Ziel dieser Entwicklungen ist die Erweiterung der Simulations- und Visualisierungskompetenz in der Produktentstehung der Gießtechnik. Den Abschluss dieser Arbeitet bildet die Formulierung eines Anforderungsprofils an die Einbindung der virtuellen Realität in die Produktentstehung der Gießtechnik in Form von Funktionen auf Basis der zuvor erarbeiteten Ergebnisse. Aus diesen Funktionen geht hervor, dass die Notwendigkeit zur Verwendung und Visualisierung von Informationen für die Erhöhung der Analysefähigkeit in der virtuellen Realität besteht. Zur Festlegung der Informationsquellen kommen die Tätigkeiten in Betracht, von denen aufgrund der Analyse potentialbehaftete Verknüpfungen ausgehen. Für diese Tätigkeiten wird ein Informationsmanagement-System entwickelt. Im weiteren Verlauf werden die abgeleiteten bzw. entwickelten Funktionen größtenteils tätigkeitsneutral verallgemeinert und anschließend in übergeordneten Funktionskategorien zusammengefasst. Das Ergebnis ist die Beschreibung der Visualisierung von Daten und Informationen aus der Produktentstehung der Gießtechnik in der virtuellen Realität im Gesamtsystem Visualisierung. Die Beschreibung der Visualisierung begründet sich auf die Funktionskategorien, die in den Produktentstehungssystemen dieser Arbeit verankert sind. Die Funktionskategorien stellen die Verbindungen zu den zuvor erarbeiteten Ergebnissen dieser Arbeit her. Die Ergebnisse dieser Arbeit bilden die Grundlage für die Realisierung des Gesamtsystems Visualisierung. Die erfolgreiche Realisierung des Gesamtsystems Visualisierung befähigt zur Durchführung eines VR-basierten Projektmanagements in der Produktentstehung der Gießtechnik. Die Durchführung des VR-basierten Projektmanagements wird eine verbesserte Unterstützung der Produktentstehung der Gießtechnik durch die in dieser Arbeit entwickelten Methoden und Verfahren aus dem Gebiet der virtuellen Produktentstehung erzielen.Item Open Access A light weighted semi-automatically I/O-tuning solution for engineering applications(Stuttgart : Höchstleistungsrechenzentrum, Universität Stuttgart, 2017) Wang, Xuan; Resch, Michael M. (Prof. Dr.-Ing. Dr. h.c. Dr. h.c. Prof. E.h.)Today’s engineering applications running on high performance computing (HPC) platforms generate more and more diverse data simultaneously and require large storage systems as well as extremely high data transfer rates to store their data. To achieve high performance data transfer rate (I/O performance), computer scientists together with HPC manufacturers have developed a lot of innovative solutions. However, how to transfer the knowledge of their solutions to engineers and scientists has become one of the largest barriers. Since the engineers and scientists are experts in their own professional areas, they might not be capable of tuning their applications to the optimal level. Sometimes they might even drop down the I/O performance by mistake. The basic training courses provided by computing centers like HLRS seem to be not sufficient enough to transfer the know-how required. In order to overcome this barrier, I have developed a semi-automatically I/O-tuning solution (SAIO) for engineering applications. SAIO, a light weighted and intelligent framework, is designed to be compatible with as many engineering applications as possible, scalable with large engineering applications, usable for engineers and scientists with little knowledge of parallel I/O, and portable across multiple HPC platforms. Standing upon MPI-IO library allows SAIO to be compatible with MPI-IO based high level I/O libraries, such as parallel HDF5, parallel NetCDF, as well as proprietary and open source software, like Ansys Fluent, WRF Model etc. In addition, SAIO follows current MPI standard, which makes it be portable across many HPC platforms and scalable. SAIO, which is implemented as dynamic library and loaded dynamically, does not require recompiling or changing application's source codes. By simply adding several export directives into their job submission scripts, engineers and scientists will be able to run their jobs more efficiently. Furthermore, an automated SAIO training utility keeps the optimal configurations up to date, without any manuell efforts of user involved.Item Open Access Model-centric task debugging at scale(Stuttgart : Höchstleistungsrechenzentrum, Universität Stuttgart, 2017) Nachtmann, Mathias; Resch, Michael (Prof. Dr.-Ing. Dr. h.c. Dr. h.c. Prof. E.h.)Chapter 1, Introduction, presents state of the art debugging techniques in high-performance computing. The lack of information out of the programming model, these traditional debugging tools suffer, motivated the model-centric debugging approach. Chapter 2, Technical Background: Parallel Programming Models & Tools, exemplifies the programming models used in the scope of my work. The differences between those models are illustrated, and for the most popular programming models in HPC, examples are attached in this chapter. The chapter also describes Temanejo, the toolchain's front-end, which supports the application developer during his actions. In the following chapter (Chapter 4), Design: Events & Requests in Ayudame, the theory of task" and dependency" representation is stated. The chapter includes the design of different information types, which are later on used for the communication between a programming model and the model-centric debugging approach. In chapter 5, Design: Communication Back-end Ayudame, the design of the back-end tool infrastructure is described in detail. This also includes the problems occurring during the design process and their specific solutions. The concept of a multi-process environment and the usage of different programming models at the same time is also part of this chapter. The following chapter (Chapter 6), Instrumentation of Runtime Systems, briefly describes the information exchange between a programming model and the model-centric debugging approach. The different ways of monitoring and controlling an application through its programming model are illustrated. In chapter 7, Case Study: Performance Debugging, the model-centric debugging approach is used for optimising an application. All necessary optimisation steps are described in detail, with the help of mock-ups. Additionally, a description of the different optimised versions is included in this chapter. The evaluation, done on different hardware architectures, is presented and discussed. This includes not only the behaviour of the versions on different platforms but also architecture specific issues.Item Open Access Simulationsgestützte Absicherung von Fahrerassistenzsystemen(2018) Feilhauer, Marius; Resch, Michael M. (Prof. Dr.-Ing. Dr. h.c. Dr. h.c. Prof. E.h.)Item Open Access AMMU Automotive Mixed Mock-Up: Konzeption einer neuen Entwicklungsplattform für die Automobilindustrie(2012) Geißel, Oliver; Resch, Michael (Prof. Dr.-Ing. Dr. h.c. Dr. h.c.)Vor dem Hintergrund der großen Herausforderungen der Automobilindustrie zu Beginn des 21. Jahrhunderts beschäftigt sich diese Arbeit mit den Potentialen der Informationstechnologie, im speziellen der Mixed Reality, hinsichtlich der Anpassung von Methoden und Prozessen innerhalb der Produktentwicklung an die aktuellen Herausforderungen. Mit der Einführung von Mixed Reality in den Produktentwicklungsprozess wurde im Rahmen dieser Arbeit den Herausforderungen innerhalb der automobilen Entwicklung begegnet. Im Gegensatz zu bisherigen Arbeiten auf diesem Themengebiet wurde dabei erstmals der systematische Einsatz von Mixed Reality in praktischen Anwendungen über den gesamten Produktentwicklungsprozess betrachtet und bewertet. Ausgehend von der Einführung der neuen Technologie befasst sich diese Arbeit übergreifend über sämtliche Phasen der Produktentwicklung mit der Wirkung der Technologieimplementierung auf die Prozesse innerhalb der Produktentwicklung. Ein spezielles Augenmerk liegt hierbei auf dem Informations- und Wissenstransfers zwischen den einzelnen Organisationseinheiten – insbesondere der Erfahrungs- und Erkenntnisaustausch zwischen virtuellen und hardwareseitigen Entwicklungsschritten. In Form der neu geschaffenen Entwicklungsplattform Automotive Mixed Mock-Up konnten den verschiedenen Entwicklungsdisziplinen dabei erstmals in jeder Phase der Produktentwicklung hybride Prototypen zur Verfügung gestellt werden, welche sowohl den aktuellsten Entwicklungsstand der Hardware (Physical Mock-Up) als auch der virtuellen Prototypen (Digital Mock-Up) repräsentieren. Diese neuartige Entwicklungsplattform bildet die Basis für neue Ansätze bei verschiedensten Festlegungs- und Absicherungsaktivitäten in den einzelnen Entwicklungsphasen, von den ersten digitalen Konzepten bis zum Anlauf der Produktion im Zielwerk. Diese Arbeit stellt dar, wie durch die Bereitstellung einer eindeutigen, visuellen Schnittstelle zwischen virtueller und hardwareseitiger Produktentwicklung in Form des automotive Mixed Mock-Ups eine Neuausrichtung bzw. Anpassung bestehender Prozesse an neue und zukünftige Anforderungen ermöglicht wird.Item Open Access Communication methods for hierarchical global address models in HPC(Stuttgart : Höchstleistungsrechenzentrum, Universität Stuttgart, 2016) Zhou, Huan; Resch, Michael (Prof. Dr.-Ing. Dr. h.c. Dr. h.c. Prof. E.h.)
- «
- 1 (current)
- 2
- 3
- »