Universität Stuttgart
Permanent URI for this communityhttps://elib.uni-stuttgart.de/handle/11682/1
Browse
19 results
Search Results
Item Open Access Process migration in a parallel environment(Stuttgart : Höchstleistungsrechenzentrum, Universität Stuttgart, 2016) Reber, Adrian; Resch, Michael (Prof. Dr.- Ing. Dr. h.c. Dr. h.c. Prof. E.h.)To satisfy the ever increasing demand for computational resources, high performance computing systems are becoming larger and larger. Unfortunately, the tools supporting system management tasks are only slowly adapting to the increase in components in computational clusters. Virtualization provides concepts which make system management tasks easier to implement by providing more flexibility for system administrators. With the help of virtual machine migration, the point in time for certain system management tasks like hardware or software upgrades no longer depends on the usage of the physical hardware. The flexibility to migrate a running virtual machine without significant interruption to the provided service makes it possible to perform system management tasks at the optimal point in time. In most high performance computing systems, however, virtualization is still not implemented. The reason for avoiding virtualization in high performance computing is that there is still an overhead accessing the CPU and I/O devices. This overhead continually decreases and there are different kind of virtualization techniques like para-virtualization and container-based virtualization which minimize this overhead further. With the CPU being one of the primary resources in high performance computing, this work proposes to migrate processes instead of virtual machines thus avoiding any overhead. Process migration can either be seen as an extension to pre-emptive multitasking over system boundaries or as a special form of checkpointing and restarting. In the scope of this work process migration is based on checkpointing and restarting as it is already an established technique in the field of fault tolerance. From the existing checkpointing and restarting implementations, the best suited implementation for process migration purposes was selected. One of the important requirements of the checkpointing and restarting implementation is transparency. Providing transparent process migration is important enable the migration of any process without prerequisites like re-compilation or running in a specially prepared environment. With process migration based on checkpointing and restarting, the next step towards providing process migration in a high performance computing environment is to support the migration of parallel processes. Using MPI is a common method of parallelizing applications and therefore process migration has to be integrated with an MPI implementation. The previously selected checkpointing and restarting implementation was integrated in an MPI implementation, and thus enabling the migration of parallel processes. With the help of different test cases the implemented process migration was analyzed, especially in regards to the time required to migrated a process and the advantages of optimizations to reduce the process’ downtime during migration.Item Open Access Interactive parallel post-processing of simulation results on unstructured grids(2014) Niebling, Florian; Resch, Michael (Prof. Dr.-Ing.)Numerical simulations and the assessment of their results are constantly gaining importance in product design and optimization workflows in many different fields of engineering. The availability of massively parallel manycore computing resources enables simulations to be executed with accuracies posing very high requirements on the methods for interactive post-processing of the simulation results. A traditional post-processing of such large-scale simulation datasets on single workstations is often no longer possible due to the limited resources such as main memory, the low number of compute cores and the available network bandwidth to the simulation cluster. In this work, concepts and solutions are presented that enable interactive post-processing of large-scale datasets generated by fluid dynamic simulations on unstructured grids through the use of parallel manycore environments. A software architecture the parallel post-processing and visualization, as well as specific optimizations of frequently used methods for post-processing are introduced that enable the interactive use of parallel manycore resources. The implementation of the methods and algorithms is based on existing manycore devices in the form of programmable graphics hardware, which are no longer solemnly usable for computer graphics applications, but are getting increasingly interesting for general purpose computing. It will be shown, that methods for visualization of fluid simulation data such as the interactive computation of cut-surfaces or particle traces is made possible even for large-scale unstructured data. Additionally, an algorithm for the dense texture-based visualization of flow fields will be introduced that combines the presented methods for the extraction of cut-surfaces, isosurfaces and particle tracing. This algorithm for line integral convolution enables the interactive post-processing of flow fields on partitioned and distributed unstructured grids. The methods introduced in this thesis are evaluated using several large-scale simulation datasets from different fields of engineering in scientific and industrial applications.Item Open Access Analyse kontinuumsmechanischer, anisotroper Materialparameter mikrostrukturierter Volumina mit Hilfe direkter mechanischer Simulation(Stuttgart : Höchstleistungsrechenzentrum, Universität Stuttgart, 2016) Schneider, Ralf; Resch, Michael M. (Prof. Dr.- Ing. Dr. h.c. Dr. h.c. Prof. E.h.)In Kapitel 1, Einleitung der folgenden Abhandlung, werden zunächst die Motivation für die durchgeführten Untersuchungen, der Stand der Technik auf dem Gebiet der kontinuumsmechanischen Materialdatenermittlung von mikrostrukturiertem bzw. im hier bearbeiteten, speziellen Fall von spongiösem Knochenmaterial sowie die Ziele der Arbeit dargelegt. Im folgenden Kapitel 2, Grundlagen, werden die mathematischen und technischen Prinzipien erläutert, die als Basis für die im Rahmen der Arbeit erfolgten Entwicklungen dienten. Hierzu zählen Grundlagen der Elastizitätstheorie, der Methode der Finiten Elemente (FEM), der multivariaten Statistik sowie die Erläuterung der Prinzipien der Computertomographie (CT). In Kapitel 3, Direkter mechanischer Ansatz zur Berechnung von elastischen Eigenschaften mikrostrukturierter Volumina, wird die Theorie der direkten mechanischen Simulation zur Bestimmung effektiver Materialparameter mikrostrukturierter Volumina auf Kontinuumsebene dargelegt. Da die von Hill entwickelte [1], klassische bzw. im folgenden als analytische Methode bezeichnete Vorgehensweise aus Sicht des Verfassers die Schwäche aufweist, dass die mit ihrer Hilfe berechneten Materialdaten von der Wahl der Randbedingungen abhängen, wird im gleichen Kapitel eine Erweiterung der Methode vorgeschlagen, die zur Berechnung der effektiven numerischen Steifigkeit mikrostrukturierter Volumina führt. Die effektive numerische Steifigkeit wird mit Hilfe der FEM abgeleitet, wodurch die entstehenden effektiven Steifigkeitseigenschaften direkt zum Einsatz mit dieser Methode geeignet sind. In Kapitel 4, Gewebeproben und Datensätze, werden die Parameter der mit Hilfe von Mikrofokus Computertomographien (μ-CT) und klinischer Computertomographie (k-CT) erhobenen Volumendatensätze angegeben. Als Basisdatensatz für die Entwicklung und erste Analyse der Implementierung sowie der, dieser Arbeit zu Grunde liegenden, Konzepte wird der μ-CT-Volumendatensatz eines menschlichen Femurkopfes verwendet. Der Femurkopf wurde im Rahmen der Implantation einer Totalhüftendoprothese in der Klinik für Unfallchirurgie und Orthopädie des Universitätsklinikum Freiburg entnommen. Der Volumendatensatz wurde nach der Entnahme durch das Institut für Bauweisen und Strukturtechnologie des Deutschen Zentrums für Luft- und Raumfahrt (DLR) Stuttgart erstellt. In diesem Kapitel werden desweiteren ausgezeichnete Bereiche des μ-CT-Datensatzes beschrieben, die im Verlauf der Arbeit zu Analysen herangezogen werden. In Kapitel 5, Implementierung, wird eine Prozesskette beschrieben, welche es ermöglicht, aus μ-CT-Datensätzen ganzer Knochenbereiche mit Hilfe direkter, mechanischer Simulation das Feld der linear elastischen Materialeigenschaften sowie das Feld der numerischen effektiven Steifigkeitsmatrizen auf Kontinuumsebene zu berechnen. Ein durch μ-CT gewonnener Datensatz kann in virtuelle Proben beliebiger Größe und Form zerlegt werden. Durch das Vorgehen ist es somit möglich, die Auflösung kontinuumsmechanischer Materialdaten entsprechend der Auflösung des verwendeten kontinuumsmechanischen Berechnungsgitters anzupassen. Als zentrales Glied der Prozesskette wird das Finite Elemente Programmsystem FMPS [2] verwendet. Die vorgelagerten Programme wie Gebietszerlegung und Geometrieextraktion sowie die nachfolgenden Berechnungen der effektiven Materialparameter wurden durch eigene Implementierungen realisiert. Im Hinblick auf die reibungslose Ausführung der Prozesskette auf den Ressourcen des High Performance Computing Center Stuttgart (HLRS) wurde ein für alle Teile der Kette gemeinsames Datenformat entwickelt, welches auch in FMPS integriert wurde. Das Datenformat zeichnet sich im wesentlichen durch die einfache Benutzbarkeit im Zusammenhang mit paralleler Ein- und Ausgabe (E/A), durch einen von den eigentlichen Daten unabhängigen Index sowie seine allgemeine Benutzbarkeit aus. In diesem Kapitel wird des weiteren die Kopplung zwischen FMPS, einem monolithischen Fortran 77 Softwarepaket mit tiefer Aufrufstruktur und der C++ Löserbibliothek PETSc [3] erläutert. Diese Entwicklung war notwendig, um auch Auflösungen der effektiven Materialparameter mit Gitterzellen größer als 2,4mm effektiv berechnen zu können. In Kapitel 6, Ergebnisse, werden die Analysen der auf unterschiedlichen Auflösungsstufen berechneten Datenfelder der effektiven Steifigkeit und deren Zusammenhang mit strukturbeschreibenden Parametern auf kontinuumsmechanischer Ebene diskutiert. Die erzeugten Felder der effektiven Steifigkeit werden mit Hilfe multivariater Methoden analysiert, und es wird gezeigt, dass eine wesentliche Reduktion deren 21-dimensionalen Parameterraumes möglich ist. Abschließend werden erste Vergleiche zwischen kontinuumsmechanischen Berechnungsergebnissen, die mit Hilfe der berechneten effektiven Steifigkeitsmatrizen erzeugt wurden, und Ergebnissen aus mikromechanischen Simulationen größerer Knochenbereiche, dargestellt und erläutert. Es wird gezeigt, dass es Zusammenhänge zwischen den Ergebnissen dieser beiden Skalen gibt und dass diese Zusammenhänge in Abhängigkeit der Porengröße der Spongiosa nichtlineares Verhalten annehmen.Item Open Access Increased flexibility and dynamics in distributed applications and processes through resource decoupling(2014) Kipp, Alexander; Resch, Michael (Prof. Dr.-Ing.)Continuously increasing complexity of products and services requires more and more specialised expertise as well as relevant support by specialised IT tools and services. However, these services require expert knowledge as well, particularly in order to apply and use these services and tools in an efficient and optimal way. To this end, this thesis introduces a new virtualisation approach, allowing for both, the transparent integration of services in abstract process description languages, as well as the role based integration of human experts in this processes. The developed concept of this thesis has been realised by: - Enhancing the concept of web services with a service virtualisation layer, allowing for the transparent usage, adaptation and orchestration of services - Enhancing the developed concept towards a “Dynamic Session Management” environment, enabling the transparent and role-based integration of human experts following the SOA paradigm - Developing a collaboration schema, allowing for setting up and steering synchronous collaboration sessions between human experts. This enhancement also considers the respective user context and provides the best suitable IT based tooling support. The developed concept has been applied to scientific and economic application fields with a respective reference realisation.Item Open Access AMMU Automotive Mixed Mock-Up: Konzeption einer neuen Entwicklungsplattform für die Automobilindustrie(2012) Geißel, Oliver; Resch, Michael (Prof. Dr.-Ing. Dr. h.c. Dr. h.c.)Vor dem Hintergrund der großen Herausforderungen der Automobilindustrie zu Beginn des 21. Jahrhunderts beschäftigt sich diese Arbeit mit den Potentialen der Informationstechnologie, im speziellen der Mixed Reality, hinsichtlich der Anpassung von Methoden und Prozessen innerhalb der Produktentwicklung an die aktuellen Herausforderungen. Mit der Einführung von Mixed Reality in den Produktentwicklungsprozess wurde im Rahmen dieser Arbeit den Herausforderungen innerhalb der automobilen Entwicklung begegnet. Im Gegensatz zu bisherigen Arbeiten auf diesem Themengebiet wurde dabei erstmals der systematische Einsatz von Mixed Reality in praktischen Anwendungen über den gesamten Produktentwicklungsprozess betrachtet und bewertet. Ausgehend von der Einführung der neuen Technologie befasst sich diese Arbeit übergreifend über sämtliche Phasen der Produktentwicklung mit der Wirkung der Technologieimplementierung auf die Prozesse innerhalb der Produktentwicklung. Ein spezielles Augenmerk liegt hierbei auf dem Informations- und Wissenstransfers zwischen den einzelnen Organisationseinheiten – insbesondere der Erfahrungs- und Erkenntnisaustausch zwischen virtuellen und hardwareseitigen Entwicklungsschritten. In Form der neu geschaffenen Entwicklungsplattform Automotive Mixed Mock-Up konnten den verschiedenen Entwicklungsdisziplinen dabei erstmals in jeder Phase der Produktentwicklung hybride Prototypen zur Verfügung gestellt werden, welche sowohl den aktuellsten Entwicklungsstand der Hardware (Physical Mock-Up) als auch der virtuellen Prototypen (Digital Mock-Up) repräsentieren. Diese neuartige Entwicklungsplattform bildet die Basis für neue Ansätze bei verschiedensten Festlegungs- und Absicherungsaktivitäten in den einzelnen Entwicklungsphasen, von den ersten digitalen Konzepten bis zum Anlauf der Produktion im Zielwerk. Diese Arbeit stellt dar, wie durch die Bereitstellung einer eindeutigen, visuellen Schnittstelle zwischen virtueller und hardwareseitiger Produktentwicklung in Form des automotive Mixed Mock-Ups eine Neuausrichtung bzw. Anpassung bestehender Prozesse an neue und zukünftige Anforderungen ermöglicht wird.Item Open Access Service level agreements for job submission and scheduling in high performance computing(2014) Kübert, Roland; Resch, Michael (Prof. Dr.-Ing.)This thesis introduces the concept of long-term service level agreements for the offering of quality of service in high performance computing. Feasiblity of the approach is demonstrated by a proof of concept implementation. A simulation tool developed in the scope of this thesis is subsequently used to investigate sensible parameters for quality of service classes in the high performance computing domain.Item Open Access Enhanced SLA management in the high performance computing domain(2011) Koller, Bastian; Resch, Michael (Prof. Dr.-Ing. Dr. h.c.)This thesis describes a Service Level Agreement Schema for the High Performance Computing domain and the according architecture to allow for SLA Management, which are both developed on base of three different use cases.Item Open Access Virtuelle und hybride Prototypen in kooperativen Arbeitsumgebungen(2009) Wössner, Uwe; Resch, Michael (Prof. Dr.-Ing)Derzeit sieht der Einsatz von Simulationen in der Produktentwicklung häufig wie folgt aus: Ein Konstrukteur erstellt die einzelnen Bauteile ausgehend von ähnlichen früheren Produkten und dimensioniert sie anhand einfacher Formeln oder Tabellen. Soll das Produkt mit Hilfe numerischer Simulationen optimiert werden, wird die Konstruktion an eine andere Abteilung oder ein externes Ingenieurbüro übergeben. Dort werden die CAD Konstruktionen konvertiert, Berechnungsgitter erstellt und die Simulation durchgeführt und im Anschluss ausgewer-tet. Dieser Prozess dauert im günstigsten Fall mehrere Tage, bei aufwändigen Simulationen auch mehrere Wochen. Der Konstrukteur bekommt die Ergebnisse der Simulation in Form eines Berichtes mitgeteilt. Aus diesem Bericht werden dann Änderungen der Konstruktion abgeleitet und umgesetzt. Aus Zeit- und Kostengründen werden nur selten mehrere solcher Iterationen durchgeführt. Durch die Integration und Automatisierung der gesamten Prozesskette von der Konstruktion bis zur Auswertung kann der Optimierungsprozess entscheidend beschleunigt werden. Das Erstellen eines Berechnungsgitters, welches bisher für jede Konstruktionsvariante manuell neu durchgeführt werden musste, kann durch Automatisierung in Sekunden geschehen. Dadurch kann die Auflösung der Berechnungsgitter beliebig variiert werden und sehr einfach eine Reihe schneller Optimierungsrechnungen durchgeführt werden, und genau so schnell kann eine fein aufgelöste Simulation zur exakten Bestimmung einzelner Betriebsparameter mit maximaler Genauigkeit aufgesetzt werden. Dadurch, dass jetzt schon in der Konzeptphase oder während der Konstruktion Optimierungen durchgeführt werden können, wird nicht nur der gesamte Entwicklungsprozess beschleunigt, sondern vor allem die Qualität der Produkte verbessert. Durch die Evaluierung der Produkte und ihrer funktionalen Parameter in einer immersiven VR-Umgebung sind einzelne Aspekte, wie z.B. Kollisionen, die räumliche Ausprägung von Strömungsphänomenen oder Sichtbarkeiten besser zu erkennen. Der Hauptvorteil liegt jedoch im Erkennen von Zusammenhängen. Indem komplette virtuelle Prototypen dargestellt werden, können viele verschiedene Aspekte vom Design über Konstruktion und Fertigungstechnik bis zu funktionalen oder betriebswirtschaftlichen Aspekten gleichzeitig beurteilt werden. In der VR-Umgebung können sich mehrere beteiligte Personen gleichzeitig aufhalten und mit dem virtuellen Prototyp arbeiten. Dabei ist die realitätsnahe 3D Darstellung sehr hilfreich um die eigenen Standpunkte fachfremden Kollegen erklären zu können. Vor allem eine einfache und intuitive Interaktion ist dabei unerlässlich, um die Akzeptanz solcher Systeme im realen Einsatz zu steigern. Durch einfache Navigation mit der 3D-Maus in Kombination mit intuitiv zu bedienenden 2D Userinterfaces auf einem Tablet-PC konnten die besten Ergebnisse erzielt werden. Das Konzept der hybriden Prototypen ermöglicht erstmals die Einbeziehung von realen Experimenten, Versuchen und Probeaufbauten in die Auswertung von Simulationsergebnissen und ermöglicht eine noch umfassendere Beurteilung der Prototypen. Ein zweiter wichtiger Anwendungsbereich ist die Verifikation der Simulationsergebnisse. Durch die gemeinsame Darstellung von Simulationsergebnissen, Messwerten und dem aktuellen Experiment können alle drei Aspekte direkt miteinander verglichen werden. Der Blick durch ein HMD bietet eine sehr intuitive Ansicht der Daten, der Benutzer kann sich ganz normal um den Prototyp bewegen. Auch größere Gruppen kommen mit Hilfe einer einfachen Kamera und einem großen Display oder einer Projektion die überlagerte Darstellung beobachten. In nahezu allen Fällen wird durch VR- und AR-Techniken die Kommunikation zwischen den Anwendern gefördert. Sachverhalte werden auch für Nicht-Spezialisten anschaulich und Diskussionen werden versachlicht. Durch die Möglichkeit VR-Umgebungen miteinander zu vernetzen können diese Vorteile auch bei über verschieden Standorte verteilte Entwicklerteams genutzt werden. Bei der Entwicklung der kooperativen Interaktionen wurde darauf geachtet, dass Latenzen effizient versteckt werden und dadurch eine flüssige Interaktion auch beim Verteilten Arbeiten über große Distanzen möglich ist. Insgesamt wurde im Rahmen dieser Arbeit ein System entwickelt, mit dem es möglich ist, virtuelle und hybride Prototypen vollautomatisch zu erstellen und sie dadurch nahtlos in den Entwicklungsprozess zu integrieren. Dadurch können Produkte schnell und schon in sehr frühen Entwicklungsphasen umfassend bewertet und sogar interaktiv optimiert werden. Nur so können auch in Zukunft die immer komplexer werdenden Produkte schnell, kostengünstig und in guter Qualität entwickelt werden.Item Open Access Communication methods for hierarchical global address models in HPC(Stuttgart : Höchstleistungsrechenzentrum, Universität Stuttgart, 2016) Zhou, Huan; Resch, Michael (Prof. Dr.-Ing. Dr. h.c. Dr. h.c. Prof. E.h.)Item Open Access Verallgemeinerte Global Address Space Netzwerk-Infrastrukturen für große Multiskalen-Simulationen mit erheblichen Datenmengen(2014) Großmann, Thomas; Resch, Michael (Prof. Dr.- Ing. Dr. h.c. Dr. h.c.)Diese Arbeit handelt von einer Software-Library namens IOFWD. Hierbei werden Daten, die für Dateien bestimmt sind, abgefangen und an spezialsierte IO-Server weitergeleitet. Hierbei werden verschiedene Umgebungen untersucht z.B. Simulationen mit MPI und PGAS Umgebungen wie UPC.