13 Zentrale Universitätseinrichtungen
Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/14
Browse
6 results
Search Results
Item Open Access Virtuelle und hybride Prototypen in kooperativen Arbeitsumgebungen(2009) Wössner, Uwe; Resch, Michael (Prof. Dr.-Ing)Derzeit sieht der Einsatz von Simulationen in der Produktentwicklung häufig wie folgt aus: Ein Konstrukteur erstellt die einzelnen Bauteile ausgehend von ähnlichen früheren Produkten und dimensioniert sie anhand einfacher Formeln oder Tabellen. Soll das Produkt mit Hilfe numerischer Simulationen optimiert werden, wird die Konstruktion an eine andere Abteilung oder ein externes Ingenieurbüro übergeben. Dort werden die CAD Konstruktionen konvertiert, Berechnungsgitter erstellt und die Simulation durchgeführt und im Anschluss ausgewer-tet. Dieser Prozess dauert im günstigsten Fall mehrere Tage, bei aufwändigen Simulationen auch mehrere Wochen. Der Konstrukteur bekommt die Ergebnisse der Simulation in Form eines Berichtes mitgeteilt. Aus diesem Bericht werden dann Änderungen der Konstruktion abgeleitet und umgesetzt. Aus Zeit- und Kostengründen werden nur selten mehrere solcher Iterationen durchgeführt. Durch die Integration und Automatisierung der gesamten Prozesskette von der Konstruktion bis zur Auswertung kann der Optimierungsprozess entscheidend beschleunigt werden. Das Erstellen eines Berechnungsgitters, welches bisher für jede Konstruktionsvariante manuell neu durchgeführt werden musste, kann durch Automatisierung in Sekunden geschehen. Dadurch kann die Auflösung der Berechnungsgitter beliebig variiert werden und sehr einfach eine Reihe schneller Optimierungsrechnungen durchgeführt werden, und genau so schnell kann eine fein aufgelöste Simulation zur exakten Bestimmung einzelner Betriebsparameter mit maximaler Genauigkeit aufgesetzt werden. Dadurch, dass jetzt schon in der Konzeptphase oder während der Konstruktion Optimierungen durchgeführt werden können, wird nicht nur der gesamte Entwicklungsprozess beschleunigt, sondern vor allem die Qualität der Produkte verbessert. Durch die Evaluierung der Produkte und ihrer funktionalen Parameter in einer immersiven VR-Umgebung sind einzelne Aspekte, wie z.B. Kollisionen, die räumliche Ausprägung von Strömungsphänomenen oder Sichtbarkeiten besser zu erkennen. Der Hauptvorteil liegt jedoch im Erkennen von Zusammenhängen. Indem komplette virtuelle Prototypen dargestellt werden, können viele verschiedene Aspekte vom Design über Konstruktion und Fertigungstechnik bis zu funktionalen oder betriebswirtschaftlichen Aspekten gleichzeitig beurteilt werden. In der VR-Umgebung können sich mehrere beteiligte Personen gleichzeitig aufhalten und mit dem virtuellen Prototyp arbeiten. Dabei ist die realitätsnahe 3D Darstellung sehr hilfreich um die eigenen Standpunkte fachfremden Kollegen erklären zu können. Vor allem eine einfache und intuitive Interaktion ist dabei unerlässlich, um die Akzeptanz solcher Systeme im realen Einsatz zu steigern. Durch einfache Navigation mit der 3D-Maus in Kombination mit intuitiv zu bedienenden 2D Userinterfaces auf einem Tablet-PC konnten die besten Ergebnisse erzielt werden. Das Konzept der hybriden Prototypen ermöglicht erstmals die Einbeziehung von realen Experimenten, Versuchen und Probeaufbauten in die Auswertung von Simulationsergebnissen und ermöglicht eine noch umfassendere Beurteilung der Prototypen. Ein zweiter wichtiger Anwendungsbereich ist die Verifikation der Simulationsergebnisse. Durch die gemeinsame Darstellung von Simulationsergebnissen, Messwerten und dem aktuellen Experiment können alle drei Aspekte direkt miteinander verglichen werden. Der Blick durch ein HMD bietet eine sehr intuitive Ansicht der Daten, der Benutzer kann sich ganz normal um den Prototyp bewegen. Auch größere Gruppen kommen mit Hilfe einer einfachen Kamera und einem großen Display oder einer Projektion die überlagerte Darstellung beobachten. In nahezu allen Fällen wird durch VR- und AR-Techniken die Kommunikation zwischen den Anwendern gefördert. Sachverhalte werden auch für Nicht-Spezialisten anschaulich und Diskussionen werden versachlicht. Durch die Möglichkeit VR-Umgebungen miteinander zu vernetzen können diese Vorteile auch bei über verschieden Standorte verteilte Entwicklerteams genutzt werden. Bei der Entwicklung der kooperativen Interaktionen wurde darauf geachtet, dass Latenzen effizient versteckt werden und dadurch eine flüssige Interaktion auch beim Verteilten Arbeiten über große Distanzen möglich ist. Insgesamt wurde im Rahmen dieser Arbeit ein System entwickelt, mit dem es möglich ist, virtuelle und hybride Prototypen vollautomatisch zu erstellen und sie dadurch nahtlos in den Entwicklungsprozess zu integrieren. Dadurch können Produkte schnell und schon in sehr frühen Entwicklungsphasen umfassend bewertet und sogar interaktiv optimiert werden. Nur so können auch in Zukunft die immer komplexer werdenden Produkte schnell, kostengünstig und in guter Qualität entwickelt werden.Item Open Access Analyse und Optimierung der Softwareschichten von wissenschaftlichen Anwendungen für Metacomputing(2008) Keller, Rainer; Resch, Michael (Prof. Dr.-Ing.)Für parallele Anwendungen ist das Message Passing Interface (MPI) das Programmierparadigma der Wahl für Höchstleistungsrechner mit verteiltem Speicher. Mittels des Konzeptes des MetaComputings wiederum können verschiedenste Rechenressourcen mit PACX-MPI gekoppelt werden. Dies ist einerseits von Interesse, weil Problemgrößen gelöst werden sollen, die nicht auf nur einem System ausgeführt werden könnten, andererseits, weil gekoppelte Simulationen gerechnet werden, die auf bestimmten Rechnerarchitekturen ausgeführt werden sollen oder weil Systeme mit bestimmten Eigenschaften wie Visualisierungs- mit parallelen Rechenressourcen verbunden werden müssen. Diese Koppelung stellt für die verteilten Anwendungen eine Barriere dar, da Kommunikation zu nicht-lokalen Prozessen weitaus langsamer ist, als über das rechnerinterne Netzwerk. In dieser Arbeit werden Lösungen auf den Software-Ebenen ausgehend von der Netzwerkschicht, durch Verbesserungen innerhalb der verwendeten Middleware, bis hin zur Optimierung innerhalb der Anwendungsschicht erarbeitet. In Bezug auf die unterste Softwareschicht wird für die Middleware PACX-MPI eine allgemeine Bibliothek zur Netzwerkkommunikation auf Basis von User Datagram Protocol (UDP) entwickelt. Somit können Limitierungen des Transport Control Protocols (TCP) umgangen werden, vor allem in Verbindung mit Netzwerken mit hoher Latenz und großer Bandbreite, so genannte Long Fat Pipes. Die hier implementierte Bibliothek ist portabel programmiert und durch die Verwendung von Threads effizient. Dieses Protokoll erreicht gute Werte für die Bandbreite im Local Area Network (LAN), aber auch im Wide Area Network (WAN). Getestet wird dieses Protokoll zur Veranschaulichung mittels einer Verbindung zwischen Rechnern in Stuttgart und Canberra, Australien. Innerhalb der Middleware wird die Optimierung der kollektiven Kommunikationsroutinen behandelt und am Beispiel der Funktion PACX_Alltoall die Verbesserung anhand des IMB Benchmarks auf einem Metacomputer gezeigt. Zur Analyse der Kommunikationseigenschaften wird die Erweiterung einer Tracing-Bibliothek für PACX-MPI, sowie die Implementierung einer generischen Schnittstelle zur Messung der Kommunikationscharakteristik auf MPI-Schicht erläutert. Weiterhin wird eine allgemeine MPI-Testsuite vorgestellt, die beim Auffinden von Fehlern sowohl in PACX-MPI, als auch innerhalb der Open MPI Implementierung hilfreich war. Auf der obersten Softwareschicht werden Optimierungsmöglichkeiten für Anwendungen für MetaComputing aufgezeigt. Beispielhaft wird die Analyse des Kommunikationsmusters einer Anwendung aus dem Bereich der Bioinformatik gezeigt. Weiterhin wird die Implementierung des Cachings und Prefetchings von vielfach kommunizierten Daten mit räumlicher und zeitlicher Lokalität vorgestellt. Erst die Methodik des Cachings und Prefetchings erlaubt die Ausführung der Anwendung in einem Metacomputer und ist exemplarisch für eine Klasse von Algorithmen mit ähnlichem Kommunikationsmuster.Item Open Access Die Berechnung von Wiedereintrittsphänomenen auf hierarchischen Supercomputern mit einem effizienten parallelen Multiblockverfahren(2007) Bönisch, Thomas; Resch, Michael (Prof. Dr.-Ing.)Wie in vielen Ingenieurwissenschaften sind auch in der Weltraumforschung Computersimulationen ein wichtiger Bestandteil der Forschung geworden. Auch bei der Entwicklung von Raumfahrzeugen spielt die Simulationsrechnung für die Systemauslegung eine wichtige Rolle. Gerade hier ist die Simulationsrechnung besonders wichtig, da Experimente und Messungen mit enormem Aufwand und extremen Kosten verbunden sind. Allerdings ist auch die Simulation von Raumfahrzeugen, hier speziell die Simulation des Wiedereintritts von Orbitern, erheblich aufwändiger als die Simulation eines ''normalen'' Flugzeugs, da neben den aerodynamischen Effekten auch chemische Reaktionen auftreten und in der Simulation berücksichtigt werden müssen. Für die Berechnung solcher Wiedereintrittsströmungen wurde am Institut für Raumfahrtsysteme der Universität Stuttgart das Programmpaket URANUS entwickelt. Dieses Programm besaß allerdings den Schwachpunkt, dass bisher nur sogenannte C-Netze zur Berechnung eingesetzt werden konnten, mit denen sich komplexere Raumgleiterkonfigurationen, wenn überhaupt, nur sehr schwer vernetzen lassen. Da die Berechnung von Wiedereintrittsströmungen auch erhebliche Anforderungen an Rechenleistung und Speicherbedarf besitzt, soll das neue Programm auch auf modernsten Supercomputerplattformen ohne Leistungsverlust einsetzbar sein. Um diese Schwachpunkte zu beheben wurde das Programm zur Verwendung von sogenannten Multiblocknetzen erweitert. Dies bedingt allerdings eine völlige Überarbeitung des vorhandenen Simulationsprogramms und zwar sowohl hinsichtlich der verwendeten Datenstrukturen als auch bezüglich des Programmablaufs. Dazu wurden die Eigenschaften der Multiblocknetze genau untersucht und daraus die notwendigen Änderungen des Programms spezifiziert. Zur Integration der Multiblocknetze wurde eine neue Datenstruktur entwickelt, die, soweit möglich, bereits zukünftige Erweiterungen und Verbesserungen zum Beispiel in Richtung Mehrgitterverfahren ermöglicht und berücksichtigt. Die vorhandene Programmstruktur wurde in großen Teilen umgestellt und vor allem die Randbehandlung wurde so erweitert, dass die Randbedingungen unabhängig von der Lage des Blocks im Netz auf all seinen Seiten angewendet werden können. Dies erforderte eine allgemeine Formulierung der Randbedingungen. Für den Einsatz auf einer möglichst breiten Palette moderner Supercomputerplattformen wurde das Multiblockprogramm von vorneherein auf die Verwendung massiv paralleler Systeme ausgelegt. Aber auch eine bereits vorhandene Optimierung für Vektorsysteme wurde weitergeführt. Durch die verschiedenen Größen der in Multiblocknetzen auftretenden Netzblöcke wurde hierbei eine komplexe Lastverteilungsstrategie notwendig. Hierzu wurden Algorithmen entwickelt, die Blöcke je nach Anforderung zerlegen können. Welcher Block welchem Prozess zur Berechnung zugeteilt wird, entscheiden Partitionierungsalgorithmen, die als Tool bereits verfügbar waren und über eine Schnittstelle in das Programm integriert worden sind. Die Schnittstelle dazu wurde so gestaltet, dass hier jederzeit neue Algorithmen einfach integriert werden können. In einem weiteren Teil der Arbeit werden Technologien vorgestellt, die für URANUS entwickelt wurden, um das Strömungssimulationsprogramm effizient in einer Metacomputingumgebung einsetzen zu können. Mit Hilfe des neuen parallelen Multiblock URANUS Verfahrens wurden bereits wichtige Simulationsergebnisse für den Wiedereintritt von modernen Raumgleitern erzielt, die ohne dieses Werkzeug nicht möglich gewesen wären.Item Open Access Integrated management framework for dynamic virtual organisations(2008) Wesner, Stefan; Resch, Michael (Prof. Dr.-Ing.)This thesis describes an Service Level Agreement based model for dynamic virtual organisations and a corresponding management framework for service providers making them able to fullfill such SLAs. The proposed framework is realised as a hierachical model starting from low level management close the hardware and network primitives necessary to realise the services up to the business relationship management layer. The concept is instantiated for the scenario of a High Performance Computing service provider.Item Open Access Management von verteilten ingenieurwissenschaftlichen Anwendungen in heterogenen Grid-Umgebungen(2007) Lindner, Peggy; Resch, Michael (Prof. Dr.-Ing.)Grid Technologien stellen einen Lösungsansatz für die Verteilung von Anwendungen über mehrere Rechner dar, um Simulationen von wissenschaftlichen Problemen durchführen zu können, die hohe Anforderungen an Rechenressourcen haben. Während diese Art von Anwendungen in den letzten Jahren meistens noch zu Demonstrationszwecken eingesetzt wurde, ist die Grid Technologie heute mehr und mehr ein Werkzeug im täglichen Einsatz. Dabei ist die Heterogenität der vorhandenen Grid Software Umgebungen das größte Problem mit dem Benutzer umgehen müssen, wenn sie parallele, verteilte Anwendungen effizient im Grid ausführen wollen. Im Rahmen dieser Arbeit wird das Konzept und die Implementierung eines Grid Configuration Managers (GCM) vorgestellt, der die Komplexität der Grid Umgebungen und die damit verbundenen Probleme vor dem Benutzer verbergen soll. Das wichtigste Ziel des GCM ist die Vereinfachung des Managements von Grid Umgebungen für Endanwender und Entwickler. Dafür wurden die für die Ausführung von verteilten, parallelen Anwendungen notwendigen Schritte abstrahiert. Des Weiteren wurde ein Konzept für die Integration verschiedener Grid Software Lösungen entwickelt und implementiert. Zurzeit unterstützt der GCM Globus, UNICORE und ssh basierende Umgebungen. Der GCM soll Benutzer hauptsächlich während drei Phasen der Ausführung von Anwendungen helfen: bei der Definition einer Grid Konfiguration, beim Starten und bei der Überwachung einer Grid Anwendung. Der GCM bietet außerdem noch eine spezielle Unterstützung für verteilte Anwendungen, die auf Basis der Kommunikationsbibliothek PACX-MPI entwickelt wurden. Dafür werden die benötigten Konfigurationsdateien automatisch erstellt und auf den beteiligten Rechnern konsistent gehalten. In den Grid Configuration Manager wurde ein auf Leistungsvorhersage basierender Mechanismus zur Auswahl von Rechenressourcen integriert. Ausgehend von einer durch den Benutzer spezifizierten Vorauswahl an Rechnern kann der GCM anhand einer automatischen Abschätzung von Leistungsdaten einer Anwendung vorhersagen, was die effizienteste Umgebung für die Ausführung der Anwendung ist. Für die Leistungsvorhersage wird das Programm Dimemas benutzt. Dimemas kann eine Vorhersage für das Laufzeitverhalten einer Anwendung anhand von Tracing-Daten und Parameter zur Beschreibung der Hardware treffen. Der Grid Configuration Manager wurde in verschiedenen Szenarien getestet und eingesetzt. Dabei wurde aufgezeigt, dass die Handhabung von verteilten Anwendungen durch die Verwendung des GCM signifikant vereinfacht und die Festlegung der Ausführungsumgebung erleichtert wird.Item Open Access Numerische Untersuchung an einem abdominellen Aortenaneurysma(2004) Sander, Björn; Resch, Martin (Prof. Dr.-Ing.)Abdominelle Aortenaneurysmen (AAA) treten beim Menschen vor allem im höheren Alter auf. Diese krankhafte Erweiterung der unteren Bauchaorta ist oft schmerzfrei und wird in vielen Fällen nur zufällig entdeckt. Ein Brechen der geschädigten Aorta (Ruptur) ist sehr gefährlich und führt oft zum Tod. Eine der gängigen Behandlungsmethoden eines AAA ist die minimalinvasive Implantation einer künstlichen Röhre, dem Stent-Graft. Leider kommt es bei dieser Behandlung recht häufig zu Komplikationen. In dieser Arbeit wurde das Verhalten eines nichtoperierten AAA bei verschiedenen Randbedingungen untersucht, da bisher nur wenig über die Mechanik dieser Krankheit bekannt war. Dazu musste ein Weg gefunden werden, die Messdaten der bildgebenden Diagnoseverfahren in hoher Qualität numerisch nutzbar zu machen. Mit diesem individuellen Patientenmodell wurden dann verschiedene Materialmodelle und Randbedingungen untersucht. Es wurden transiente Simulationen durchgeführt, die zudem die Kopplung von Strömungs- und Strukturberechnungen beinhalteten. Es konnte so eine Simulationskette gebildet werden, die von den bildgebenden Diagnosemitteln bis zur Nachbearbeitung der Simulationsergebnisse reicht. Im Vergleich zu früheren Arbeiten, die mit typisierten Modellen rechneten, konnte in dieser Arbeit zum ersten mal auf realen Geometrien gerechnet werden. Dadurch war es möglich, Aussagen zu den Spannungsverhältnissen in der Aortawand zu machen. Es konnte z.B. gezeigt werden, dass die in der Literatur viel beachtete Scherspannung am Rand des Strömungsgebietes um Größenordnungen kleiner ist, als die Spannungen in der Wand. Ausgehend von dieser Arbeit, sind entsprechende Untersuchungen für andere Patientendaten jetzt sehr schnell verfügbar.