13 Zentrale Universitätseinrichtungen
Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/14
Browse
37 results
Search Results
Item Open Access Process migration in a parallel environment(Stuttgart : Höchstleistungsrechenzentrum, Universität Stuttgart, 2016) Reber, Adrian; Resch, Michael (Prof. Dr.- Ing. Dr. h.c. Dr. h.c. Prof. E.h.)To satisfy the ever increasing demand for computational resources, high performance computing systems are becoming larger and larger. Unfortunately, the tools supporting system management tasks are only slowly adapting to the increase in components in computational clusters. Virtualization provides concepts which make system management tasks easier to implement by providing more flexibility for system administrators. With the help of virtual machine migration, the point in time for certain system management tasks like hardware or software upgrades no longer depends on the usage of the physical hardware. The flexibility to migrate a running virtual machine without significant interruption to the provided service makes it possible to perform system management tasks at the optimal point in time. In most high performance computing systems, however, virtualization is still not implemented. The reason for avoiding virtualization in high performance computing is that there is still an overhead accessing the CPU and I/O devices. This overhead continually decreases and there are different kind of virtualization techniques like para-virtualization and container-based virtualization which minimize this overhead further. With the CPU being one of the primary resources in high performance computing, this work proposes to migrate processes instead of virtual machines thus avoiding any overhead. Process migration can either be seen as an extension to pre-emptive multitasking over system boundaries or as a special form of checkpointing and restarting. In the scope of this work process migration is based on checkpointing and restarting as it is already an established technique in the field of fault tolerance. From the existing checkpointing and restarting implementations, the best suited implementation for process migration purposes was selected. One of the important requirements of the checkpointing and restarting implementation is transparency. Providing transparent process migration is important enable the migration of any process without prerequisites like re-compilation or running in a specially prepared environment. With process migration based on checkpointing and restarting, the next step towards providing process migration in a high performance computing environment is to support the migration of parallel processes. Using MPI is a common method of parallelizing applications and therefore process migration has to be integrated with an MPI implementation. The previously selected checkpointing and restarting implementation was integrated in an MPI implementation, and thus enabling the migration of parallel processes. With the help of different test cases the implemented process migration was analyzed, especially in regards to the time required to migrated a process and the advantages of optimizations to reduce the process’ downtime during migration.Item Open Access 3D visualization of multivariate data(2012) Sanftmann, Harald; Weiskopf, Daniel (Prof. Dr.)Nowadays large amounts of data are organized in tables, especially in relational databases where the rows store the data items to which multiple attributes are stored in the columns. Information stored this way, having multiple (more than two or three) attributes, can be treated as multivariate data. Therefore, visualization methods for multivariate data have a large application area and high potential utility. This thesis focuses on the application of 3D scatter plots for the visualization of multivariate data. When dealing with 3D, spatial perception needs to be exploited, by effectively using depth cues to convey spatial information to the user. To improve the presentation of individual 3D scatter plots, a technique is presented that applies illumination to them, thus using the shape-from-shading depth cue. To enable the analysis not only of 3D but of multivariate data, a novel technique is introduced that allows the navigation between 3D scatter plots. Inspecting the large number of 3D scatter plots that can be projected from a multivariate data set is very time consuming. The analysis of multivariate data can benefit from automatic machine learning approaches. A presented method uses decision trees to increase the speed a user can gain an understanding of the multivariate data at no extra cost. Stereopsis can also support the display of 3D scatter plots. Here an improved anaglyph rendering technique is presented, significantly reducing ghosting artifacts. The technique is not only applicable for information visualization, but for general rendering or to present stereoscopic image data. Some information visualization algorithms require high computation time. Many of these algorithms can be parallelized to run interactively. A framework that supports the parallelization on shared and distributed memory systems is presented.Item Open Access Auslegung und Optimierung von Flanschverbindungen mit SMC-Losflanschen und PTFE-Dichtungen(2014) Kurz, Hariolf; Roos, Eberhard (Prof. Dr.)Die Anforderungen an Rohrleitungen aus glasfaserverstärktem Kunststoff (GFK) sind im Hinblick auf die Dichtheit, die Medienbeständigkeit und die Betriebssicherheit in den letzten Jahren gestiegen. Dennoch müssen die Betreiber chemischer Anlagen mit Rohrleitungen aus glasfaserverstärktem Kunststoff mit Losflanschen aus sheet-molding-compound (SMC) diese nachweislich sicher betreiben. Die Motivation zu dieser Arbeit liegt darin, dieses Bestreben mit der Auswahl von geeigneten PTFE-Dichtungen und mit der Untersuchung und Optimierung des mechanischen Verhaltens der SMC-Losflansche sowie ihrer analytischen Berechnung zu unterstützen. Die gewonnenen Erkenntnisse sind im Folgenden zusammengefasst. • Optimierung der Dichtungen In diesem Themenbereich wurden neun verschiedene Dichtungen aus Polytetrafluorethylen (PTFE) und zwei Gummidichtungen hinsichtlich ihrer Eignung für den Einsatz in GFK-Flanschverbindungen untersucht. Die Basis der Untersuchungen bildeten die Dichtungskennwerte nach DIN EN 13555, welche unter reduzierten Anfangspressungen im Leckage- und Stauchversuch und bei niedrigerer Steifigkeit und verlängerter Versuchsdauer im Kriechrelaxationsversuch ermittelt wurden. Vier PTFE-Dichtungen stellten sich im Leckageversuch als besonders geeignet heraus. An diesen wurden zusätzlich Untersuchungen zum Rückfeder- und Kriechrelaxationsverhalten durchgeführt. Die wichtigsten Erkenntnisse aus der Dichtungsprüfung sind zum einen, dass das Leckageratenkriterium der TA Luft mit 0,01 mbar•l/(s•m) bei 40 bar Helium von einigen PTFE-Dichtungen auch bei den in GFK-Flanschverbindungen typischen Flächenpressungen unterhalb 10 MPa eingehalten werden kann. Zum anderen entspricht das Rückfederverhalten der PTFE-Dichtungen dem der Gummidichtungen und die Kriechrelaxation der PTFE-Dichtungen unter den Bedingungen in GFK-Flanschverbindungen ist mit etwa 80% verbleibender Flächenpressung im Betrieb akzeptabel. Der Verlust der Vorspannkraft der Flanschverbindung im Betrieb resultiert maßgeblich aus der Kriechrelaxation der GFK-Flansche. Zur Optimierung von PTFE-Dichtungen werden von den Dichtungsherstellern verschiedene Maßnahmen getroffen, wie zum Beispiel die Kombination unterschiedlicher Werkstoffe oder Variation der Dichtungsgeometrie, welche das Abdichtverhalten verbessern. Um die Auswirkungen dieser Modifikationen rechnerisch erfassen zu können, wurde ein zweistufiges numerisches Konzept entwickelt, welches die Durchlässigkeit der Dichtung mit einem Transportansatz beschreibt. Dafür wird im ersten Schritt in einer Finite-Elemente-Simulation die Flächenpressungsverteilung der Dichtung bestimmt. Die lokale Dichtheit kann mit dem Leckageversuch nach DIN EN 13555 bestimmt und in einem zweiten Schritt der in Finite Elemente diskretisierten Dichtung örtlich zugewiesen werden. Die Lösung des Transportproblems führt zur Druckverteilung innerhalb der Dichtung und zur globalen Leckagerate der optimierten Dichtung. Diese Vorgehensweise liefert im Vergleich zu den gemessenen Druckprofilen innerhalb unter-schiedlich verpresster Dichtungen und für die globale Leckagerate einer vorverpressten PTFE-Dichtung konsistente Werte. Dem entsprechend konnte die Reduktion der Leckagerate einer durch Vorverpressen optimierten PTFE-Flachdichtung um den Faktor 3000 korrekt vorhergesagt werden. Die Methodik ermöglicht ebenfalls eine realistische Bewertung der Dichtheit von Flansch-verbindungen mit der Finite-Elemente-Methode (FEM), mit dem Ergebnis, dass in der Regel die zur Einhaltung der Dichtheit benötigten Mindestwerte der Schraubenkräfte im Vergleich zur herkömmlichen Bewertung der Dichtheit mit der mittleren Flächenpressung der Dichtung geringer werden. • Optimierung der Flansche Zunächst wurde der fertigungsbedingte Lagenaufbau und die damit verbundenen Werkstoffeigen-schaften der SMC-Losflansche bestimmt. Es handelt sich um eine unregelmäßige Verteilung eines transversal isotropen Lagenaufbaus. Dies wurde durch die Untersuchung der Mikrostruktur verdeutlicht, wobei festgestellt wurde, dass innerhalb der Flansche neben den eingeschlossenen Luftblasen auch die Matrix zwischen den Fasern von mikroskopischen Lufteinschlüssen durchsetzt ist. Aus diesem Grund weichen die Elastizitätskonstanten aus der theoretischen Herleitung deutlich von den gemessenen Werten an Bauteilausschnitten ab. Die Untersuchung des mechanischen Verhaltens der SMC-Losflansche wurde in einem Stauchversuch durchgeführt. Der Unterschied zur genormten Vorgehensweise nach DIN EN 16966 Teil 7 besteht darin, dass die Last kontinuierlich bis zum Bauteilversagen aufgebracht und dabei die axiale Verformung des Losflansches aufgezeichnet wird. Die Auswertung des Stauchverhaltens liefert als Ergebnis die maximale Traglast und die Steifigkeit der Losflansche. Beide Werte sind zur Bestimmung der Qualität einer Flanschverbindung von entscheidender Bedeutung. Zusätzlich werden mögliche Schwächen im Bauteil, welche zu vorzeitigem Versagen führen, erkannt. Dies ermöglicht dem Hersteller, beispielsweise durch die Variation des Lagenaufbaus oder des Matrixwerkstoffes, die Eigenschaften der Losflansche zu optimieren. Mit der messtechnischen Erfassung des Kriechrelaxationsverhaltens unter Temperatur in einem speziell dafür entwickelten Prüfstand wurde bestätigt, dass der Vorspannkraftverlust der Flanschverbindung im Betrieb maßgeblich durch die viskose Verformung der Flansche bedingt ist. Mit dem Ziel, den Lagenaufbau der SMC-Losflansche zu verbessern und die analytische Beschreibung der Losflansche zu verifizieren, wurde ein Finite-Elemente-Modell der Flanschverbindung erstellt. Darin wurden die an Bauteilausschnitten senkrecht und längs der SMC-Matten ermittelten anisotropen Elastizitätskonstanten, Festigkeits- und Kriecheigenschaften mittels geeigneter Werkstoffmodelle eingebunden. Der unregelmäßige Lagenaufbau wurde durch die Anpassung der Elementkoordinatensysteme an die an Schnitten visuell ermittelte Orientierung der SMC-Matten abgebildet. Die Bewertung der Ergebnisse der FE-Simulation mit der Festigkeits-hypothese nach Tsai-Wu bestätigt das verbesserte Tragverhalten eines Losflansches mit dem durch eine Fertigungsumstellung erzielten ebenen Lagenaufbau. Damit konnte die maximale Traglast des SMC-Losflansches um 50 % erhöht werden. Die Kriechrelaxation des SMC-Losflansches wird durch die Abbildung der an den Bauteilausschnitten ermittelten, richtungsabhängigen Kriechkurven mit dem von Hill modifizierten Kriechgesetz nach Graham-Walles beschrieben. Damit werden die gemessenen zeitlichen Verläufe der Schraubenkraft im Betrieb realistisch abgebildet. Die Vorhersage der im Vergleich zum bestehenden Losflansch geringfügig erhöhten Kriechrelaxation des Prototyps mit ebenem Lagenaufbau wird durch die Messung bestätigt. Insgesamt bedeutet die Erhöhung der zulässigen Schraubenkräfte bei Montage von 40 kN auf 60 kN eine deutliche Zunahme der Schraubenkraft im Betrieb, was die Betriebssicherheit erhöht und die Verwendung von PTFE-Dichtungen begünstigt. • Optimierung der Berechnungsmethode Mit den Erkenntnissen zur Beanspruchung von Losflanschen aus der messtechnischen Untersuchung der Flanschverbindung und aus der numerischen Simulation wurde ein analytisches Berechnungskonzept für den Losflansch entwickelt. Dieses berechnet die Beanspruchung in Umfangsrichtung aus dem Stülpmoment. Die Umfangsspannungen und die Verformung des Losflansches werden damit realistischer beschrieben als durch die bestehenden Regelwerke. Da das Berechnungskonzept ausschließlich die Spannung an der Losflanschoberseite zwischen den Schrauben abbildet, kann ein Bauteilversagen an anderer Stelle nicht erfasst werden. So muss bei der Auslegung differenziert nach der Lokalisierung des Versagens im Stauchversuch vorgegangen werden: - Losflansch versagt im Stauchversuch an der Flanschoberseite zwischen den Schrauben Das Berechnungskonzept ist anwendbar. Zur Berechnung der Flanschverbindung kann die analytische Beschreibung des Verhaltens von Losflanschen die bestehenden Regelwerken ersetzen. Mit dem zur Diskussion stehenden Wegfall der Werkstoffabminderungsfaktoren gemäß den Definitionen im AD 2000-Merkblatt führt die beschriebene Vorgehensweise zu höheren Schraubenkräften bei Montage und im Betrieb der Flanschverbindung. Dies bewirkt eine höhere Dichtheit und Betriebssicherheit von Anlagen mit GFK-Rohrleitungen. - Losflansch versagt an anderer Stelle Das Berechnungskonzept kann nicht angewendet werden. Alternativ können die maximale zulässige Schraubenkraft für Montage und im Betrieb sowie die Steifigkeiten im Stauchversuch ermittelt werden. Der Hersteller kann die sich im Stauchversuch offenbarenden Schwachstellen im Bauteil identifizieren und den Fertigungsprozess hinsichtlich des Tragverhaltens der Losflansche optimieren.Item Open Access Visualization and mesoscopic simulation in systems biology(2013) Falk, Martin Samuel; Ertl, Thomas (Prof. Dr.)A better understanding of the internal mechanisms and interplays within a single cell is key to the understanding of life. The focus of this thesis lies on the mechanism of cellular signal transduction, i.e. relaying a signal from outside the cell by different means of transport toward its target inside the cell. Besides experiments, understanding can also be achieved by numerical simulations of cellular behavior which require theoretical models to be designed and evaluated. This is where systems biology closely relates and depends on recent research results in computer science in order to deal with the modeling, the simulation, and the analysis of the computational results. Since a single cell can consist of billions of atoms, the simulation of intracellular processes requires a simplified, mesoscopic model. The simulation domain has to be three dimensional to consider the spatial, possibly asymmetric, intracellular architecture filled with individual particles representing signaling molecules. In contrast to continuous models defined by systems of partial differential equations, a particle-based model allows tracking individual molecules moving through the cell. The overall process of signal propagation usually requires between minutes and hours to complete, but the movement of molecules and the interactions between them have to be determined in the microsecond range. Hence, the computation of thousands of consecutive time steps is necessary, requiring several hours or even days of computational time for a non-parallel simulation. To speed up the simulation, the parallel hardware of current central processing units (CPUs) and graphics processing units (GPUs) can be employed. Finally, the resulting data has to be analyzed by domain experts and, therefore, has to be represented in meaningful ways. Typical prevalent analysis methods include the aggregation of the data in tables or simple 2D graph plots, sometimes 3D plots for continuous data. Despite the fact that techniques for interactive visualization of data in 3D are well-known, so far none of the methods have been applied to the biological context of single cell models and specialized visualizations fitted to the experts’ need are missing. Another issue is the hardware available to the domain experts that can be used for the task of visualizing the increasing amount of time-dependent data resulting from simulations. It is important that the visualization keeps up with the simulations to ensure that domain experts can still analyze their data sets. To deal with the massive amount of data to come, compute clusters will be necessary with specialized hardware dedicated to data visualization. It is, thus, important, to develop visualization algorithms for this dedicated hardware, which is currently available as GPU. In this thesis, the computational power of recent many-core architectures (CPUs and GPUs) is harnessed for both the simulation and the visualizations. Novel parallel algorithms are introduced to parallelize the spatio-temporal, mesoscopic particle simulation to fit the architectures of CPU and GPU in a similar way. Besides molecular diffusion, the simulation considers extracellular effects on the signal propagation as well as the import of molecules into the nucleus and a dynamic cytoskeleton. An extensive comparison between different configurations is performed leading to the conclusion that the usage of GPUs is not always beneficial. For the visual data analysis, novel interactive visualization techniques were developed to visualize the 3D simulation results. Existing glyph-based approaches are combined in a new way facilitating the visualization of the individual molecules in the interior of the cell as well as their trajectories. A novel implementation of the depth of field effect combined with additional depth cues and coloring aid the visual perception and reduce visual clutter. To obtain a continuous signal distribution from the discrete particles, techniques known from volume rendering are employed. The visualization of the underlying atomic structures provides new detailed insights and can be used for educational purposes besides showing the original data. A microscope-like visualization allows for the first time to generate images of synthetic data similar to images obtained in wet lab experiments. The simulation and the visualizations are merged into a prototypical framework, thereby supporting the domain expert during the different stages of model development, i.e. design, parallel simulation, and analysis. Although the proposed methods for both simulation and visualization were developed with the study of single-cell signal transduction processes in mind, they are also applicable to models consisting of several cells and other particle-based scenarios. Examples in this thesis include the diffusion of drugs into a tumor, the detection of protein cavities, and molecular dynamics data from laser ablation simulations, among others.Item Open Access Increased flexibility and dynamics in distributed applications and processes through resource decoupling(2014) Kipp, Alexander; Resch, Michael (Prof. Dr.-Ing.)Continuously increasing complexity of products and services requires more and more specialised expertise as well as relevant support by specialised IT tools and services. However, these services require expert knowledge as well, particularly in order to apply and use these services and tools in an efficient and optimal way. To this end, this thesis introduces a new virtualisation approach, allowing for both, the transparent integration of services in abstract process description languages, as well as the role based integration of human experts in this processes. The developed concept of this thesis has been realised by: - Enhancing the concept of web services with a service virtualisation layer, allowing for the transparent usage, adaptation and orchestration of services - Enhancing the developed concept towards a “Dynamic Session Management” environment, enabling the transparent and role-based integration of human experts following the SOA paradigm - Developing a collaboration schema, allowing for setting up and steering synchronous collaboration sessions between human experts. This enhancement also considers the respective user context and provides the best suitable IT based tooling support. The developed concept has been applied to scientific and economic application fields with a respective reference realisation.Item Open Access Experimentelle und numerische Untersuchungen zur fertigungsbedingten Entstehung von Fehlern in Mischschweißverbindungen(2011) Schütt, Thorsten; Roos, Eberhard (Prof. Dr.-Ing. habil.)Das Ziel der vorliegenden Arbeit war es, mit Hilfe von experimentellen und numerischen Untersuchungen an einer Mischschweißverbindung die Parameter die zur Entstehung und Ausbildung von Ablösungen (Disbonding) zwischen ferritischem Grundwerkstoff und Pufferung führen können zu identifizieren und zu quantifizieren. Zur Festlegung der Randbedingungen für die experimentellen Untersuchungen wurden strukturmechanische FE-Simulationen des Schweißprozesses, einerseits der Pufferung und andererseits der Festigkeitsnaht, für unterschiedliche Nahtgeometrien und Schweißparameter wie Flankenwinkel, Pufferungsdicke, Schweißnahtbreite, Zwischenlagentemperatur und Schweißfolge durchgeführt. Hieraus wurden die Randbedingungen für die experimentellen Untersuchungen abgeleitet, damit möglichst hohe mechanische Spannungen, d. h. Eigenspannungen, am Übergang von Pufferung zum ferritischen Grundwerkstoff auftreten und so das Entstehen von Ablösungen begünstigen. Die experimentellen Untersuchungen wurden an einer Mischnaht aus dem ferritischen Werkstoff 22NiMoCr3-7 und dem austenitischen, niobstabilisierten Werkstoff X6CrNiNb18-10 durchgeführt. Die Pufferung und die Verbindungsnaht wurde mit dem Schweißzusatzwerkstoff Fox SAS 2R hergestellt. Zum Vergleich wurde eine weitere Mischschweißverbindung mit dem Schweißzusatzwerkstoff Fox NiCr70Nb ausgeführt. Für die Schweißung der Pufferungen wurde basierend auf Erfahrungen bei der Herstellung von Pufferungen für Mischschweißverbindungen und den Ergebnissen der FE-Analysen, Parameter bestimmt, die eine hohe Neigung zu Ablösungen zwischen Ferrit und Pufferung, also Disbonding, aufweisen. Ausgewählt wurden primär die Parameter, die zu hohen mechanischen Spannungen, d. h. Eigenspannungen, beim Erstarren des Schweißgutes führen. Mit den nach Abschluss der Schweißarbeiten durchgeführten zerstörungsfreien Prüfungen konnten allerdings keine Ablösungen detektiert werden. Die durchgeführten zerstörenden metallkundlichen und mechanisch-technologischen Prüfungen haben gezeigt, dass bei der austenitischen Nahtausführung Gefügebereiche mit inhomogenen Festigkeits- und Verformungseigenschaften aufgetreten sind. Diese unterschiedlichen Werkstoffeigenschaften können die Bildung von Ablösungen begünstigen. Bei der mechanisch-technologischen Prüfung zeigten hierbei spezifisch entnommene Kerbschlagproben eine Bruchmorphologie, wie sie bereits bei disbondingbehafteten Mischschweißverbindungen festgestellt werden konnte. Im Anschluss an die experimentellen Untersuchungen wurden ergänzend zu den numerischen Vorausberechnungen zur Festlegung der Schweißparameter weiterführende, detailliertere strukturmechanische FE-Simulationen des Schweißprozess (Schweißung der Pufferung und der Verbindungsnaht) der Mischschweißverbindung durchgeführt. Für die Nachrechnung wurden hierzu die Parameter des eingesetzten Materialmodells (Armstrong, Frederick und Chaboche (AFC) Modell) an die aktuellen Werkstoffeigenschaften angepasst. Hierzu wurden isotherme, zyklische Zugversuche sowie statische Zugversuche bei vier verschiedenen Temperaturen (RT, 500 °C, 800 °C, 1300 °C) durchgeführt. Darüber hinaus wurden anhand von Kurzzeitstandversuchen die Parameter für ein modifiziertes Graham-Walles Kriechgesetz bestimmt, das für die Simulation der Spannungsarmglühung der Pufferung verwendet wurde. Mit den so ermittelten Parametern haben sich nach der durchgeführten Schweißsimulation Eigenspannungen im Bereich des Interface ergeben, die für die Längsspannung Werte von bis zu 500 MPa erreichen. Die berechnete Längenänderung des Rohres aufgrund der Schweißung ergab einen Schrumpfbetrag des Rohres von ca. 7 mm. Der Vergleich der numerischen Ergebnisse mit den experimentellen Befunden zeigte für den größten Teil der Parameter und der Schweißnähte eine gute Übereinstimmung. Mit der in dieser Arbeit weiterentwickelten Methodik zur Untersuchung und Bestimmung der werkstoffkundlichen und mechanischen Eigenschaften einer Mischschweißverbindung konnten somit die Einflussgrößen identifiziert werden, die zu Disbonding in Mischschweißverbindungen führen können. Unter Berücksichtigung der hierbei ermittelten Parameter kann ein mögliches Auftreten von Disbonding bei der Herstellung von Mischschweißverbindungen weitestgehend ausgeschlossen werden.Item Open Access Fortgeschrittene Methoden zur Bewertung des schmelzenspezifischen Zeitstandbruchverhaltens von Werkstoffen des Kraftwerkbaus(2012) Frolova, Olga; Maile, Karl (Prof. Dr.-Ing. habil.)Bei Anlagen, die im Zeitstandbereich betrieben werden, wie z. B. Dampfkraftwerken stellt die Lebensdauerbewertung der hochbelasteten Hochtemperatur-Komponenten eine wichtige Aufgabenstellung dar. Sie steht im Zusammenhang mit der Verfügbarkeit und damit der Wirtschaftlichkeit und dem Wirkungsgrad, es werden aber auch Aspekte der Betreiberverantwortung abgedeckt. Eine zentrale Problemstellung ist in diesem Kontext die zuverlässige Erfassung und Umsetzung der hierfür notwendigen spezifischen Materialeigenschaften. Im Vordergrund steht hierbei die Festigkeitseigenschaften, ganz besonders aber das zeitabhängige Verformungs- und Bruchverhalten der eingesetzten warmfesten Stähle. Die Festigkeitseigenschaften sind das Resultat wechselseitiger Beeinflussungen, d.h. mehrdimensionaler Abhängigkeiten zwischen den einzelnen Elementen der chemischen Zusammensetzung, der Parameter der Wärmebehandlung und den Herstellbedingungen, d.h. der Erzeugnisform. Die herkömmlichen analytischen Methoden können die Auswirkung dieser Parameter auf den Kennwert, z. B. die Zeitstandbruchfestigkeit nicht ganzheitlich beschreiben. Die individuelle, d. h. schmelzenspezifische Zeitstandbruchfestigkeit kann nach dem Stand der Technik und Wissens daher zuverlässig nur über experimentelle Untersuchungen ermittelt werden. Aus der Literatur sind erfolgreiche Versuche bekannt, mit Hilfe von künstlichen Neuronalen Netzen (kNN) das Werkstoffverhalten in Abhängigkeit von Eingangsgrößen wie chemische Zusammensetzung und Wärmebehandlung, zu simulieren. Die Modellierung mit kNN stellt damit eine Alternative zu den analytischen Methoden dar, da damit mehrdimensionale Zusammenhänge erfasst werden können. Die vorliegende Arbeit hat das Ziel das Potenzial der Anwendung von kNN auf die Bestimmung von maßgebenden Eigenschaften ausgewählter warmfester Stähle zu ermitteln und zu bewerten. Der Schwerpunkt der Untersuchungen wurde auf die optimierte Vorhersage des Zeitstandbruchverhaltens und die Bestimmung der Position der spezifischen Schmelze in dem Streuband des jeweiligen Stahls unter Berücksichtigung aller technisch erfassbaren Parameter gesetzt. Ein wichtiger Ausgangspunkt einer Datenanalyse stellt die Datenbasis selbst dar. Mit der Wahl der Stähle P91, P92 und E911 wurden folgende Ziele erreicht: • die durchgeführten Zeitstandversuche, die die Datengrundlage bilden, entsprechen den Anforderungen der heute gültigen Qualitätsmaßstäben für die Versuchsdurchführung • es wurden Daten von modernen Stählen mit unterschiedlicher Zeitstandfestigkeit, aber vergleichbarer metallurgischen Grundstruktur verwendet • die vorhandenen Ergebnisse für den Stahl X20CrMoV12-1 können einbezogen werden. Vor Verwendung wurden die Daten auf ihre Konsistenz geprüft und in Ebenen mit unterschiedlichen Merkmalen aufgeteilt. Als Merkmale wurden die einzelnen Elemente der chemischen Zusammensetzung, die Parameter der Wärmebehandlung, mechanisch-technologische Kennwerte, die Zeitstandfestigkeit bzw. Zeitstandbruchzeit und der zugehörigen Versuchstemperatur, die Zeitstandbruchdehnung, Mikrostrukturparameter verwendet. Danach wurden mit einem Teil der Daten verschiedene Modelle des kNN trainiert, wobei folgende Zielgrößen verwendet wurden: Zeitstandfestigkeit, Zeitstandbruchzeit, Streckgrenze bei Raumtemperatur. Diese Modelle wurden mit den ermittelten unterschiedlichen Datenebenen trainiert. Das Vorhaben stellte erstmals die Modellierung mit dem kNN den Ergebnissen auf der Basis einer Multiplen Linearen Regressionsanalyse gegenüber. Dabei zeigte sich, dass das kNN ein besseres Korrelationsverhalten aufweist, weil es die mehrdimensionalen Abhängigkeiten zwischen den einzelnen Elementen besser wiedergibt. Die Interpretationen des kNNs wurden dahingehend geprüft, ob die grundlegenden physikalischen und metallurgischen Hintergründe ausreichend reflektiert werden. Die Ergebnisse wurden mit den realen Materialverhalten verglichen und die Auswirkung bei der Lebensdaueranalyse quantifiziert. Hierzu wurde eine „künstliche“ Schmelze definiert, die den Mittelwert aller berücksichtigten Merkmale repräsentierte. Die Verifikation der Modelle mit der Zielgröße Zeitstandfestigkeit erfolgte auf der Basis von experimentellen Daten, die nicht im Datenpool für das Trainieren des kNN enthalten waren. Dabei ergab sich teilweise eine gute Übereinstimmung. Zusammenfassend kann festgestellt werden, dass die Anwendung von kNN zur Ermittlung des individuellen Zeitstandbruchverhaltens bei modernen warmfesten Stählen ein Anwendungspotenzial aufweist, das mit der Absicherung der Datenbasis besonders im Bereich langer Bruchzeiten > 50 000 h eine technische Relevanz zeigen wird. Im Hinblick auf die technische Anwendung im Rahmen einer Lebensdauerberechnung stellt sich das Problem, dass es methodenbedingt keine Abschätzung der Unsicherheit der ermittelten Kennwerte gibt, die der seitherigen Vorgehensweise direkt vergleichbar ist.Item Open Access Advanced visualization techniques for flow simulations : from higher-order polynomial data to time-dependent topology(2013) Üffinger, Markus; Ertl, Thomas (Prof. Dr.)Computational Wuid dynamics (CFD) has become an important tool for predicting Fluid behavior in research and industry. Today, in the era of tera- and petascale computing, the complexity and the size of simulations have reached a state where an extremely large amount of data is generated that has to be stored and analyzed. An indispensable instrument for such analysis is provided by computational Wow visualization. It helps in gaining insight and understanding of the Wow and its underlying physics, which are subject to a complex spectrum of characteristic behavior, ranging from laminar to turbulent or even chaotic characteristics, all of these taking place on a wide range of length and time scales. The simulation side tries to address and control this vast complexity by developing new sophisticated models and adaptive discretization schemes, resulting in new types of data. Examples of such emerging simulations are generalized Vnite element methods or hp-adaptive discontinuous Galerkin schemes of high-order. This work addresses the direct visualization of the resulting higher-order Veld data, avoiding the traditional resampling approach to enable a more accurate visual analysis. The second major contribution of this thesis deals with the inherent complexity of Wuid dynamics. New feature-based and topology-based visualization algorithms for unsteady Wow are proposed to reduce the vast amounts of raw data to their essential structure. For the direct visualization pixel-accurate techniques are presented for 2D Veld data from generalized Vnite element simulations, which consist of a piecewise polynomial part of high order enriched with problem-dependent ansatz functions. Secondly, a direct volume rendering system for hp-adaptive Vnite elements, which combine an adaptive grid discretization with piecewise polynomial higher-order approximations, is presented. The parallel GPU implementation runs on single workstations, as well as on clusters, enabling a real-time generation of high quality images, and interactive exploration of the volumetric polynomial solution. Methods for visual debugging of these complex simulations are also important and presented. Direct Wow visualization is complemented by new feature and topology-based methods. A promising approach for analyzing the structure of time-dependent vector Velds is provided by Vnite-time Lyapunov exponent (FTLE) Velds. In this work, interactive methods are presented that help in understanding the cause of FTLE structures, and novel approaches to FTLE computation are developed to account for the linearization error made by traditional methods. Building on this, it is investigated under which circumstances FTLE ridges represent Lagrangian coherent structures (LCS)—the timedependent counterpart to separatrices of traditional “steady” vector Veld topology. As a major result, a novel time-dependent 3D vector Veld topology concept based on streak surfaces is proposed. Streak LCS oUer a higher quality than corresponding FTLE ridges, and animations of streak LCS can be computed at comparably low cost, alleviating the topological analysis of complex time-dependent Velds.Item Open Access Lebensdauerbewertung dickwandiger Bauteile aus Nickelbasislegierungen unter betriebsnahen Beanspruchungen(2015) Hüggenberg, Daniel; Roos, Eberhard (Prof. Dr.-Ing. habil.)Nach dem Erneuerbare-Energien-Gesetz (EEG) soll in Deutschland bis zum Jahr 2050 der Anteil der erneuerbaren Energien an der Stromerzeugung auf 80% gesteigert werden. Deshalb werden konventionelle Kraftwerke weniger zur Deckung der Grundlastversorgung, sondern vielmehr zur Deckung der Mittel- und Spitzenlastversorgung eingesetzt. Dies bedeutet für die Anlagen, dass diese einerseits für kürzere Zeiten stationär betrieben werden und andererseits deutlich häufiger mit hohen Laständerungsgeschwindigkeiten an- und abgefahren werden, um die Erzeugungslücken der erneuerbaren Energien zu decken. Dies führt dazu, dass die Komponenten verstärkt einer überlagerten Beanspruchung aus Kriechen und Ermüdung ausgesetzt sind, welche einen Lebensdauer verkürzenden Einfluss hat. Das Ziel dieser Arbeit ist es, ein Konzept zur Lebensdauerbewertung von kriechermüdungsbeanspruchten dickwandigen Komponenten aus den Nickelbasislegierungen Alloy 617 mod. und Alloy 263 auf der Basis numerischer phänomenologischer Ansätze sowie Ansätzen gängiger Regelwerke/Empfehlungen zu entwickeln und zu verifizieren. Explizit liegt der Fokus auf zwei Komponenten der Hochtemperatur-Werkstoff-Teststrecke II (HWT II), einem Sammler aus Alloy 617 mod. und Alloy 263 sowie einem Halbkugelformstück aus Alloy 617 mod.. Zur Grundcharakterisierung der in HWT II verwendeten Schmelzen der Nickelbasislegierungen sind bei Prüftemperaturen im Bereich von 20°C bis 725°C einachsige Zugversuche, (Kriech-)ermüdungsversuche, Zeitstandversuche sowie Kerbschlagbiegeversuche durchgeführt worden. Der Vergleich der Versuchsergebnisse mit den Vorgaben der Werkstoffdatenblätter und den Ergebnissen der Forschungsvorhaben COORETEC DE4, MARCKO DE2 und MARCKO700 zeigte für beide Nickelbasislegierungen mit Ausnahme der Zeitstandversuchsergebnisse des Alloy 617 mod. keine Auffälligkeiten. Bei den Ergebnissen der Zeitstandversuche an der HWT II-Schmelze des Alloy 617 mod. konnten Abweichungen hinsichtlich des Verformungs- und Schädigungsverhalten identifiziert werden. Neben den Versuchen zur Grundcharakterisierung wurden komplexe Laborversuche zur Charakterisierung des Werkstoffverhaltens bei überlagerter Kriechermüdungsbeanspruchung sowie multiaxialen Spannungszuständen durchgeführt. Des Weiteren wurden zur Charakterisierung der Entwicklung der Mikrostruktur, des Ausscheidungsverhaltens sowie der Versetzungsstruktur für beide Nickelbasislegierungen am Material im Ausgangszustand und im kriech- bzw. kriechermüdungsbeanspruchten Zustand metallographische Untersuchungen im Lichtmikroskop und Transmissionselektronenmikroskop durchgeführt. Die Ergebnisse wurden zur Einordnung mit den Ergebnissen aus anderen Forschungsvorhaben verglichen und es konnten keine Abweichungen festgestellt werden. Um mit Hilfe von Finite-Elemente Simulationen das Verformungs- und Schädigungsverhalten bei Kriechermüdungsbeanspruchungen beschreiben zu können, wurde ein viskoplastisches Verformungsmodell mit integrierter Schädigungsformulierung nach Lemaitre verwendet. Die werkstoffabhängigen Modellparameter wurden anhand der Ergebnisse der Grundcharakterisierungsversuche für beide Nickelbasislegierungen angepasst. Zur Einordnung der Anpassungen wurden sämtliche Zeitstand und Ermüdungsversuche in FE-Simulationen nachgerechnet. Weiterhin erfolgte die Verifizierung der Modellanpassungen durch Nachrechnungen der komplexen Laborversuche. Aus den Vergleichen der Ergebnisse der Versuche und Simulationen ist zu identifizieren, dass sowohl das Verformungs- als auch das Schädigungsverhalten in guter Weise durch das viskoplastische Materialmodell mit den ermittelten Parametern beschrieben werden kann. Anhand von Nachrechnungen komplexer dickwandiger Bauteile (Sammler, Halbkugelformstück) unter realitätsnahen thermischen und mechanischen Belastungsbedingungen konnte gezeigt werden, dass das im Rahmen dieser Arbeit an den Werkstoffen Alloy 617 mod. bzw. Alloy 263 angepasste Verformungs- und Lemaitre-Schädigungsmodell geeignet ist, um die anrissgefährdeten Stellen und die Lebensdauer bis zum Anriss vorherzusagen. Dies konnte anhand von Farbeindringprüfungen sowie Auswertungen der Bruchflächen des untersuchten Sammlers belegt werden. Für die Lebensdauerwertungen wurden darüber hinaus noch die Bewertungsansätze nach der europäischen DIN EN 12952-3/4, der amerikanischen ASME Section III Division 1 Subsection NH, der französischen RCC-MR RB 3262.12 und der britischen R5 Empfehlungen Volume 2/3 angewendet. Dabei zeigte sich, dass die Ansätze nach ASME und RCC-MR aufgrund sehr konservativer Vorhersagen und die Ansätze nach R5 und DIN EN 12952 aufgrund nicht konservativer Vorhersagen für die Nickelbasislegierungen Alloy 617 mod. und Alloy 263 nicht geeignet sind.Item Open Access Visualization techniques for parallel coordinates(2013) Heinrich, Julian; Weiskopf, Daniel (Prof. Dr.)Visualization plays a key role in knowledge discovery, visual data exploration, and visual analytics. Static images are an effective tool for visual communication, summarization, and pattern extraction in large and complex datasets. Only together with human-computer-interaction techniques, visual interfaces enable an analyst to explore large information spaces and to drive the whole analytical reasoning process. Scatterplots and parallel coordinates are well-recognized visualization techniques that are commonly employed for statistics (both explorative and descriptive) and data-mining, but are also gaining importance for scientific visualization. While scatterplots are restricted to the display of at most three dimensions due to the orthogonal layout of coordinate axes, a parallel arrangement allows for the visualization of multiple attributes of a dataset. Although both techniques rely on projections of higher-dimensional geometry and are related by a point–line duality, parallel coordinates enjoy great popularity for the visualization and analysis of multivariate data. Despite their popularity, parallel coordinates are subject to a number of limitations that remain to be solved. For large datasets, the potentially high amount of overlapping lines may hinder the observer from visually extracting meaningful patterns. Encoding observations with polylines make it difficult to follow lines over all dimensions, as they lose visual continuation across the axes. Clusters cannot be represented by the geometry of lines, and the order of axes has a high impact on the patterns exhibited by parallel coordinates. This thesis presents visualization techniques for parallel coordinates that address these limitations. As a foundation, an extensive review of the state of the art of parallel coordinates will be given. Based on the point–line duality, the existing model of continuous scatterplots is adapted to parallel coordinates for the visualization of data defined on continuous domains. To speed up computation and obtain interactive frame rates, a scalable and progressive rendering algorithm is introduced that further allows for arbitrary reconstruction and interpolation schemes. A curve-bundling model for parallel coordinates is evaluated with a user study showing that bundling is effective for cluster visualization based on geometric cues while being equally capable of revealing correlations between neighboring axes. To address the axis-order problem, a graph-based approach is presented that allows for the visualization of all pairwise relations in a matrix layout without redundancy. Finally, the use of parallel coordinates is demonstrated for real datasets from computational fluid dynamics, motion capturing, bioinformatics, and systems biology.