Universität Stuttgart
Permanent URI for this communityhttps://elib.uni-stuttgart.de/handle/11682/1
Browse
Search Results
Item Open Access Situation based process monitoring in complex systems considering vagueness and uncertainty(2004) Rebolledo, Mario; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)History has demonstrated during the 20th century that industrial development carries hazards that should not be ignored because they endanger humans, the environment and production facilities. For this reason, continuous development of new production technologies should be accompanied by a comparable development in industrial safety technologies. Safety-critical applications in complex processes are usually based on a precise monitoring of operation conditions, according to a “correct” process operation. The problem is determining if a behavior or an operation condition is “correct”. For this, models are generally used, which are able of reproducing “safe” or “appropriate” process behaviors. The difficulty of precise modeling grows continuously, because of the increasing complexity of the supervised processes. Rigorous deterministic modeling is limited to simple processes, while approximate models based on statistics or Artificial Intelligence techniques, for example, must be restricted to modeling single variables or small subsystems to be manageable and deliver useful information. A monitoring technique usually employed for complex processes relies on abstraction of the process behavior in qualitative models by using symbolic value ranges to represent required information. However, also the applicability of qualitative modeling techniques is eventually restricted by the resulting model size. In this research work, a new process monitoring approach, based on qualitative models, efficiently depicts valuable vague and uncertain information that is currently discarded during the modeling. The proposed method expands the ability of Situation-based Qualitative Modeling and Analysis (SQMA) to monitor complex processes by integrating elements of the Rough Set Theory and Stochastic Qualitative Automata. The resulting models are considerably more precise than other similar-sized qualitative models. At the same time, the new method develops more compact and precise qualitative models than traditional qualitative models of the same precision.Item Open Access Verfahren zur Unterstützung der Arbeitsabläufe bei der Crash-Simulation im Fahrzeugbau(2004) Frisch, Norbert; Ertl, Thomas (Prof. Dr.)Der starke internationale Wettbewerb in der Automobilindustrie zwingt die Unternehmen zu immer kürzeren Produktzyklen bei gleichzeitiger Reduzierung der Kosten bei der Fahrzeugentwicklung. Die passive Sicherheit ist dabei ein Thema von zunehmender Bedeutung in der Karosserieentwicklung. Die Optimierung der passiven Sicherheit erfolgt heute vor allem mit Hilfe von Crash-Simulationen am Rechner. Im Rahmen der vorliegenden Arbeit wurden Verfahren zur Vorbereitung (Preprocessing) und Steuerung von Crash-Simulationen entwickelt. Damit lassen sich Crash-Simulationen effizienter und bereits in der frühen Phase der Karosserieentwicklung durchführen, in der Änderungen noch mit wenig Aufwand verbunden sind. Die Forschungsarbeiten wurden im Rahmen der BMBF-Verbundprojekte AutoBench und AutoOpt und in enger Zusammenarbeit mit dem Automobilhersteller BMW realisiert. Ziel war die Entwicklung von Softwareprototypen zur Unterstützung der Berechnungsingenieure bei der Durchführung von Crash-Simulationen. Zunächst werden Techniken zur Erkennung, Visualisierung und Beseitigung der bei der Diskretisierung des CAD-Modells entstandenen Netzinkonsistenzen präsentiert. Ergänzt werden diese Verfahren durch einen Algorithmus zur Gitterrelaxation, der die Gleichmäßigkeit der Finiten Elemente nach der Beseitigung von Netzinkonsistenzen wiederherstellt. Anschließend wird ein Verfahren zur Flanscherkennung beschrieben, welches als Grundlage für weitere Algorithmen dient. Darauf aufbauend wird eine Vorgehensweise zur automatischen Definition von Schweißpunktlinien auf Flanschen vorgestellt. Ein breites Spektrum von Änderungen der Geometrie von Bauteilen durch Verformung bietet die sogenannte Free-Form Deformation. Im Rahmen dieser Arbeit wurde dieses Verfahren weiterentwickelt und hinsichtlich Benutzerfreundlichkeit und Effizienz angepasst. In Verbindung mit der Flanscherkennung wurde darauf aufbauend ein iterativer Algorithmus zur Justierung des Abstandes von Flanschen entwickelt. Damit können außerdem Durchdringungen von Finiten Elementen auf Flanschen behoben werden. Beim sogenannten Massentrimm geht es schliesslich um die vereinfachte Darstellung von nichttragenden Teilen. Dies vereinfacht den Berechnungsaufwand, da weniger Finite Elemente bei der Simulation berücksichtigt werden müssen. Durch die in dieser Arbeit entwickelten Preprocessing-Verfahren lässt sich das Finite-Elemente-Netz für die Simulation aufbereiten, und es können Änderungen und Ergänzungen am Netz vorgenommen werden. So kann z.B. die Auswirkung kleiner Änderungen auf das Simulationsverhalten rasch untersucht werden, und durch Ergänzung eines noch unvollständigen Finite-Elemente Modells lassen sich bereits in der frühen Entwicklungsphase Erkenntnisse über das Crashverhalten gewinnen. Die hier vorgestellten Verfahren wurden innerhalb einer Anwendung zur Visualisierung und Modellierung von Finite-Elemente-Modellen realisiert. Zusätzlich wurde diese Anwendung an die Integrationsumgebung CAE-Bench angebunden. CAE-Bench bietet eine Web-basierte Benutzerführung und eine einheitliche Bedienoberfläche für die verschiedenen Anwendungen bei der Crash-Simulation. Es wurde ein spezielles Java-Applet entwickelt, welches in die CAE-Bench Web-Seite eingebettet wird. Dieses Applet kommuniziert mit der Anwendung über CORBA und mit der CAE-Bench Web-Seite mit Hilfe von Java und Javascript Methodenaufrufen. Eine weitere CORBA-Schnittstelle der Anwendung ermöglicht den Abruf und die Visualisierung von Zwischenergebnissen der laufenden Simulation. So lässt sich frühzeitig Einfluss auf die Simulation nehmen, ein Vorgehen, das als Simulation Steering bezeichnet wird. Die vorliegende Arbeit kombiniert Ansätze aus den verschiedenen Bereichen der Informatik, z.B. aus dem Bereich der geometrischen Algorithmen, der Computergraphik, der Visualisierung und der geometrischen Modellierung, sowie aus dem Bereich der Benutzerschnittstellen und der Web-basierten und Middleware-Technologien. Durch die Beiträge dieser Arbeit wird eine schnelle und frühzeitige Durchführung von Crash-Simulationen unterstützt. Dies führt durch Simultaneous Engineering zu einer signifikanten Verkürzung der Entwicklungszeiten bei der Fahrzeugkonstruktion.Item Open Access Entwicklung hybrider Komponentenmodelle zur Prozessüberwachung komplexer dynamischer Systeme(2004) Manz, Susanne; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)Für die Automatisierung kontinuierlich-diskreter technischer Prozesse ist neben der Realisierung der Steuerungs- und Regelungsfunktionen auch die automatische Überwachung des bestimmungsgemäßen Betriebs von großer Bedeutung. In ingenieurtechnischen Anwendungen werden zur Prozessüberwachung und Diagnose häufig modellbasierte Lösungen mit dem Ziel betrachtet, eine möglichst genaue Beschreibung der betreffenden technischen Anlage zu erhalten. Jedoch ist besonders für komplexe dynamische Systeme das Aufstellen und Betreiben eines mathematischen Modells zur Online-Überwachung mit vielen Schwierigkeiten verbunden. Aufgrund dieser Schwierigkeiten bieten sich für komplexe Systeme qualitative Modellierungsverfahren an. Bei diesen Verfahren müssen die inneren physikalischen Zusammenhänge nicht genau wiedergegeben werden, sondern die Modelle enthalten nur Situationen, in denen etwas „passiert“. Das qualitative Modell muss solche Situationen voneinander unterscheiden können. Eine Möglichkeit, diese Schwierigkeiten in den Griff zu bekommen, ist die Kombination von qualitativen und kontinuierlichen, so genannten hybriden Modellen. Im Rahmen des Forschungsthemas „Entwicklung hybrider Komponentenmodelle zur Prozessüberwachung komplexer dynamischer Systeme“ wurde das SQMD-Verfahren (Situation based Qualitative Monitoring and Diagnosis) entwickelt. Das Verfahren zeichnet sich durch eine einfache, streng komponentenorientierte Modellierung aus. Komponenten ohne Speicherwirkung des technischen Prozesses werden nur qualitativ modelliert. In diesem Fall ordnet der Modellierer jeder physikalischen Größe verschiedene Wertebereiche zu, die das ordnungsgemäße und das fehlerhafte Verhalten dieser Komponente qualitativ beschreiben. Die dynamische Beschreibung erfolgt nur für Komponenten mit Speicherwirkung und wird für die Abbildung des dynamischen Systemverhaltens im qualitativen Modell benötigt. Im Rahmen der Online-Überwachung werden innerhalb eines bestimmten Zeitfensters alle Komponenten miteinander verknüpft und der Zustandsraum reduziert. Dies erfolgt auf Basis der hybriden Komponentenmodelle, der Systemstruktur und der vom technischen Prozess eingehenden Sensor- und Aktordaten. Der reduzierte Zustandsraum kann auf eventuelles Fehlverhalten des technischen Prozesses untersucht werden. Die Durchführbarkeit des Konzepts wird am Modellprozess Drei-Tank-System demonstriert. Anschließend findet die Übertragung auf ein reales System, die Überwachung der aero- und gasdynamischen Prozesse im Kohlebergwerk, statt.Item Open Access Hierarchical methods for filtering and visualization based on graphics hardware(2004) Hopf, Matthias; Ertl, Thomas (Prof. Dr.)Interactive visualization of large data sets is only possible with efficient algorithms for all parts of the visualization pipeline. This thesis analyzes the filtering and the rendering steps of this pipeline for several fundamentally different data types. Two key techniques that are employed throughout this work are the use of hierarchical methods and graphics-hardware-based implementations of the presented algorithms. In order to improve the efficiency of filtering, both linear and nonlinear filters are accelerated using graphics hardware for the computation. For many algorithms hierarchical filters based on wavelets are needed and, therefore, inspected as well. Finally, the quality of the achieved results is analyzed, as the accuracy of graphics-card-based approaches is limited by register sizes and framebuffer depths. During rendering hierarchical approaches allow for a compact representation of partially detailed data. Additionally, the user can trade visualization speed for quality. Sparse grids allow for extremely compact representations, thus interpolated data from sparse grids would no longer fit into main memory. This raises the need for visualization algorithms working directly on the sparse grid coefficients. The interpolation process is expensive, but graphics hardware is usually too inaccurate to be used for acceleration. Thus, the rendering process is parallelized with MPI, using a ray distribution scheme that implicitly generates previews with lower resolution during rendering. For unstructured data a compact hierarchical representation with radial basis functions is introduced that can be employed for rendering at interactive frame rates using graphics hardware. Completely uncorrelated data like astrophysical n-body problems have high spatial resolution which is lost during resampling for volume rendering. A new hierarchical splatting approach is presented that is able to visualize tens of millions of points interactively for steady and time-dependent data sets. The used data representations have different approximation capabilities, thus the properties of the different data encodings are analyzed by comparing several data sets that exhibit different amounts of features.Item Open Access Suchraumbeschränkung für relationales Data Mining(2004) Weber, Irene; Lehmann, Egbert (Prof. Dr.)Data Mining und Knowledge Discovery in Databases (KDD) sind Forschungs- und Anwendungsgebiete, die sich mit der Extraktion von nutzbarem Wissen aus Daten befassen. Dazu werden unter anderem Methoden des maschinellen Lernens eingesetzt. Die Induktive Logikprogrammierung ist ein Teilgebiet des Maschinellen Lernens, dessen Gegenstand das Lernen aus multi-relational und prädikatenlogisch repräsentierten Daten ist, während andere Lernverfahren üblicherweise Daten voraussetzen, die in Form einer einzelnen Attribut-Wert-Tabelle vorliegen. Der Einsatz von ILP-Methoden für KDD und Data Mining wird auch als Relationales Data Mining bezeichnet. Ein Anwendungsgebiet von KDD und Data Mining ist die Teilgruppenanalyse. Dabei wird eine Population von Fällen, die in einer Datenbank repräsentiert sind, nach besonders interessanten Teilgruppen der Population durchsucht, indem mögliche Teilgruppen generiert und mithilfe geeigneter Interessantheitsfunktionen bewertet werden. Die vorliegende Arbeit hat sich zum Ziel gesetzt, Methoden zur sicheren Beschränkung des Suchraums bei der Suche nach interessanten Teilgruppen in multi-relationalen Daten zu erarbeiten und zu evaluieren. Dazu wird ein Verfahren zur Suche nach interessanten Teilgruppen in multi-relationalen Datenbanken entwickelt, das verschiedene Methoden zur Suchraumbeschränkung integriert. Die verschiedenen Methoden zur Suchraumbeschränkung werden in Experimenten evaluiert und das entwickelte Verfahren zur Bearbeitung eines echten Data Mining-Problems eingesetzt. Die Arbeit bietet im einzelnen: (1) eine Formalisierung der Teilgruppenanalyse im Rahmen der ILP, (2) Optimumschätzfunktionen zu ausgewählten Interessantheitsfunktionen, (3) eine Erweiterung des bekannten Apriori-Suchverfahrens zur Warenkorbanalyse, die es erlaubt, die von Apriori durchsuchte Hypothesensprache einzuschränken, (4) einen ILP-Sprachbias für die Teilgruppenanalyse, der die Anwendung der Teilmengenbedingung des Apriori-Suchverfahrens zur Beschränkung eines ILP-Suchraums erlaubt, (5) einen SQL-Sprachbias für die Teilgruppenanalyse in multi-relationalen Datenbanken, (6) einen Ansatz zur Integration der Suchraumbeschränkung anhand von Taxonomien in einen Apriori-artigen Suchalgorithmus, (7) eine Methode zur Behandlung diskretisierter numerischer Attribute, die die Suchraumbeschränkung anhand von Allgemeinerbeziehungen zwischen Intervallen vereinheitlicht mit der Suchraumbeschränkung anhand von Taxonomien, (8) Experimente zur Wirksamkeit der verschiedenen Möglichkeiten zur Suchraumbeschränkung, (9) die Anwendung der entwickelten Ansätze auf ein echtes Data Mining-Problem mit Bank-Daten und ausführliche Vergleiche mit verwandten Arbeiten. Die Experimente wurden mit einer prototypischen Implementation der in dieser Arbeit entwickelten Ansätze durchgeführt. Dabei haben sich Teilmengenbedingung und Optimumschätzfunktionen als wirkungsvolle und zuverlässige Methoden zur Beschränkung des Suchraums erwiesen, während der Beitrag der Taxonomien zur Suchraumbeschränkung zwischen verschiedenen Anwendungen stark schwankte und in einigen Fällen nur gering war. Ein wichtiges Ergebnis der Versuche ist, daß die Teilmengenbedingung, die bisher nur zur Suchraumbeschränkung in ein-relationalen Datenbanken eingesetzt werden konnte, für multi-relationale Datenbanken und ILP-Sprachen genauso wirkungsvoll sein kann wie für ein-relationale Datenbanken.Item Open Access Volumetric methods for the real time display of natural gaseous phenomena(2004) Roettger, Stefan; Ertl, Thomas (Prof. Dr.)Compared to the nineties where fast 3D graphics was the domain of expensive workstations, in the last few years the development of ever faster 3D graphics hardware was mainly driven by the gaming industry. The upcoming of programmable PC graphics hardware has opened the field for new graphics algorithms which allow unprecedented realism in real time applications. Nevertheless, one area of application is persistently resisting most efforts to achieve sufficient rendering performance: This is the area of volume rendering. Because of the huge amounts of data that have to be processed to obtain a three-dimensional visualization, it is very challenging to achieve real time performance for large volumetric data sets. In this thesis we try to tackle this problem in one specific application field. We devise algorithms that are suitable for the real time display of natural gaseous phenomena. In particular our goal is to render clouds and fog in real time. In principle, the problem reduces to solving the so called ray integral. A common technique for solving this ray integral is ray casting which collects the incoming light on each viewing ray by sampling the volume. On the one hand ray casting achieves very good rendering quality, but on the other hand it becomes very slow at high screen resolutions. Many improvements have been presented to accelerate the original approach, but despite all efforts ray casting is still only beginning to be an option for high-quality real-time rendering. Very recent advances in graphics hardware have lead to the implementation of hardware-accelerated ray casters, but this approach still suffers from a variety of limitations of the graphics hardware. The main technique developed in this thesis is the so called pre-integrated cell-projection method which offloads as much computation of the ray integral as possible into a preprocessing step. This is the first step toward real-time rendering of natural gaseous phenomena. In a second step we develop a hierarchical approximation scheme which decimates the huge amount of data in a view-dependent way. For this purpose we borrow ideas from the area of terrain rendering and apply the so-called continuous level of detail method to the three-dimensional case, that is fog and cloud volumes. In combination with the pre-integrated cell-projection method this permits real-time flights through natural looking clouds and ground fog. In comparison to previous methods image quality is also improved significantly.Item Open Access Erweiterbarkeit multimedialer Dokumentensysteme zur dynamischen Anpassung an anwendungsspezifische Anforderungen(2004) Hauser, Jürgen; Rothermel, Kurt (Prof. Dr.)Multimedia-Präsentationen stellen hohe technische und programmiersprachliche Anforderungen an ihren Ersteller. Grundlage multimedialer Präsentationen sind so genannte Multimedia-Dokumente. Durch die Verwendung von Multimedia-Dokumenten kann der Erstellungsprozess definiert und strukturiert werden. Multimedia-Präsentationen sind durch ihre Zeitabhängigkeit und die Interaktionsmöglichkeiten, die den Verlauf der Präsentation beeinflussen, gekennzeichnet. Damit unterscheiden sie sich grundlegend von textuellen oder statischen Dokumenten. Die Weitergabe von statischen Dokumenten erfolgt nach einer Ausgabe über den Drucker im Allgemeinen in Papierform. Multimedia-Dokumente werden dem Benutzer immer auf einem Rechner präsentiert. Die Zeitabhängigkeit von Multimedia-Präsentationen wurde bereits in vielen wissenschaftlichen Publikationen behandelt. Die vorliegende Abhandlung widmet sich daher hauptsächlich den Interaktionsmöglichkeiten. Beim näheren Betrachten der Interaktion ist zu erkennen, dass sie vom jeweiligen Anwendungsgebiet, in dem das Multimedia-Dokument eingesetzt werden soll, abhängt. Neben der Interaktion selbst ist die Reaktion der Präsentation auf Interaktionen von Bedeutung. Letztendlich unterscheiden sich die Anwendungsgebiete in der Interaktionsform und den Reaktionen der Präsentation. Diese Unterschiede sollten in der Spezifikationssprache für Multimedia-Dokumente sichtbar sein. In der Literatur gibt es zwei unterschiedliche Ansätze für Spezifikationssprachen. Der erste Ansatz sind generische Sprachen. Sie führen zu einem hohen Aufwand bei der Erstellung, da sie anwendungsunabhängig sind und damit den Autor nicht unterstützen. Anwendungsspezifische Spezifikationssprachen legen sich auf ein Anwendungsgebiet fest. Neue Anwendungsgebiete erfordern eine Neuentwicklung und bedeuten eine neue Benutzungsschnittstelle für den Autor. Viele unterschiedliche Systeme und Speicherformate erhöhen den Verwaltungsaufwand und erschweren die Weiterverarbeitung der Dokumente, beispielsweise in bibliographischen Nachweissystemen. In dieser Abhandlung wird ein erweiterbarer Ansatz vorgestellt. Für den erweiterbaren Ansatz wird ein Meta-Dokumentenmodell entwickelt, das die Eigenschaften der Spezifikationssprachen zusammenfasst, die unabhängig vom Anwendungsgebiet sind. Für konkrete Anwendungsgebiete werden Spezifikationssprachen als Instanz dieses Meta-Dokumentenmodells zur Verfügung gestellt. Die Erweiterbarkeit des Ansatzes bedeutet, dass sowohl in einem Autorenwerkzeug als auch im zugehörigen Präsentationssystem die Unterstützung für ein neues Anwendungsgebiet nachträglich hinzugefügt werden kann. Die Implementierung einer Spezifikationssprache, als Erweiterung des Präsentationssystems, soll mit einem möglichst geringem Aufwand verbunden sein. Dazu wird eine modulare Architektur für ein erweiterbares Präsentationssystem vorgeschlagen. Für die Präsentation eines Dokuments müssen alle benötigten Erweiterungen dynamisch zur Laufzeit in die Architektur eingefügt werden. Idealerweise erfolgt dies ohne Zutun des Autors oder Benutzers automatisch durch das Präsentationssystem. Damit beschreibt das Transferformat für Dokumente, das ebenfalls die Erweiterbarkeit unterstützen muss, nicht nur die Struktur der Dokumente, sondern auch die Konfiguration des Präsentationssystems zur Präsentationszeit. Neben der Entwicklung des Meta-Dokumentenmodells und des erweiterbaren Präsentationssystems wird ein ebenfalls dynamisch erweiterbares Autorenwerkzeug konzipiert. Die Erweiterbarkeit des Ansatzes soll im Autorenwerkzeug minimale Auswirkungen auf die Benutzungsschnittstelle haben. Aus diesem Grund greift die Benutzungsschnittstelle zur Erstellung von Multimedia-Dokumenten nur auf Eigenschaften des Meta-Dokumentenmodells zurück. Neben der Erweiterbarkeit werden Konzepte zur Vereinfachung des Spezifikationsprozesses untersucht.Item Open Access Hardware accelerated volume visualization on PC clusters(2004) Magallón Gherardelli, Marcelo Eduardo; Ertl, Thomas (Prof. Dr.)This work presents a system for the hardware accelerated parallel rendering of large volume datasets on PC Clusters. The parallelization possibilities on the visualization pipeline are explained, and how some of this possibilities have been exploited. The evolution of commodity graphics hardware is also discussed, and serves as motivation for working on the parallelization of the last step of the visualization pipeline, namely the rendering of images. A comparison between ''high end'' proprietary visualization systems and commodity hardware is provided and serves as motivation for working on the parallelization of the rendering using clusters of PCs equipped with commodity graphics hardware. The parallelization of the volume rendering algorithm is presented, and special attention is paid to the parallelization of the compositing stage: two well known algorithms for parallel compositing, direct send and binary swap, are discussed and compared and a justification for choosing one over the other is provided. Assembler implementations of the compositing operation are given, one for the Intel's x86 architecture, and one for AMD's AMD64. The performance characteristics of this implementations are discussed. Remote access of generic visualization facilities is presented, including a detailed description of a generic method for remotely accessing visualization applications.