Universität Stuttgart
Permanent URI for this communityhttps://elib.uni-stuttgart.de/handle/11682/1
Browse
Search Results
Item Open Access Interactive volume rendering in virtual environments(2003) Schulze-Döbold, Jürgen Peter; Ertl, Thomas (Prof. Dr.)This dissertation is about the interactive visualization of volume data in virtual environments. Only data on regular grids will be discussed. Research was conducted on three major topics: visualization algorithms, user interfaces, and parallelization of the visualization algorithms. Because the shear-warp algorithm is a very fast CPU-based volume rendering algorithm, it was investigated how it could be adapted to the characteristics of virtual environments. This required the support of perspective projection, as well as specific developments for interactive work, for instance a variable frame rate or the application of clipping planes. Another issue was the improvement of image quality by the utilization of pre-integration for the compositing. Concerning the user interface, a transfer function editor was created, which was tailored to the conditions of virtual environments. It should be usable as intuitively as possible, even with imprecise input devices or low display resolutions. Further research was done in the field of direct interaction, for instance a detail probe was developed which is useful to look inside of a dataset. In order to run the user interface on a variety of output devices, a device independent menu and widget system was developed. The shear-warp algorithm was accelerated by a parallelization which is based on MPI. For the actual volume rendering, a remote parallel computer can be employed, which needs to be linked to the display computer via a network connection. Because the image transfer turned out to be the bottleneck of this solution, it is compressed before being transferred. Furthermore, it will be described how all the above developments were combined to a volume rendering system, and how they were integrated into an existing visualization toolkit.Item Open Access Integration von Data Mining und Online Analytical Processing : eine Analyse von Datenschemata, Systemarchitekturen und Optimierungsstrategien(2003) Schwarz, Holger; Mitschang, Bernhard (Prof. Dr.-Ing. habil.)Die technischen Möglichkeiten, Daten zu erfassen und dauerhaft zu speichern, sind heute so ausgereift, dass insbesondere in Unternehmen und anderen Organisationen große Datenbestände verfügbar sind. In diesen Datenbeständen, häufig als Data Warehouse bezeichnet, sind alle relevanten Informationen zu den Organisationen selbst, den in ihnen ablaufenden Prozessen sowie deren Interaktion mit anderen Organisationen enthalten. Vielfach stellt die zielgerichtete Analyse der Datenbestände den entscheidenden Erfolgsfaktor für Organisationen dar. Zur Analyse der Daten in einem Data Warehouse sind verschiedenste Ansätze verfügbar und erprobt. Zwei der wichtigsten Vertreter sind das Online Analytical Processing (OLAP) und das Data Mining. Beide setzen unterschiedliche Schwerpunkte und werden bisher in der Regel weitgehend isoliert eingesetzt. In dieser Arbeit wird zunächst gezeigt, dass eine umfassende Analyse der Datenbestände in einem Data Warehouse nur durch den integrierten Einsatz beider Analyseansätze erzielt werden kann. Einzelne Fragestellungen, die sich aus diesem Integrationsbedarf ergeben werden ausführlich diskutiert. Zu den betrachteten Fragestellungen gehört die geeignete Modellierung der Daten in einem Data Warehouse. Bei der Bewertung gängiger Modellierungsansätze fließen insbesondere die Anforderungen ein, die sich durch den beschriebenen Integrationsansatz ergeben. Als Ergebnis wird ein konzeptuelles Datenmodell vorgestellt, das Informationen in einer Weise strukturiert, die für OLAP und Data Mining gleichermaßen geeignet ist. Im Bereich der logischen Modellierung werden schließlich diejenigen Schematypen identifiziert, die die Integration der Analyseansätze geeignet unterstützen. Im nächsten Schritt sind die für Data Mining und OLAP unterschiedlichen Systemarchitekturen Gegenstand dieser Arbeit. Deren umfassende Diskussion ergibt eine Reihe von Defiziten. Dies führt schließlich zu einer erweiterten Systemarchitektur, die die Schwachstellen beseitigt und die angestrebte Integration geeignet unterstützt. Die erweiterte Systemarchitektur weist eine Komponente zur anwendungsunabhängigen Optimierung unterschiedlicher Analyseanwendungen auf. Ein dritter Schwerpunkt dieser Arbeit besteht in der Identifikation geeigneter Optimierungsansätze hierfür. Die Bewertung der Ansätze wird einerseits qualitativ durchgeführt. Andererseits wird das Optimierungspotenzial der einzelnen Ansätze auch auf der Grundlage umfangreicher Messreihen gezeigt.Item Open Access Validierung komponentenbasierter Software für Echtzeitsysteme(2003) Fleisch, Wolfgang; Göhner, Peter (Prof. Dr.-Ing. Dr. h.c.)Der Anteil und die Bedeutung von Software bei der Entwicklung von Echtzeitsystemen wächst sehr stark. Gleichzeitig werden die Entwicklungszyklen für Software-Produkte zunehmend kürzer, was sich immer häufiger in ausgelieferter fehlerhafter Software widerspiegelt. Durch die Verwendung vorgefertigter Software-Komponenten kann nach dem Baukastenprinzip bei der Konstruktion neuer Produkte die Produktivität und die Qualität erheblich gesteigert werden. Aber auch wenn durch den Einsatz geprüfter, betriebsbewährter Software-Komponenten viele Fehler vermieden werden, muss eine aus Komponenten zusammengesetzte Software auch in Zukunft mit geeigneten Prüfverfahren validiert werden, weil beim Zusammenspiel der Komponenten weiterhin Fehler entstehen können. In der vorliegenden Arbeit wird dazu ein Prüfverfahren zur Validierung komponentenbasierter Software für Echtzeitsysteme entwickelt, das das dynamische Verhalten von komponentenbasierter Software gegenüber den Anforderungen aus Anwendersicht überprüft. Die Anforderungen werden zu Beginn der komponentenbasierten Softwareentwicklung als Anwendungsfälle spezifiziert. Mit Hilfe von erweiterten UML Sequenzdiagrammen werden die Anwendungsfälle systematisch in eine formale, automatisiert prüfbare Notation überführt, die auch die Spezifikation von Echtzeitanforderungen explizit unterstützt. Da beim Entwurf von komponentenbasierter Software bereits vollständig spezifizierte Software-Komponenten verwendet werden, kann das Verhalten schon in der frühen Entwurfsphase mit Hilfe von Simulation validiert werden. Die Verwendung von Simulation hat den Vorteil, dass auch ohne die in der Praxis meist spät verfügbaren Bestandteile des technischen Prozesses und des Automatisierungsrechnersystems eine Prüfung des simulierten Verhaltens der komponentenbasierten Software durchgeführt werden kann. Anhand festgelegter Prüfkriterien wird dann das simulierte Verhalten der komponentenbasierten Software gegenüber dem in den Anwendungsfällen spezifizierten Verhalten geprüft, um damit frühzeitig Fehler aufzudecken. Eine im Rahmen der Arbeit realisierte Validierungsumgebung unterstützt den Softwareentwickler dabei umfassend, angefangen bei der Spezifikation von prüfbaren Anwendungsfällen, bis hin zur automatisierten Prüfung des simulierten Verhaltens. Die Leistungsfähigkeit des Prüfverfahrens und der Validierungsumgebung werden abschließend am Beispiel der Entwicklung und Validierung einer komponentenbasierten Software für eine Kfz-Scheibenwischeranlage demonstriert.Item Open Access Direct volume visualization of geometrically unpleasant meshes(2003) Kraus, Martin; Ertl, Thomas (Prof. Dr.)Interactive volume visualization (i.e., the visualization of scalar data defined on volumetric meshes in real time) is not only difficult to achieve for large meshes but it is also complicated by particular geometric features of volumetric meshes, e.g., non-uniform cells, non-convex boundaries, or visibility cycles. This thesis addresses several of these geometric features and their unpleasant consequences with respect to direct volume visualization, which is one of the most successful techniques for interactive volume visualization. In order to overcome, or at least alleviate, these difficulties, several new algorithmic solutions are presented: pre-integrated cell projection and hardware-assisted ray casting for non-uniform meshes, edge collapses in non-convex meshes, cell sorting and cell projection for non-convex and cyclic meshes, as well as texture-based pre-integrated volume rendering, topology-guided downsampling, and adaptive volume textures for non-simplicial volumetric meshes (i.e., non-tetrahedral meshes). As this work cannot cover all geometrically unpleasant features of volumetric meshes, particular emphasis is put on a description of the development of the proposed algorithms. In fact, most of the presented techniques are (or may be interpreted as) generalizations, adaptations, or extensions of existing methods. The intention of explaining these origins is to motivate new solutions for those geometrically unpleasant features of meshes that were out of the scope of this work.Item Open Access Query processing concepts and techniques for set containment tests(2003) Rantzau, Ralf; Mitschang, Bernhard (Prof. Dr.-Ing. habil.)Relational division is an operator of the relational algebra that realizes universal quantifications in queries against a relational database. Expressing a universal quantification problem in SQL is cumbersome. If the division operator would have a counterpart in a query language, a more intuitive formulation of universal quantification problems would be possible. Although division is a derived operator - it can be expressed using other basic algebra operators - the performance of queries involving a division problem can be significantly increased if it is implemented as a separate operator in a query processor. In this work, we study relational division as well as operators related to it like set containment join. We present a classification of division algorithms and define algebraic laws to enable query optimization for queries involving division. A natural generalization of the division operator, called set containment division, is proposed and algorithms that realize it are discussed, including an algorithm that uses a new in-memory index data structure. Furthermore, we study strategies for parallelizing set containment division algorithms. The most popular data mining sub-task called frequent itemset discovery, where one tries to find the number of transactions that contain a given set of items, is an excellent example of a problem that requires efficient set containment tests. In this work, we focus on frequent itemset discovery algorithms that exploit the query processing capabilities of a relational database system. After reviewing the best algorithms based on SQL-92, we suggest a new approach, called Quiver, that can be executed with the help of set containment division. We report on performance results that cover experiments with frequent itemset discovery algorithms running on commercial database systems as well as experiments that highlight the most important properties of set containment test algorithms using a query processor prototype implemented in Java.Item Open Access Modellierung und Ablaufplanung adaptiver Multimedia-Dokumente(2003) Wirag, Stefan; Rothermel, Kurt (Prof. Dr. Dr.)Multimedia-Dokumente ermöglichen eine integrierte Präsentation diskreter und kontinuierlicher Medien. In einer verteilten Umgebung werden Multimedia-Dokumente typischerweise auf Servern gespeichert. Von dort können sie bei Bedarf abgerufen und präsentiert werden. Durch die enthaltenen kontinuierlichen Medien erfordert die Präsentation von Multimedia-Dokumenten viele Ressourcen, so daß schnell Ressourcenengpässe entstehen, wodurch es unmöglich wird ein Multimedia-Dokument wie spezifiziert zu präsentieren. Das Resultat ist eine reduzierte Präsentationsqualität und manchmal kann es sogar unmöglich werden ein Dokument zu präsentieren. Eine Lösung für dieses Problem bieten Multimedia-Dokumente, die sich an unterschiedliche Ressourcensituationen anpassen können. Adaptive Multimedia-Dokumente enthalten Präsentationsalternativen, die unterschiedliche Ressourcenanforderungen implizieren. Bei der Vorbereitung der Präsentation eines Multimedia-Dokuments wird dann eine geeignete Untermenge der Präsentationsalternativen unter Berücksichtigung der momentanen Ressourcensituation ausgewählt. In der Arbeit wird ein Modell für adaptive Multimedia-Dokumente vorgestellt und es werden Implikationen erörtert, die sich durch die Adaptivität in Bezug auf die Dokumenterstellung, die Konsistenzwahrung, die Ablaufplanung und die Architektur eines Dokumentensystems ergeben. Das entwickelte Dokumentenmodell integriert Abstraktionen zur Definition von alternativen Präsentationsmöglichkeiten sowie zur Steuerung der Auswahl von Präsentationsalternativen während der Präsentation. Der Schwerpunkt liegt hierbei auf der Modellierung adaptiver zeitlicher Aspekte. Da die Spezifikation von Präsentationsalternativen zu einer komplexeren Dokumentstruktur führt, wird ein graphisches Autorensystem erforderlich, das die Erstellung von adaptiven Multimedia-Dokumenten mittels visuellen Programmiertechniken ermöglicht. In der Arbeit wird ein Vorschlag für die Benutzerschnittstelle eines solchen Autorensystems erörtert. Dieses Konzept verwendet drei Ansichten, um die unterschiedlichen Aspekte eines adaptiven Multimedia-Dokuments zu visualisieren und zu erstellen. Eine komplexere Dokumentstruktur impliziert auch mehr Spezifikationsfehler. Es wurde daher ein automatischer Konsistenzprüfungsmechanismus entwickelt, der eine aufwendige und zeitintensive manuelle Fehlersuche vermeidet. Bevor ein Multimedia-Dokument präsentiert werden kann, muß das Präsentationssystem einen Ablaufplan erstellen, der beschreibt, wann welche Aktion durchgeführt werden muß, um eine Multimedia-Präsentation entsprechend dem Multimedia-Dokument zu erzeugen. Die Arbeit beschreibt einen adaptiven Ablaufplanungsalgorithmus, der die Ressourcensituation der Präsentationsumgebung bei der Erstellung von Ablaufplänen berücksichtigt. Der Algorithmus ermöglicht die Bestimmung der besten Kombination von Präsentationsalternativen, welche nicht mehr Ressourcen benötigt als verfügbar sind. Die vorgestellten Konzepte wurden prototypisch als Multimedia-Dokumentensystem implementiert, das über standardisierte Internet-Protokolle mit Dokument-Servern kommuniziert. Da die Nutzeranforderungen im Hinblick auf die Gestaltung von Multimedia-Dokumenten stetig wachsen, basiert das entwickelte Dokumentensystem auf einer Architektur, welche die Integration neuer Medientypen und Darstellungskonzepte für Medientypen unterstützt.Item Open Access On recognition of group of human beings in images with navigation strategies : using efficient matching algorithms with parallelization(2003) Piriyakumar, Douglas Antony Louis; Levi, Paul (Prof. Dr.)Eventhough the aim of the study is to recognize the human beings in the images from monocular camera without usual constraints, initially the graph theory based methods for matching are analyzed with new neighbour isomorphism. The robust Hausdorff method of matching is extended to recognize the human beings with ample models and modified distance measures. As the strategy to fuse different algorithms to get better results despite occlusions is inherently parallel, the parallel implementations on Cray T3E produced correct results in appreciably shorter computation time. As industrial applications in robotics, three example situations, one with known environment, another with unknown environment and the third with going around were discussed taking primitive models with human beings as obstacles. Unless the problem of choosing a proper model with the good indexing is available, the recognition of human beings will continue to remain as one of the hard problems to be solved.Item Open Access Innovative Verfahren zur Erweiterung der Mess- und Prüftechnik von MMICs(2003) Berger, Niels Helge; Landstorfer, Friedrich M. (Prof. Dr.-Ing.)Im Mittelpunkt der vorliegenden Arbeit steht die Erweiterung der Mess- und Prüftechnik von MMICs hinsichtlich der Lokalisierung von Design- oder Schaltungsfehlern während der Prototypen-Phase. Besondere Aufmerksamkeit wird auf die Vermeidung von Störeinflüssen (auf das Testobjekt) durch die Messung selbst sowie auf eine Berücksichtigung der Schaltungsstruktur zur bestmöglichen Ortsauflösung in Hinblick auf die Fehler-Lokalisierung gelegt. Ein Hindernis für zeitnahe Entwicklungszyklen im Bereich der Mikrowellen- und Hochfrequenz-Komponenten ist das Fehlen innovativer Hilfsmittel zur umfassenden Analyse neuer Schaltungs-Komponenten auf potenzielle Fehlfunktionen. Bisherige Messtechniken sind entweder kontaktgebunden (an zuvor festgelegte Messpunkte) und damit sowohl wenig flexibel als auch unzuverlässig, da die gesuchten Schaltungsfehler von dem (durch die Messkontaktierung) verursachten Fehlverhalten nicht immer eindeutig zu unterscheiden sind oder erlauben es nur eine Fehlfunktion festzustellen, ohne diese lokalisieren zu können. Die vorgestellte Erweiterung der Messmöglichkeiten bei MMICs erstreckt sich auf eine Ortsauflösung, die im µm-Bereich liegt, auf die Verminderung bzw. Kontrollierbarkeit des Störeinflusses der Messung auf das Testobjekt sowie auf den "Informationsgehalt" der Messdaten, die mittels inverser Feldtransformation einen Rückschluss auf Betrag, Phase und Richtung des Signalflusses zulassen. Zentrale Idee dieses Ansatzes ist die Kombination aus einem nahfeldoptischen Mikrokop (zur Berücksichtigung feiner Oberflächenstrukturen) und elektromagnetischer Nahfeldmesstechnik relativ niedriger Auflösung mit dem Ziel einer hochauflösenden Nahfeldmessung. Die feldtheoretische Verarbeitung der Messdaten zur Bestimmung und "Bildschärfung" der Signalflussverteilung ermöglicht in einem zweiten Schritt eine Lokalisierung von Störstellen. Beginnend mit den Grundlagen im Bereich der elektromagnetischen Feldtheorie soll in Kapitel 2 der Weg, zur Bestimmung einer Signalflussverteilung auf einer Schaltung aus den Feldstärkeverteilungen im Nahfeld dicht über dieser Schaltung unter Berücksichtigung der Materialeigenschaften, aufgezeigt werden. Die Kenngrößen von Nahfeldsonden werden behandelt, um später die Qualität der realisierten Nahfeldsonden quantifizieren und bewerten zu können. Im Anschluss an diese feldtheoretischen Grundlagen erfolgt eine grundlegende Einführung in die Schaltungstechnik im Bereich der Mikrowellen- und Mikrostreifenleitungs-Technik, um die Alternativen beim Entwurf und bei der Realisierung von Anpassungsverstärkern für die Feldsonden aufzuzeigen. Ein Einblick in die Regelungstechnik zur Beschreibung des Verfahrens zur Nahfeld-optischen Berücksichtigung der Oberfächenstruktur schließt dieses Kapitel ab. Die "erweiterte Messtechnik", die im Mittelpunkt dieser Arbeit steht, wird anschließend in Kapitel 3 konkret an Hand des realiserten Prototyps in ihrem Aufbau, ihren Komponenten und deren Funktionen im Zusammenspiel ausführlich behandelt. Die numerischen Methoden fokusieren sich in Kapitel 4 zum Einen auf die analytisch nicht lösbare Rücktransformation von beliebigen Funktionen aus dem Fourier-Bessel-Oberbereich und zum Anderen auf die inverse Feldtransformation zur Bestimmung einer äquivalenten Signalflussverteilung aus gemessenen (und damit verrauschten) Feldstärkeverteilungs-Messdaten unter Berücksichtigung der Substrat-Parameter. Die Berechnungs- und Realisierungsmöglichkeiten sowie die Ergebnisse der Modellierung und des Aufbaus der Feldsonden bzw. deren Anpassungsverstärker werden in Kapitel 5 beschrieben. Die Entwurf-Kriterien und die Dimensionierung der Mikrowellen-Schaltungen werden ebenso behandelt, wie die Verfahren und Messgrößen zur quantitativen Charakterisierung der Feldsonden mittels Kalibration. Zur Berücksichtigung der Oberflächenstruktur der zu charakterisierenden Schaltungen dienen Verfahren aus dem Bereich der Regelungstechnik und der Nahfeld-Optik. Die Beschreibung eines hier genutzten physikalischen Effektes aus der Nahfeld-Optik steht im Mittelpunkt der Betrachtung von Kapitel 6, wie auch die Konzeption und digitale Realisierung eines Fuzzy-Regelkreises zur Abtastung des Höhenprofils mit Hilfe eines digitalen Signalprozessors. Die Ergebnisse von Messungen und deren Bewertung sowie die Perspektiven der vorgestellten Messtechnik werden anhand ausgewählter Anwendungen in Kapitel 7 zusammengefasst. Hierbei steht die Vorstellung der erreichbaren Auflösung, Genauigkeit, Dynamik sowie des Störeinflusses auf die untersuchte Schaltung ebenso im Mittelpunkt, wie die Untersuchung einer aktiven integrierten Schaltung. Erstere erfolgt durch den Vergleich zwischen Messung und Berechnung -- basierend auf der Untersuchung einer einfachen passiven Schaltung. Kapitel 8 fasst die Erkenntnisse und Erfahrungen zusammen und schließt diese Arbeit mit einem Ausblick auf mögliche künftige Entwicklungen ab.Item Open Access Interaktive Visualisierung von Strukturmechaniksimulationen(2003) Sommer, Ove; Ertl, Thomas (Prof. Dr.)A) Motivation und Problemstellung Der Computer ist heute eines der wichtigsten Hilfsmittel beim Entwurf und der Entwicklung von Fahrzeugen. Zunächst wurde er von Konstrukteuren für das Computer Aided Design (CAD) von virtuellen Fahrzeugmodellen eingesetzt. Inzwischen ist er in vielen anderen Bereichen der Fahrzeugentwicklung unentbehrlich geworden: der Entwicklungszyklus von Automobilen ist durch die Computer-gestützte numerische Simulation substanziell verkürzt worden. An virtuellen Prototypen gewonnene Ergebnisse können zunächst optimiert und anschließend am realen Prototypen validiert werden. Untersuchungen der Fahrdynamik, des Crash-Verhaltens, der Innenraumakustik und der Außenhautumströmung sind nur einige Anwendungsfelder, in denen Computer-basierte Technologien zur Senkung der Entwicklungskosten beitragen. Nach den Vorgaben aus dem Design wird ein Konstruktionsmodell erstellt; die erzeugten CAD-Daten beschreiben die Fahrzeugkomponenten anhand parametrischer Flächen und zusätzlicher Materialinformationen. Um die Daten in numerischen Simulationen verwenden zu können, müssen die Flächenbeschreibungen zunächst diskretisiert werden. Für die Strukturmechaniksimulation wird das CAD-Modell daher in ein Finite-Element-Modell umgewandelt, das dann zum größten Teil aus drei- und viereckigen Schalenelementen besteht. Das Finite-Element-Modell wird in einem Vorverarbeitungsschritt aufbereitet und mit zusätzlichen Daten ergänzt, bevor es dem Simulationsprogramm als Eingabedaten übergeben wird. Nach der meist sehr zeitintensiven Simulation, die für Gesamtfahrzeugmodelle mehrere Tage in Anspruch nehmen kann, liegen als Ergebnis große Datenmengen vor. Diese können aufgrund ihres Umfangs und ihrer Komplexität nur mit ausgereiften Visualisierungswerkzeugen ausgewertet werden. Die Erkenntnisse aus der Simulationsanalyse fließen an den Konstrukteur zurück. So schließt sich der Zyklus, der den virtuellen Prototypen solange iterativ verbessert, bis alle Zielgrößen erreicht werden. Bereits Anfang der achtziger Jahre wurden Strukturanalysen mit Hilfe numerischer Simulation anhand einfacher Balkenmodelle durchgeführt. Die Modellkomplexität geht mit der Leistungssteigerung der Hardware und der Weiterentwicklung der Simulationssoftware einher: die Modellgröße hat sich seitdem alle drei Jahre mehr als verdoppelt. Der Notwendigkeit, dem Entwicklungsingenieur entsprechende Visualisierungswerkzeuge zur Verfügung zu stellen, wurde bisher von den Herstellern der Simulationssoftware mit eigenen Lösungen begegnet. Anfangs entstanden einfache Darstellungsanwendungen, die das Fahrzeug als Gittermodell zeichneten, ohne einen räumlichen Eindruck zu vermitteln; die Applikationen wurden weiterentwickelt, entsprechen jedoch heute in der Regel nicht mehr dem, was im Bereich der Softwareentwicklung und vor allem der Visualisierung Stand der Technik ist. Der Fortschritt durch wissenschaftliche Forschung in der Computergraphik und die Weiterentwicklung der Hardware, insbesondere der Graphiksubsysteme, lässt die Lücke zwischen dem, was in der Visualisierung möglich ist, und dem, was in kommerziellen Produkten zur Datenanalyse angeboten wird, immer größer klaffen. Zudem ist die Wissenschaft im Bereich der angewandten Informatik stets bemüht, Einsatzgebiete zu identifizieren, in denen neu entwickelte Methoden evaluiert und verbessert werden können. Eine enge Zusammenarbeit zwischen Ingenieuren und Wissenschaftlern erscheint daher als sehr vielversprechend und zwingend notwendig. Die vorliegende Arbeit ist im Rahmen einer engen Kooperation mit der Berechnungsabteilung der BMW-Gruppe entstanden. Sie hat zum Ziel, den bestehenden Fahrzeugentwicklungsprozess im Umfeld der Strukturmechaniksimulation zu analysieren und durch Adaption neuer Methoden der Computergraphik aus anderen Bereichen sowie durch Entwicklung neuer Visualisierungstechniken und Interaktionsmechanismen zu beschleunigen. Eine Evaluation der eingesetzten Konzepte soll anhand einer prototypischen Applikation vorgenommen werden. Bisher wurde in der Visualisierung im Bereich der Strukturmechaniksimulation auf Basis von vierseitigen Schalenelementen nur wenig geforscht. Für die Analyse von Crash-Simulationsergebnissen müssen große, zeitabhängige Datensätze effizient verarbeitet werden. Dabei soll die Netzstruktur des Finite-Element-Modells erhalten bleiben, ohne dass dabei auf hohe Interaktionsraten verzichtet werden muss. Eine schnelle Datenaufbereitung spielt dabei eine ebenso wichtige Rolle, wie die Navigation durch das virtuelle dreidimensionale Fahrzeugmodell mit Hilfe der an einem Standardarbeitsplatz vorhandenen Eingabegeräte. Die Weiterentwicklung der Simulationscodes hat es ermöglicht, Teilstrukturen mit Randbedingungen zu versehen, so dass nun Berechnungen an Teilmodellen vorgenommen werden können. In der Karosserieberechnung werden anstatt homogen vernetzter Gesamtmodelle seitdem unabhängig voneinander vernetzte Bauteile zu virtuellen Fahrzeugmodellen zusammengesetzt. Der Netzanschluss benachbarter Bauteile wird nun nicht mehr über das aufwändige Abgleichen und Nutzen gemeinsamer Randknoten hergestellt; stattdessen überlappen die Bauteilnetze in Flanschbereichen, wo sie durch neu entwickelte Verbindungselemente aneinander gebunden werden. Dies hat unter anderem den Vorteil, dass einzelne Bauteile durch Varianten ausgetauscht werden können, ohne dass die Umgebung neu vernetzt werden muss. Wichtige Entscheidungen müssen bereits in der frühen Phase eines Fahrzeugprojektes aufgrund der durch numerische Simulation gewonnenen Erkenntnisse getroffen werden. Das setzt voraus, dass die bis dahin verfügbaren Konstruktionsdaten in rechenbare Simulationsmodelle umgesetzt werden können. Durch die unabhängige Vernetzung einzelner Bauteile und den unterschiedlichen Konstruktionsstand der verschiedenen Fahrzeugkomponenten kommt es nach der Zusammenführung häufig zu Berührungen und Durchdringungen der Bauteilnetze im diskretisierten Finite-Element-Modell. Diese müssen zunächst detektiert und beseitigt werden, da sie ansonsten die Simulationsergebnisse verfälschen würden. Darüber hinaus müssen die Bauteilnetze miteinander durch Verbindungselemente verbunden werden. Da die Konstruktionsdaten in der frühen Phase jedoch keine vollständigen Verbindungsdaten beinhalten, muss der Berechnungsingenieur den Datensatz mit entsprechender Information aufbereiten. Die Vorverarbeitung von Eingabedaten für den Simulationsprozess nimmt angesichts steigender Variantenrechnungen und einer halbwegs automatisierten Standardauswertung der Simulationsergebnisse gegenüber der Nachbearbeitung einen immer höheren Stellenwert ein. Derartige Ergänzungen der Simulationsmodelle mussten bisher mit Hilfe eines Text-Editors direkt an den Eingabedateien vorgenommen werden. Netzfehler und fehlende Anbindungen zwischen Bauteilen konnten lediglich durch Anrechnen des Modells entdeckt werden. Dazu wurde der Simulationsprozess gestartet und nach einiger Zeit wieder abgebrochen. Durch die Analyse der bis dahin berechneten Zwischenergebnisse werden derartige Unzulänglichkeiten des Eingabemodells sichtbar. Vorweggenommene Konsistenzprüfungen machen zeitaufwändige Anrechnungen überflüssig. Weiteres Prozessoptimierungspotenzial liegt in der Integration und Angleichung verschiedener Werkzeuge. Eine enge Kopplung des Simulationsprozesses an die Vor- und Nachbearbeitung der Daten durch ein und dieselbe Applikation, die sowohl Ein- als auch Ausgabedaten verarbeiten kann, schafft die Grundlage für eine schnelle Iteration im Optimierungsprozess und trägt zur angestrebten Reduzierung der vom Ingenieur zu bedienenden Vielzahl von Applikationen bei. In Zeiten fortschreitender Globalisierung und Fusionierung, aber auch durch zunehmendes Outsourcing der Teilmodellerstellung an darauf spezialisierte Dienstleistungsunternehmen steigt der Kommunikationsbedarf über räumliche Grenzen hinweg zusammenarbeitender Entwicklungsteams. Kostenintensive Besprechungen, zu denen sich alle Beteiligten an einem Ort zusammenfinden müssen, können nur durch Verbesserung der bereits vorhandenen Fernkommunikationsinfrastruktur reduziert werden. Da auf die gemeinsame Betrachtung der Modelldaten als Diskussionsgrundlage bei Besprechungen nicht verzichtet werden kann, bietet sich eine netzwerkbasierte Kopplung entfernter Arbeitsplätze an, um kleinere Besprechungstermine durch Telefonate mit zeitgleicher kooperativer Visualisierungssitzung am Arbeitsplatzrechner ersetzen zu können. Ein weiterer Aspekt befasst sich mit der Absicherung der Zuverlässigkeit von Simulationsergebnissen. Um eine Aussage darüber machen zu können, welche Modifikation der Fahrzeugstruktur das simulierte Verhalten positiv beeinflusst hat, müssen zunächst alle Einflussfaktoren, die auf die Simulation wirken, analysiert werden. Dies geschieht in Stabilitätsanalysen, in denen anhand gleicher Eingabedaten die Streuung der Simulationsergebnisse gemessen und die Ursache dafür erforscht wird. Durch konstruktive Maßnahmen soll in Ursprungsbereichen maximaler Streuung das Modell dahingehend modifiziert werden, dass gleiche Eingabedaten zu annähernd gleichen Simulationsresultaten führen. Ziel dieser Arbeit ist, das Pre- und Postprocessing von Strukturmechaniksimulation im Fahrzeugentwicklungsprozess bezüglich neuer Funktionalität und Leistungsfähigkeit durch die Einbeziehung neuer Graphiktechnologien sowie durch die Entwicklung neuer Visualisierungsalgorithmen signifikant voranzubringen. B) Beiträge dieser Arbeit Da die Arbeit in enger Zusammenarbeit mit der Karosserieberechnungsabteilung der BMW-Gruppe entstand und die Forschungsergebnisse direkt von den Ingenieuren an alltäglichen Problemstellungen eingesetzt werden sollten, mussten zunächst Voraussetzungen für eine erhöhte Akzeptanz bei den Anwendern geschaffen werden. Dazu gehören vor allem kurze Ladezeiten der Daten, eine intuitiv zu bedienende Benutzerschnittstelle sowie komfortable Funktionalität, die es ermöglicht, die Aufgaben schneller zu lösen als mit anderen Applikationen. Die Analyse der zu verarbeitenden zeitabhängigen Simulationsdaten und der zum Einlesen zur Verfügung gestellten Bibliothek führte zu einer geeigneten internen Datenstruktur, die eine effiziente Datenaufbereitung erlaubt und damit zu geringeren Start-up-Zeiten führt als bei vielen kommerziell verfügbaren Visualisierungswerkzeugen. Ferner resultiert aus der Evaluation verschiedener Szenengraphbibliotheken unter Berücksichtigung der Rechnerplattform im Anwenderumfeld die Entscheidung zu Cosmo3D / OpenGL Optimizer. Durch die Datenstrukturen und Funktionalitäten der Bibliothek bleibt der Ressourcenbedarf im Zusammenspiel mit einem optimierten Szenengraph-Design im Rahmen dessen, was auf einem Standard-Arbeitsplatzrechner zur Verfügung steht. Zur Beschleunigung der Bildsynthese werden bereits bekannte Verfahren zur Optimierung polygonaler Modelle für die Weiterverarbeitung in der OpenGL Pipeline mit adaptierten Algorithmen verglichen, die unter Berücksichtigung der zugrunde liegenden Daten Quadrilateralstreifen maximaler Länge bilden. Zusätzlich wird der Einsatz verschiedener Detailstufen im CAE-Umfeld untersucht und eine Lösung zur deutlichen Steigerung der Bildwiederholrate während der Navigation durch das Finite-Element-Modell präsentiert. Durch die Entwicklung und Evaluation Textur-basierter Visualisierungsverfahren werden deren Vorzüge anhand verschiedener Beispiele aus dem Berechnungsumfeld verdeutlicht. Daraus lässt sich die Notwendigkeit ableiten, Standard-Arbeitsplatzrechner in Zukunft mit entsprechender Graphik-Hardware auszustatten, um von den Möglichkeiten moderner Visualisierungsalgorithmen profitieren zu können. Im Rahmen der vorliegenden Arbeit wurde die Möglichkeit geschaffen, nach dem interaktiven Zusammenführen der Modellkomponenten aus verschiedenen Datenquellen auftretende Netzfehler zu visualisieren und selektiv zu beheben. Dazu kommen auf hierarchischen Datenstrukturen basierende Algorithmen zum Einsatz. Verbunden mit Methoden zur Darstellung und interaktiven Modifikation von Verbindungselementen sowie der Detektion fehlerhafter Schweißpunktdaten wird die Grundlage geschaffen, um Finite-Element-Modelle für die Crash-Simulation effizient aufzubereiten und die Modellerstellung für Variantenrechnungen stark zu vereinfachen. Speziell auf die Bedürfnisse der Berechnungsingenieure zugeschnittene Interaktions- und Navigationsmechanismen sowie frei bewegliche Clip-Objekte erleichtern den Umgang mit den Modelldaten. Durch die Entwicklung dreidimensionaler Selektionsobjekte und eine effiziente Schnittkraftberechnung steht die Kraftflussvisualisierung mit Hilfe dynamischer Kraftflussröhren nun auch als interaktives Analysewerkzeug im Postprocessing zur Verfügung. Die Berechnung der notwendigen Größen im Batch-Betrieb und die anschließende Zwischenspeicherung in einem eigenen Dateiformat ermöglicht die Standardauswertung von festgelegten Kraftflussverläufen im Anschluss an die Simulation. Dies trägt weiterhin zur Beschleunigung und Automatisierung der Nachverarbeitung bei. Mit der Entwicklung eines Bild- beziehungsweise Filmgenerators konnte mit Ergebnissen dieser Arbeit zur Entwicklung eines Integrationswerkzeuges für die Ablaufsteuerung und das Datenmanagement in der Karosserieberechnung beigetragen werden. Es werden zwei Lösungen für Szenarien einer kooperativen Sitzung mit mehreren Rechnern präsentiert. Die Ergebnisse zeigen auf, wie zeitaufwändige Treffen zwischen Ingenieuren durch Telefonate mit gleichzeitiger kooperativer Visualisierungssitzung ersetzt werden können. Das vorgestellte Verfahren zur Stabilitätsanalyse von Simulationsprozessen hilft, Ursprünge von Instabilitäten aufzudecken und die Aussagekraft der Simulationsergebnisse verbesserter Modelle zu erhöhen. Durch diese Arbeit ist eine prototypische Visualisierungsplattform für die Vor- und Nachbereitung von Strukturmechanikdaten namens crashViewer entstanden. Das objektorientierte Softwaredesign des Prototypen erlaubt die Integration weiterer Datenformate sowie die Implementierung neuer Algorithmen zu deren Evaluation im produktiven Einsatz in der Karosserieberechnung, aber auch in anderen CAE-Bereichen. C) Gliederung der Arbeit Im Folgenden wird ein Überblick über den Aufbau dieser Arbeit gegeben, woraus der Zusammenhang der Kapitel untereinander hervorgeht. Kapitel 2 motiviert die Entwicklung einer in die Simulation integrierten Vor- und Nachverarbeitungsapplikation. Zu Beginn führt das Kapitel in das breite Feld der digitalen Fahrzeugentwicklung ein. Das Umfeld der Crash-Simulation wird detaillierter betrachtet, wodurch ein Fundament für ein besseres Verständnis der darauffolgenden Kapitel geschaffen wird. Kapitel 3 gibt einen Überblick zu den Grundlagen der interaktiven Computergraphik und der Visualisierung. Darüber hinaus werden die der Crash-Simulation zugrunde liegenden Daten beschrieben, indem zunächst die Strukturen, aus denen sich ein Gesamtfahrzeugmodell im Allgemeinen zusammensetzt, erläutert werden und anschließend auf die Datenformate der Simulationseingaben beziehungsweise der Simulationsergebnisse eingegangen wird, um die breite Spanne der zu verarbeitenden Daten zu beleuchten. Kapitel 4 präsentiert ein effizientes Szenengraph-Design für zeitabhängige Finite-Element-Modelle mit invarianter Topologie. Dazu werden die notwendigen Grundlagen der verwendeten Graphikbibliotheken vermittelt und Erweiterungsmöglichkeiten diskutiert. Kapitel 5 erläutert die Architektur des im Rahmen dieser Arbeit entstandenen Prototypen und gibt einen Überblick über entwickelte Interaktionsmechanismen zur effizienten Datenanalyse. Kapitel 6 diskutiert verschiedene Verfahren zur Darstellungsbeschleunigung. Während sich die Quadrilateralstreifengenerierung und die Simplifizierung mit der Optimierung der modellierten Geometrie für eine effiziente Verarbeitung in der Graphik-Hardware auseinandersetzt, zeigt der letzte Teil dieses Kapitels, wie durch den Einsatz von Texturen zusätzliche Geometrieverarbeitung überflüssig wird. Kapitel 7 stellt spezielle Funktionalitäten für die Vorverarbeitung von Eingabemodellen vor. Außer der in verschiedenen Bereichen eingesetzten Distanzvisualisierung wird das interaktive Modifizieren von Schweißpunktdaten und die Parameterübertragung zwischen inkompatiblen Gittern erläutert. Kapitel 8 veranschaulicht Konzepte für die Nachverarbeitung von Simulationsergebnissen. Es werden Techniken zur Visualisierung skalarer und vektorieller Größen präsentiert. Darüber hinaus werden die interaktive Kraftflussvisualisierung und die Darstellung von Instabilitäten in Simulationsergebnissen betrachtet. Die CORBA-basierte Erweiterung zum gemeinschaftlichen Arbeiten räumlich getrennter Anwender, sowie die Batch-basierte Bild- und Film-Generierung von Strukturmechanikdaten schließen die Vorstellung der im Rahmen dieser Arbeit neu entwickelten Methoden ab. Kapitel 9 stellt die Ergebnisse dieser Arbeit in einen Kontext. An Beispielen aus dem produktiven Entwicklungsprozess werden die erzielten Fortschritte verdeutlicht und die Akzeptanz bei den Anwendern kritisch beleuchtet. Abschließend wird ein Überblick über weiterführende Arbeiten gegeben, die auf den vorliegenden Ergebnissen basieren.Item Open Access Ein wissensbasiertes Verfahren zur Komposition von frühklassischen Menuetten(2003) Löthe, Mathis; Lehmann, Egbert (Prof. Dr.)Diese Arbeit beschreibt ein wissensbasiertes System, das Klaviermenuette im frühklassischen Stil (z.B. Jugendwerke von W.A. Mozart) komponiert. Die Aufgabenstellung nimmt eine Mittelstellung zwischen stark festgelegten und freien Aufgabenstellungen der Computerkomposition ein. Der Kompositionsprozess besteht aus drei Teilaufgaben: Strukturkomposition, Melodiekomposition und Basskomposition. Die Strukturkomposition erzeugt den Strukturplan des Stücks in zwei Stufen. Zuerst entsteht die Makrostruktur, die das Menuett in sogenannte Sätze gliedert. Die Mikrostruktur fügt dann Details innerhalb der Sätze hinzu. Die Komposition von Melodie und Bass sind beides Stimmengenerierungsaufgaben. Bei der Stimmengenerierung wird Note für Note komponiert, indem mittels Regeln die Menge der zulässigen Fortsetzungen bestimmt und dann mit einem Suchverfahren der Zustandsraum durchsucht wird. Zusätzlich wird mit einem Pattern-Matching-Verfahren die Einhaltung der Endformeln der Sätze geprüft. Bei der Basskomposition untersucht das Verfahren darüberhinaus noch die Einhaltung der Stimmführungsregeln. Das wissensbasierte Vorgehen ermöglicht Experimente mit unterschiedlich zusammengestelltem Wissen. Es wurden Menuette mit unterschiedlichen Regeln und Parametereinstellungen komponiert, ein Bass zu einer gegebenen Melodie gesetzt und der Qualtitätsverlust der Ergebnisse beim Weglassen von Regeln untersucht. Eine erweiterte Zusammenfassung (auf Englisch) steht in Anhang B. Die Software und Beispiele für Ergebnisse findet man unter http://www.informatik.uni-stuttgart.de/ifi/is/Forschung/mincomp/index.html