Bitte benutzen Sie diese Kennung, um auf die Ressource zu verweisen: http://dx.doi.org/10.18419/opus-6385
Langanzeige der Metadaten
DC ElementWertSprache
dc.contributor.advisorErtl, Thomas (Prof. Dr.)de
dc.contributor.authorGrottel, Sebastiande
dc.date.accessioned2012-09-27de
dc.date.accessioned2016-03-31T10:25:57Z-
dc.date.available2012-09-27de
dc.date.available2016-03-31T10:25:57Z-
dc.date.issued2012de
dc.identifier.other371699258de
dc.identifier.urihttp://nbn-resolving.de/urn:nbn:de:bsz:93-opus-75852de
dc.identifier.urihttp://elib.uni-stuttgart.de/handle/11682/6402-
dc.identifier.urihttp://dx.doi.org/10.18419/opus-6385-
dc.description.abstractThe analysis and especially the exploration of large data sets from simulations often benefit from visualization. If it is not possible to calculate some well-known characteristic values, or if it is known that spatial features like distributions may play an important role, directly looking at a visual representation of the data becomes a first and important step in the analysis process. This is especially true for scientific work where simulations with novel methods or novel problem scenarios produce data with potentially unknown features and effects. Particle-based simulation methods, like molecular dynamics, smooth particle hydrodynamics, or the discrete element method are prominent examples as these simulation techniques themselves, as well as the scenarios they are applied to, are in the focus of current research of the corresponding application fields, e.g. physics, thermodynamics, biochemistry, material science and engineering. The sizes of the simulation scenarios, and as a consequence the sizes of the resulting data sets, steadily increased during the last years to close the gap between length scales accessible through experiments and length scales reachable by simulations. This is not only because the increased compute power of individual machines or the availability of relatively cheap compute clusters to be used on-site, but also because of significant improvements of the simulation algorithms themselves. Most of the available visualization tools are insufficiently optimized to cope with the data set sizes they have to face nowadays, as they often require the whole data set to be stored in main memory or exclusively use mesh-based rendering methods. For rendering particle-based data sets point-based ray casting has become the state-of-the-art approach and large data sets are typically addressed by different data-streaming and out-of-core techniques. This thesis investigates the performance bottlenecks of secondary storage and the data transfer between main memory and graphics hardware, as well as the impact of different compression techniques using spatial data structures and quantisation of coordinates, to optimize the foundation for such streaming techniques. Point-based ray casting is presented for different kinds of graphical primitives, like spheres, cylinders, compound glyphs, and polyhedral crystallites, extending the applicability of this rendering approach. To optimize the rendering performance the required calculations are reduced to the necessary minimum employing advanced culling techniques, allowing for interactive visualization of data sets with hundreds of millions of particles. A second and probably more important aspect when visualising large particle data sets remains: creating meaningful and useful visualizations. Even a system capable of rendering millions of particles will usually generate images that are prone to aliasing, visual clutter, and other effects hindering good perception and thus the understanding of the presented data. This thesis presents two approaches of advanced shading and lighting to remedy this issue. An image-space method to estimate normal vectors for the structure implicitly formed by the particles addresses the aliasing problem, while the perception of the global structure and depth of the data is enhanced by a specially adapted ambient occlusion technique approximating global illumination. For more efficient visualizations, relevant structures need to be derived from the original particle data. Such consolidated visualizations provide a better overview of the structure of the data sets. However, as they reduce the visual information, such representations must be created with care to be sure not to omit important data or introduce misleading artefacts from the applied methods. This thesis presents several examples, highlighting two aspects: spatial structures and representatives for the dynamics of the data. The examples of the first group range over molecular clusters, i.e. droplets in the context of thermodynamics nucleation simulations, dislocations and stacking faults from material science, and generic surface representations, similar to molecule surface descriptions, known from biochemistry. The dynamics of data are given by examples of the interaction of molecule clusters, the clustering of path lines of water-protein interactions and the tracking of expelled material in laser ablation simulations. To reliably avoid problems, like introducing artefacts or misleading presentations, with derived representations it is important to always involve experts from the corresponding application domain, because only those are able to judge usefulness and correctness of a visualization compared to the original data. Such close collaborations are most fruitful if the application domain expert can also be the actual user of the visualization tools, e.g. allowing to experiment with parameter settings.en
dc.description.abstractDie Analyse und im Besonderen die Exploration von großen Simulationsdatensätzen profitieren von Visualisierungen. Wenn es nicht möglich ist bekannte, charakteristische Kenngrößen zu berechnen, oder wenn die Wahrscheinlichkeit besteht, dass räumliche Faktoren eine wichtige Rolle spielen können, dann werden direkte visuelle Repräsentationen der Daten ein erster und wichtiger Schritt des Analyseprozesses. Dies gilt besonders für wissenschaftliche Simulationen, die neue Methoden nutzen oder neue Szenarien untersuchen, welche möglicherweise unbekannten Phänomene enthalten. Partikelbasierte Simulationsmethoden, wie die Molekulardynamik, Smooth-Particle-Hydrodynamik oder die Diskrete-Element-Methode, sind beliebte Beispiele, da sowohl ihre Simulationstechniken, als auch die durch sie untersuchten Szenarien Gegenstand aktueller Forschungen in den entsprechenden Gebieten sind, z. B. in der Physik, der Thermodynamik, Biochemie, den Material- und Ingenieurswissenschaften. Die Größen der Simulationsszenarien, und als Konsequenz die Größen der entstehenden Datensätze, sind in den letzten Jahren stetig gewachsen, um Lücke zwischen den durch reale Experimente und den durch Simulation erreichbaren Längenskalen zu schließen. Dies liegt nicht nur an der erhöhten Rechenleistung einzelner Maschinen oder der höheren Verfügbarkeit relativ billiger Rechencluster, welche vor Ort eingesetzt werden können, sondern auch an den signifikanten Verbesserungen der Simulationsalgorithmen. Die meisten verfügbaren Visualisierungswerkzeuge sind unzureichend optimiert um mit Datensätzen aktueller Größen umgehen zu können, da sie oft den gesamten Datensatz in den Hauptspeicher laden müssen oder ausschließlich dreiecksbasierte Rendering-Methoden einsetzen. Für partikelbasierte Datensätze hat sich Ray-Casting als gängige Methode etabliert und große Datensätze werden üblicherweise durch Streaming- und Out-of-Core-Methoden behandelt. In dieser Doktorarbeit wurden die Performanz-Engpässe beim Datentransfer, sowohl vom Sekundärspeicher, als auch zwischen Hauptspeicher und Graphikhardware untersucht. Auch die Einflüsse unterschiedlicher Kompressionstechniken, basierend auf räumlichen Datenstrukturen und Koordinatenquantisierung, welche die Grundlagen für Streaming-Techniken bilden, wurden geprüft. Punktbasiertes Ray-Casting wurde für unterschiedliche graphische Elemente, wie Kugeln, Zylinder, zusammengesetzte Glyphen und polyedrische Kristallite erweitert. In dem die notwendigen Berechnungen durch fortgeschrittene Culling-Techniken minimiert wurden, wurde die Darstellungsgeschwindigkeit optimiert, dass die interaktive Visualisierung von Datensätzen mit Hunderten von Millionen Partikel möglich wird. Ein zweiter und möglicherweise wichtigerer Aspekt der Visualisierung solch großer Partikeldatensätze bleibt allerdings dadurch unberührt: das Erzeugen ausdrucksstarker und nützlicher Visualisierungen. Selbst wenn ein System in der Lage ist mehrere Millionen Partikel darzustellen, leiden die entstehenden Bilder üblicherweise unter Problemen wie Aliasing und Visual Clutter, welche eine gute Wahrnehmung und das Verständnis der Strukturen der präsentierten Daten erschweren. In dieser Doktorarbeit werden zwei Ansätze für fortschrittliches Shading und Beleuchtungsberechnung präsentiert, um dieses Problem zu lösen. Das Problem des Aliasing wird durch ein Bildraumverfahren angegangen, welches die Normalen-Vektoren für implizit geformte Strukturen schätzt, während die Wahrnehmung der globalen Strukturen und der Tiefenkomplexität der Daten durch ein speziell angepasstes Ambient-Occlusion-Verfahren, welches globale Beleuchtung annähert, verbessert wird. Für effektive und effiziente Visualisierungen müssen wichtige, abgeleitete Strukturen der Daten extrahiert werden. Die so entstehenden, kompakten Visualisierungen vermitteln einen besseren Überblick über in den Daten enthaltene Strukturen. Da hierdurch jedoch die dargestellten Informationen reduziert werden, muss sichergestellt werden, dass keine wichtigen Daten verloren gehen und dass keine verfälschenden, künstlichen Daten durch die Methoden eingeführt werden. Zwei Arten abstrakter Darstellungen werden an mehreren Beispielen in dieser Doktorarbeit beschrieben: die Extraktion räumlicher Strukturen und Darstellungen der Dynamik der Daten. Die Beispiele der ersten Art reichen von Molekülcluster, Tröpfchen im Kontext thermodynamischer Nukleationssimulationen, Versetzungen und Stapelfehler im Kontext der Materialwissenschaften bis zu allgemeinen Oberflächenrepräsentationen, ähnlich den Moleküloberflächen in der Biochemie. Die Dynamik von Daten wird an den Beispielen von Molekülcluster-Interaktionen, dem Clustering von Molekülpfaden bei Wasser-Protein-Interaktionen, und dem Verfolgen ausgestoßenen Materials in Laser-Ablations-Simulationen untersucht und präsentiert.de
dc.language.isoende
dc.rightsinfo:eu-repo/semantics/openAccessde
dc.subject.classificationVisualisierung , Molekulardynamik , Computergraphikde
dc.subject.ddc004de
dc.subject.otherGPU-Raycasting , Echtzeitvisualisierungde
dc.subject.otherVisualization , Molecular Dynamics , Computer Graphics , GPU Ray Casting , Real-time Visualizationen
dc.titlePoint-based visualization of molecular dynamics data setsen
dc.title.alternativePunktbasierte Visualisierung von Molekulardynamikdatensätzende
dc.typedoctoralThesisde
ubs.dateAccepted2012-03-29de
ubs.fakultaetZentrale Universitätseinrichtungende
ubs.institutVisualisierungsinstitut der Universität Stuttgartde
ubs.opusid7585de
ubs.publikation.typDissertationde
ubs.thesis.grantorFakultät Informatik, Elektrotechnik und Informationstechnikde
Enthalten in den Sammlungen:13 Zentrale Universitätseinrichtungen

Dateien zu dieser Ressource:
Datei Beschreibung GrößeFormat 
diss_grottel.pdf35,9 MBAdobe PDFÖffnen/Anzeigen


Alle Ressourcen in diesem Repositorium sind urheberrechtlich geschützt.