Browsing by Author "Ertl, Thomas (Prof. Dr.)"
Now showing 1 - 20 of 49
- Results Per Page
- Sort Options
Item Open Access Acceleration techniques for numerical flow visualization(2006) Stegmaier, Simon; Ertl, Thomas (Prof. Dr.)This thesis addresses the problem of making computer-aided flow visualization more efficient and more effective. More efficient because several new algorithms are presented for accelerating the visualization itself; more effective because accelerated visualization yields more productive work during data analysis. Whether there is a need for acceleration techniques depends on several parameters. Obviously, there is a strong dependence on the available computing hardware: what is reasonable on one hardware platform might be unbearable on another platform. This straightforwardly leads to the idea of switching to another (remote) visualization platform while keeping the researcher's workspace untouched. Alternatively, more efficient use of local hardware resources can be made, a direction followed in this thesis by balancing the workload between the (programmable) graphics hardware and the central processing unit. Instead of exploiting parallel processing, reduced accuracy can be traded for improved interactivity. In this work, this trade-off is made by converting the grid underlying the data to a representation that can be handled more efficiently. In the worst case, neither hardware approaches nor accuracy reduction sufficiently improve the data analysis. Consequently, data reduction must be employed to keep up with human cognition capabilities and limited graphics processing resources. This issue is addressed by flow feature extraction which aims at presenting a highly compact representation of the data. This work thus presents a unique multi-level approach for accelerating flow visualization, considering hardware resources, accuracy requirements, and cognitive issues. Due to the generality of the selected acceleration techniques presented in this thesis, some results do also have impact on other areas of scientific visualization. Furthermore, due to the layered approach addressing the acceleration on multiple abstraction levels, the presented techniques can be used stand-alone as well as in combination to yield a highly flexible toolbox that can be fine-tuned to the respective environment.Item Open Access Advanced visualization techniques for flow simulations : from higher-order polynomial data to time-dependent topology(2013) Üffinger, Markus; Ertl, Thomas (Prof. Dr.)Computational Wuid dynamics (CFD) has become an important tool for predicting Fluid behavior in research and industry. Today, in the era of tera- and petascale computing, the complexity and the size of simulations have reached a state where an extremely large amount of data is generated that has to be stored and analyzed. An indispensable instrument for such analysis is provided by computational Wow visualization. It helps in gaining insight and understanding of the Wow and its underlying physics, which are subject to a complex spectrum of characteristic behavior, ranging from laminar to turbulent or even chaotic characteristics, all of these taking place on a wide range of length and time scales. The simulation side tries to address and control this vast complexity by developing new sophisticated models and adaptive discretization schemes, resulting in new types of data. Examples of such emerging simulations are generalized Vnite element methods or hp-adaptive discontinuous Galerkin schemes of high-order. This work addresses the direct visualization of the resulting higher-order Veld data, avoiding the traditional resampling approach to enable a more accurate visual analysis. The second major contribution of this thesis deals with the inherent complexity of Wuid dynamics. New feature-based and topology-based visualization algorithms for unsteady Wow are proposed to reduce the vast amounts of raw data to their essential structure. For the direct visualization pixel-accurate techniques are presented for 2D Veld data from generalized Vnite element simulations, which consist of a piecewise polynomial part of high order enriched with problem-dependent ansatz functions. Secondly, a direct volume rendering system for hp-adaptive Vnite elements, which combine an adaptive grid discretization with piecewise polynomial higher-order approximations, is presented. The parallel GPU implementation runs on single workstations, as well as on clusters, enabling a real-time generation of high quality images, and interactive exploration of the volumetric polynomial solution. Methods for visual debugging of these complex simulations are also important and presented. Direct Wow visualization is complemented by new feature and topology-based methods. A promising approach for analyzing the structure of time-dependent vector Velds is provided by Vnite-time Lyapunov exponent (FTLE) Velds. In this work, interactive methods are presented that help in understanding the cause of FTLE structures, and novel approaches to FTLE computation are developed to account for the linearization error made by traditional methods. Building on this, it is investigated under which circumstances FTLE ridges represent Lagrangian coherent structures (LCS)—the timedependent counterpart to separatrices of traditional “steady” vector Veld topology. As a major result, a novel time-dependent 3D vector Veld topology concept based on streak surfaces is proposed. Streak LCS oUer a higher quality than corresponding FTLE ridges, and animations of streak LCS can be computed at comparably low cost, alleviating the topological analysis of complex time-dependent Velds.Item Open Access An architecture for visual patent analysis(2012) Giereth, Mark Oliver; Ertl, Thomas (Prof. Dr.)Patents are of great importance for national and international economies, since they have a high impact on the development of products, trade, and research. Therefore, patents are analyzed by multiple interest groups for different purposes, for example for getting technical details, for observing competitors, or for detecting technological trends. Patent analysis typically includes the following steps: formulating a patent query, submitting it to one or more patent data services, merging and analyzing the results for getting an overview, selecting relevant patents for detailed analysis, continuing with refining the query based on the gained insights until the results are satisfying. In general, patent analysis is a complex, time and knowledge intensive process, because of multiple application domains, data sources, and legal systems but also because of the intentionally used abstract expressions in patents and the huge amount of patent data. Therefore, this thesis investigates the research question of how patent analysis can be supported by the field of visual analytics which combines visualization, human-computer interaction, data analysis, and data management. A contribution of this thesis is a general architecture for visual patent analysis which is based on a semantic representation model. The model can be accessed from analysis and presentation components, enriched with analysis results, published and reused. Analysis and presentation components are loosely coupled and exchangeable based a shared terminology defined by ontologies. A second contribution is an ontology for patent metadata. It provides an integrated semantic representation of the major patent metadata aspects and allows metadata restrictions to be added to a semantic search. As a third contribution, this thesis describes new visualization techniques, for example a treemap techniques for visualizing patent portfolios and co-classification relations and a graph overlay based technique for visualizing dependencies between text parts based on semantic relations. Additionally, this thesis contributes to the field of data security by describing a new encryption based method for secure sharing of semantic models to a known group of recipients. The main idea of this method is to only encrypt sensitive information while keeping all non-sensitive information publicly readable (partial encryption). This method allows the usage of open infrastructures for the exchange of sensitive semantic models. The adequacy of the proposed architecture has been validated by three prototypes for different use cases. It has been shown that the architecture is flexible and extensible. A first evaluation with patent experts suggested that visual analytics is a promising approach for improving patent analysis.Item Open Access Bridging the gap between volume visualization and medical applications(2009) Rößler, Friedemann Andreas; Ertl, Thomas (Prof. Dr.)Direct volume visualization has been established as a common visualization technique for tomographic volume datasets in many medical application fields. In particular, the introduction of volume visualization techniques that exploit the computing power of modern graphics hardware has expanded the application capabilities enormously. However, the employment of programmable graphics processing units (GPUs) usually requires an individual adaption of the algorithms for each different medical visualization task. Thus, only few sophisticated volume visualization algorithms have yet found the way into daily medical practice. In this thesis several new techniques for medical volume visualization are presented that aid to bridge this gap between volume visualization and medical applications. Thereby, the problem of medical volume visualization is addressed on three different levels of abstraction, which build upon each other. On the lowest level a flexible framework for the simultaneous rendering of multiple volume datasets is introduced. This is needed when multiple volumes, which may be acquired with different imaging modalities or at different points in time, should be combined into a single image. Therefore, a render graph was developed that allows the definition of complex visualization rules for arbitrary multi-volume scenes. From this graph GPU programs for optimized rendering are generated automatically. The second level comprises interactive volume visualization applications for different medical tasks. Several tools and techniques are presented that demonstrate the flexibility of the multi-volume rendering framework. Specifically, a visualization tool was developed that permits the direct configuration of the render graph via a graphical user interface. Another application focuses on the simultaneous visualization of functional and anatomical brain images, as they are acquired in studies for cognitive neuroscience. Moreover, an algorithm for direct volume deformation is presented, which can be applied for surgical simulation. On the third level the automation of visualization processes is considered. This can be applied for standard visualization taks to support medical doctors in their daily work. First, 3D object movies are proposed for the representation of automatically generated visualizations. These allow intuitive navigation along precomputed views of an object. Then, a visualization service is presented that delegates the costly computation of video sequences and object movies of a volume dataset to a GPU-cluster. In conclusion, a processing model for the development of medical volume visualization solutions is proposed. Beginning from the initial request for the application of volume-visualization techniques for a certain medical task, this covers the whole life cycle of such a solution from a prototype to an automated service. Thereby, it is shown how the techniques that where developed for this thesis support the generation of the visualization solutions on the different stages.Item Open Access Casual analytics : advancing interactive visualization by domain knowledge(2014) Bosch, Harald; Ertl, Thomas (Prof. Dr.)The often cited information explosion is not limited to volatile network traffic and massive multimedia capture data. Structured and high quality data from diverse fields of study become easily and freely available, too. This is due to crowd sourced data collections, better sharing infrastructure, or more generally speaking user generated content of the Web 2.0 and the popular transparency and open data movements. At the same time as data generation is shifting to everyday casual users, data analysis is often still reserved to large companies specialized in content analysis and distribution such as today's internet giants Amazon, Google, and Facebook. Here, fully automatic algorithms analyze metadata and content to infer interests and believes of their users and present only matching navigation suggestions and advertisements. Besides the problem of creating a filter bubble, in which users never see conflicting information due to the reinforcement nature of history based navigation suggestions, the use of fully automatic approaches has inherent problems, e.g. being unable to find the unexpected and adopt to changes, which lead to the introduction of the Visual Analytics (VA) agenda. If users intend to perform their own analysis on the available data, they are often faced with either generic toolkits that cover a broad range of applicable domains and features or specialized VA systems that focus on one domain. Both are not suited to support casual users in their analysis as they don't match the users' goals and capabilities. The former tend to be complex and targeted to analysis professionals due to the large range of supported features and programmable visualization techniques. The latter trade general flexibility for improved ease of use and optimized interaction for a specific domain requirement. This work describes two approaches building on interactive visualization to reduce this gap between generic toolkits and domain-specific systems. The first one builds upon the idea that most data relevant for casual users are collections of entities with attributes. This least common denominator is commonly employed in faceted browsing scenarios and filter/flow environments. Thinking in sets of entities is natural and allows for a very direct visual interaction with the analysis subject and it stands for a common ground for adding analysis functionality to domain-specific visualization software. Encapsulating the interaction with sets of entities into a filter/flow graph component can be used to record analysis steps and intermediate results into an explicit structure to support collaboration, reporting, and reuse of filters and result sets. This generic analysis functionality is provided as a plugin-in component and was integrated into several domain-specific data visualization and analysis prototypes. This way, the plug-in benefits from the implicit domain knowledge of the host system (e.g. selection semantics and domain-specific visualization) while being used to structure and record the user's analysis process. The second approach directly exploits encoded domain knowledge in order to help casual users interacting with very specific domain data. By observing the interrelations in the ontology, the user interface can automatically be adjusted to indicate problems with invalid user input and transform the system's output to explain its relation to the user. Here, the domain related visualizations are personalized and orchestrated for each user based on user profiles and ontology information. In conclusion, this thesis introduces novel approaches at the boundary of generic analysis tools and their domain-specific context to extend the usage of visual analytics to casual users by exploiting domain knowledge for supporting analysis tasks, input validation, and personalized information visualization.Item Open Access Darstellungs- und Interaktionstechniken zur effizienten Nutzung grafischer Oberflächen durch Blinde und Sehbehinderte(2011) Taras, Christiane; Ertl, Thomas (Prof. Dr.)Personal-Computer sind heute eines der wichtigsten Arbeits-, Kommunikations- und Lernmittel. Moderne Computer bieten hochwertige grafische Darstellungen, die die tägliche Arbeit erleichtern oder durch ihre Ästhetik schlicht Wohlbefinden und Freude hervorrufen sollen. Auch für blinde und sehbehinderte Menschen ist der Computer ein wichtiges Werkzeug. Er bringt Unabhängigkeit und verbessert gleichzeitig die Integration in die Gesellschaft. Durch den zunehmenden Einsatz digitaler Dokumente wird die Zugänglichkeit von Informationen stetig erhöht. Technische Hilfsmittel wie Vergrößerungssoftware oder Screenreader bieten Möglichkeiten, die Ausgabe der Dokumente an die eigenen Bedürfnisse anzupassen. Bei gedruckten oder handschriftlichen Dokumenten ist dies nicht ohne weiteres möglich. Allerdings weisen aktuelle Technologien noch einige Defizite auf. So werden grafische Benutzungsschnittstellen für Blinde größtenteils durch textuelle Informationen mit semantischen Annotationen (wie Nennung des Typs und des Aktivierungszustandes eines Elements) präsentiert. Informationen über die grafische Darstellung an sich werden kaum bereitgestellt. Dabei sind diese auch für Blinde sehr interessant, da grafische Eigenschaften von Normalsichtigen häufig als alleinige Informationsträger oder auch als Kommunikationshilfe genutzt werden. Sehbehinderten, die noch die visuelle Ausgabe nutzen, werden zwar grafische Informationen präsentiert, aber die Darstellungsweise ist selten optimal für ein effizientes Arbeiten. So ist beispielsweise bei der Bearbeitung von Text häufig horizontales Scrollen nötig oder wichtige Bereiche der Bildschirmausgabe sind nicht immer sichtbar. Diese Arbeit trägt dazu bei, den Zugang Blinder und Sehbehinderter zu grafischen Darstellungen weiter zu erleichtern. Dazu wurde untersucht, wie diese mit Hilfe neuer Technologien und Herangehensweisen besser aufbereitet und von den Betroffenen interaktiv genutzt und auch selbst produziert werden können. Eine wesentliche Erkenntnis liegt in der Ähnlichkeit der grundlegenden Fragestellung bei der Präsentation von grafischen Oberflächen für Sehbehinderte und Blinde, die ein grafisch-taktiles Display nutzen. Basierend darauf wurde ein Framework entwickelt, mit dem sowohl taktile Darstellungen realisiert werden können wie auch ein neuartiges Konzept für vergrößerte Bildschirmausgaben für stärker sehbehinderte Computernutzer. Um auch die stetig wachsende Gruppe der zumeist altersbedingt von leichteren Seheinschränkungen Betroffenen besser zu unterstützen, wurde ein weiteres Vergrößerungskonzept samt einer prototypischen Umsetzung erarbeitet, welches nur minimale Änderungen an der Darstellung eines Programms umfasst und somit den Einarbeitungsaufwand und die damit verbundene Hemmschwelle minimiert. Zur Förderung der Kommunikation zwischen Normalsichtigen, die sich in ihren Beschreibungen häufig auf Farben beziehen, Sehbehinderten und Blinden wurden Konzepte zum Umgang mit Farben und farbigen Grafiken erforscht und Umsetzungen für monochrome, taktile Ausgabegeräte implementiert. Da die Voraussetzung für angepasste Darstellungen von GUIs und Grafiken deren zugängliche Gestaltung ist, wurden zudem Konzepte und Umsetzungen zur Unterstützung von Entwicklern und Designern bei der zugänglichen Gestaltung von GUIs und der Verbreitung von Standards zur Gestaltung zugänglicher Grafiken im SVG-Format erarbeitet.Item Open Access Direct volume visualization of geometrically unpleasant meshes(2003) Kraus, Martin; Ertl, Thomas (Prof. Dr.)Interactive volume visualization (i.e., the visualization of scalar data defined on volumetric meshes in real time) is not only difficult to achieve for large meshes but it is also complicated by particular geometric features of volumetric meshes, e.g., non-uniform cells, non-convex boundaries, or visibility cycles. This thesis addresses several of these geometric features and their unpleasant consequences with respect to direct volume visualization, which is one of the most successful techniques for interactive volume visualization. In order to overcome, or at least alleviate, these difficulties, several new algorithmic solutions are presented: pre-integrated cell projection and hardware-assisted ray casting for non-uniform meshes, edge collapses in non-convex meshes, cell sorting and cell projection for non-convex and cyclic meshes, as well as texture-based pre-integrated volume rendering, topology-guided downsampling, and adaptive volume textures for non-simplicial volumetric meshes (i.e., non-tetrahedral meshes). As this work cannot cover all geometrically unpleasant features of volumetric meshes, particular emphasis is put on a description of the development of the proposed algorithms. In fact, most of the presented techniques are (or may be interpreted as) generalizations, adaptations, or extensions of existing methods. The intention of explaining these origins is to motivate new solutions for those geometrically unpleasant features of meshes that were out of the scope of this work.Item Open Access Distributed computing and transparency rendering for large displays(2015) Kauker, Daniel; Ertl, Thomas (Prof. Dr.)Today’s computational problems are getting bigger and the performance required to solve them increases steadily. Furthermore, the results are getting more detailed, so that methods for rendering, visualization, and interaction methods need to adapt. While the computational power of a single chip also increases steadily, the most performance is gained by parallelization of the algorithms. Although Graphics Processing Units are built and specialized for the task of graphics rendering, their programmability makes them also suitable for general purpose computations. Thus, a typical workstation computer offers at least two processing units, the Central Processing Unit and the Graphics Processing Unit. Using multiple processing units for a task is commonly referred to as "distributed computing". One of the biggest challenges when using such heterogeneous and distributed systems is the variety of software and ways to use them for an optimal result. The first section of the thesis focuses on an abstraction layer to simplify software development on heterogeneous computing systems. The presented framework aims to encapsulate the vendor-specific details and the hardware architecture, giving the programmer a task-oriented interface which is easy to use, to extend, and to maintain. Having the results computed in a distributed environment, the interactive visualization becomes another challenge, especially when semi-transparent parts are involved, as the rendering order has to be taken into account. Additionally, the distributed rendering nodes do not know the details about their surroundings like the existence or complexity of objects in front. Typically, the large scale computations are distributed in object space so that one node works exclusively on one part of the scene. As it is too costly to collect all computation results on a single node for rendering, those nodes also have to do the rendering work to achieve interactive framerates. The resulting parts of the visualization are then sent to specialized display nodes. These display nodes are responsible for compositing the final image, e.g. combining data from multiple sources, and show them on display devices. In this context, rendering transparency effects with objects that might intersect each other within a distributed environment is challenging. This thesis will present an approach for rendering object-space decomposed scenes with semi-transparent parts using "Per-Pixel Linked Lists". Presenting these visualizations on large display walls or on a remote (mobile) device raises the final challenge discussed in this thesis. As the scenes can be either complex or very detailed and thus large in terms of memory, a single system is not always capable of handling all data for a scene. Typically, display walls that can handle such amounts of data consist of multiple displays or projectors, driven by a number of display nodes, and often have a separate node where an operator controls which part of the scene is displayed. I will describe interaction methods where the user can directly control the visualization on a large display wall using mobile devices without an operator. The last part of the thesis presents interaction concepts using mobile devices for large displays, allowing the users to control the visualization with a smartphone or tablet. Depending on the data and visualization method, the mobile device can either visualize the data directly or in a reduced form, or uses streaming mechanisms so that the user has the same visual impression as a user in front of the display wall. With the mobile application, the user can directly influence any parameter of the visualization and can thus actively steer an interactive presentation. In this thesis, I will present approaches for employing heterogeneous computing environments, from a single PC to networked clusters, how to use order-independent transparency rendering for local and distributed visualization, as well as interaction methods for large display walls and remote visualization devices. The approaches for heterogeneous computing environments make the development easier, especially in terms of support of different hardware platforms. The presented distributed rendering approach enables accurate transparency renderings with far less memory transfer than existing algorithms. For the interaction methods, the usage of ubiquitous mobile devices brings the described approaches to all types of display devices without the need for special hardware. Additionally, a concept for an integrated system containing the contributions of the thesis is proposed. It uses the abstraction layer as a middle ware for the computation and visualization operations in the distributed rendering environments. The user controls the application using the methods for mobile device interactions.Item Open Access Exploiting programmable graphics hardware for interactive visualization of 3D data fields(2008) Klein, Thomas; Ertl, Thomas (Prof. Dr.)Modern numerical simulation and data acquisition techniques create a multitude of different data fields. The interactive visualization of these large, three-dimensional, and often also time-dependent scalar, vector, and tensor fields plays an integral part in analyzing and understanding this data. Although basic visualization techniques vary significantly depending on the type of the respective data fields, there is one key feature that is dominating in today's visualization research. Driven by the need for interactive data inspection and exploration and by the extraordinary rate of increase of the computational power provided by modern graphics processing units, the attempt for consequent application of graphics hardware in all stages of the visualization pipeline has become a central theme in order to cope with the challenges of data set sizes growing at an ever increasing pace and advancing demands on the accuracy and complexity of visualizations. Contemporary graphics processing units now have reached a level of programmability roughly resembling their CPU counterparts. However, there are still important differences that strongly influence the design and implementation of GPU-based visualization algorithms. This thesis addresses the problem of how to efficiently exploit the programmability and parallel processing capabilities of modern graphics processors for interactive visualization of three-dimensional data fields of varying data complexity and abstraction level. In particular new methods and GPU-based solutions for high-quality volume ray casting, the reconstruction of polygonal isosurfaces, and the point-based visualization of symmetric, second-order tensor fields, such as obtained by diffusion tensor imaging or resulting from CFD simulations, by means of ellipsoidal glyphs are presented that by combining the mapping and rendering stage onto the GPU result in an improved visualization cycle. Furthermore, a new approach for the topological analysis of noisy vector fields is described. Although this work is focused on a number of specific visualization problems, it also intends to identify general design principles for GPU-based visualization algorithms that may prove useful in the context of topics not covered by this thesis.Item Open Access Exploratory visual text analytics in the scientific literature domain(2017) Heimerl, Florian; Ertl, Thomas (Prof. Dr.)Item Open Access Hardware accelerated volume visualization on PC clusters(2004) Magallón Gherardelli, Marcelo Eduardo; Ertl, Thomas (Prof. Dr.)This work presents a system for the hardware accelerated parallel rendering of large volume datasets on PC Clusters. The parallelization possibilities on the visualization pipeline are explained, and how some of this possibilities have been exploited. The evolution of commodity graphics hardware is also discussed, and serves as motivation for working on the parallelization of the last step of the visualization pipeline, namely the rendering of images. A comparison between ''high end'' proprietary visualization systems and commodity hardware is provided and serves as motivation for working on the parallelization of the rendering using clusters of PCs equipped with commodity graphics hardware. The parallelization of the volume rendering algorithm is presented, and special attention is paid to the parallelization of the compositing stage: two well known algorithms for parallel compositing, direct send and binary swap, are discussed and compared and a justification for choosing one over the other is provided. Assembler implementations of the compositing operation are given, one for the Intel's x86 architecture, and one for AMD's AMD64. The performance characteristics of this implementations are discussed. Remote access of generic visualization facilities is presented, including a detailed description of a generic method for remotely accessing visualization applications.Item Open Access Hardware-beschleunigte Volumenvisualisierung auf adaptiven Datenstrukturen(2006) Weiler, Manfred; Ertl, Thomas (Prof. Dr.)In vielen Disziplinen und Anwendungsgebieten spielen Volumendaten heutzutage eine immer wichtigere Rolle und der Einsatz von Graphik-Hardware stellt eine gute Möglichkeit dar, den mit der Volumenvisualisierung verbundenen Berechnungsaufwand zu meistern. Die bisher auf Graphikkarten übliche relativ starre Verarbeitungspipeline beschränkt ihren Einsatz jedoch auf wenige Typen von Volumendaten, insbesondere uniforme 3D Gitter, deren Struktur sich effizient auf die Mechanismen auf der Graphikkarte abbilden lässt. Mit der kürzlich eingeführten freien Programmierbarkeit von Graphikkarten ist es zunehmend möglich, die massive Rechenleistung der Graphikchips, welche die Fähigkeiten aktueller Universalprozessoren bei weitem übersteigt, für die Visualisierung von Volumendaten auf adaptiven Datenstrukturen einzusetzen. Am Beispiel dreier wichtiger Vertreter dieser Gattung von adaptiven Datenstrukturen, Finite-Elemente-Netze in ihrer Ausprägung als Tetraedergitter, lokale Gitterverfeinerungen sowie gitterlose Punktrepräsentationen, untersucht diese Arbeit, in wieweit sich die dafür erforderlichen komplexen Visualisierungsalgorithmen durch den Einsatz moderner Graphik-Hardware beschleunigen lassen. Ziel es dabei, möglichst viele Teile der Berechnung in den Verantwortungsbereich der Graphikkarte zu bringen, um auch in Zukunft von dem raschen Fortschritt bei der Entwicklung von Graphik-Hardware zu profitieren. Ein wichtiges dabei zu untersuchendes Problemfeld stellt das Zusammenspiel der unterschiedlichen involvierten Berechnungseinheiten (Hauptprozessor, Vertexprozessor und Fragmentprozessor auf der Graphikkarte) dar. Die Geschwindigkeitsoptimierung durch ausgewogenene Balance wird in der vorliegenden Arbeit durch unterschiedliche Algorithmen zur Visualisierung von Tetraedergittern demonstriert, die sukzessive identifizierte Flaschenhälse bei der Berechnung und der Kommunikation mit nachgelagerten Einheiten und dem Speicher beseitigen. Am Ende steht ein Hardware-basierter Ray Casting-Algorithmus für Tetraedergitter, der vollständig auf der Graphik-Hardware abläuft. Da Algorithmen, die auf der Graphikkarte ablaufen, ihre Daten aus dem Speicher der Graphikkarte beziehen, werden weiterhin Möglichkeiten zur Kompression betrachtet, um die maximale Größe der verarbeitbaren Datensätze zu erhöhen. Es wird eine neue kompakte Datenstruktur für Tetraedergitter vorgestellt, welche sowohl die Tetraederattribute als auch die Konnektivität der Tetraeder speichert und als Basis zur Visualisierung mittels Ray Casting dienen kann. Für punktbasierte Daten wird außerdem eine neue kompakte prozedurale Kodierung auf der Grundlage von radialen Basisfunktionen entwickelt, welche durch die Möglichkeit der Dekodierung mittels der programmierbaren Fragmenteinheit mit einer Vielzahl von Visualisierungslagorithmen kombinierbar ist und durch die vorgelagerte Kodierung anderer Datenstrukturen wie uniformer Gitter, Tetraedergitter oder gitterloser Daten eine universelle Visualisierungslösung darstellt. Eine weitere Option zur interaktiven Visualisierung von Tetraedergittern bietet die Abtastung auf adaptiv verfeinerten uniformen Volumengittern, die besser für die Verarbeitung auf der Graphikkarte geeignet sind. Hier ermöglicht die Beschleunigung der Abtastung mittels Graphik-Hardware die dynamische Berechnung, jeweils entsprechend den Parametern des aktuell dargestellten Bildes. Die sonst beim Resampling auftretenden charakteristischen Probleme wie hoher Speicherbedarf, geringe Interaktionsraten oder niedrige Darstellungsqualität werden dadurch vermieden beziehungsweise minimiert. Für typische Probleme, die bei der Visualisierung auf der Basis adaptiv verfeinerter uniformer Gitter auftreten, wie inkonsistente Interpolation zwischen unterschiedlichen Gitterbereichen oder Artefakte, die durch eine adaptive Abtastung auftreten, werden Lösungsansätze präsentiert. Implementierungsaspekte einer adaptiven Volumendarstellung auf uniformen Gittern werden im Rahmen einer neuartigen Software-Architektur mit flexiblen und erweiterbaren Shadern betrachtet. Sie erlaubt es, die Visualisierungsalgorithmen einfach auf die spezielle Graphik-Hardware der Zielplattform anzupassen, was in Anbetracht der heterogenen Graphikkarten-Landschaft einen wichtigen Baustein für die Entwicklung effizienter Visualisierungslösungen darstellt. Darüberhinaus wird gezeigt, wie sich programmierbare Graphik-Hardwere im Umfeld von virtuellen Umgebungen durch Hardware-beschleunigte Bildkompression und -dekompression geschwindigkeitssteigernd einsetzen lässt. Die Arbeit bringt alle vorgestellten Algorithmen in einen Gesamtzusammenhang, der es erlaubt gemeinsame Gestaltungsrichtlinien für die erfolgreiche Umsetzung von Visualisierungs-Algorithmen auf Graphik-Hardware zu extrahieren. Diese können anderen Forschern als Muster und zur Anregung dienen und so die Entwicklung weiterer Hardware-beschleunigter Algorithmen inspirieren.Item Open Access Hierarchical methods for filtering and visualization based on graphics hardware(2004) Hopf, Matthias; Ertl, Thomas (Prof. Dr.)Interactive visualization of large data sets is only possible with efficient algorithms for all parts of the visualization pipeline. This thesis analyzes the filtering and the rendering steps of this pipeline for several fundamentally different data types. Two key techniques that are employed throughout this work are the use of hierarchical methods and graphics-hardware-based implementations of the presented algorithms. In order to improve the efficiency of filtering, both linear and nonlinear filters are accelerated using graphics hardware for the computation. For many algorithms hierarchical filters based on wavelets are needed and, therefore, inspected as well. Finally, the quality of the achieved results is analyzed, as the accuracy of graphics-card-based approaches is limited by register sizes and framebuffer depths. During rendering hierarchical approaches allow for a compact representation of partially detailed data. Additionally, the user can trade visualization speed for quality. Sparse grids allow for extremely compact representations, thus interpolated data from sparse grids would no longer fit into main memory. This raises the need for visualization algorithms working directly on the sparse grid coefficients. The interpolation process is expensive, but graphics hardware is usually too inaccurate to be used for acceleration. Thus, the rendering process is parallelized with MPI, using a ray distribution scheme that implicitly generates previews with lower resolution during rendering. For unstructured data a compact hierarchical representation with radial basis functions is introduced that can be employed for rendering at interactive frame rates using graphics hardware. Completely uncorrelated data like astrophysical n-body problems have high spatial resolution which is lost during resampling for volume rendering. A new hierarchical splatting approach is presented that is able to visualize tens of millions of points interactively for steady and time-dependent data sets. The used data representations have different approximation capabilities, thus the properties of the different data encodings are analyzed by comparing several data sets that exhibit different amounts of features.Item Open Access Interactive remote-visualisation for large displays(2022) Frieß, Florian; Ertl, Thomas (Prof. Dr.)While visualisation often strives for abstraction, the interactive exploration of large scientific data sets, such as densely sampled 3D fields, massive particle data sets or molecular visualisations still benefits from rendering their graphical representation in large detail on high-resolution displays such as Powerwalls or tiled display walls. With the ever-growing size of data, and the increased availability of the aforementioned displays, collaboration becomes desirable in the sense of sharing this type of a visualisation running on one site in real time with another high-resolution display on a remote site. While most desktop computers - and in turn the visualisation software running on them - are alike, large high-resolution display setups are often unique, making use of multiple GPUs, a GPU cluster or only CPUs to drive the display. Therefore, particularly if the goal is the interactive scientific visualisation of large data sets, unique software might have to be written for a unique display and compute system. Molecular visualisations are one application domain in which users would clearly benefit from being able to collaborate remotely, combining video and audio conference setups with the possibility of sharing high-resolution interactive visualisations. However, for large - often tiled - displays and image resolutions beyond 4K no obvious generic, let alone commercial, solution exists. While there are specialized solutions that support sharing the output of these displays, based on hardware-accelerated video encoding, these make compromises between quality and bandwidth. They either deliver a high quality image and therefore induce bandwidth requirements that cannot generally be met, or they uniformly decrease the quality to maintain adequate frame rates. However, in visualisation in particular, details are crucial in areas that are currently being investigated. Hence, an interactive remote-visualisation for high-resolution displays requires new methods that can run on different hardware setups and offer a high image quality while reducing the required bandwidth as much as possible. In this dissertation, an innovative technique for rendering and comparing molecular surfaces as well as a novel system that supports interactive remote-visualisation, for molecular surfaces and other scientific visualisations, between different high-resolution displays is introduced and discussed. The rendering technique solves the view-dependency and occlusion of the three dimensional representation of the molecular surfaces by showing the topography and the physico-chemical properties of the surface in one single image. This also allows analysts to compare and cluster the images in order to understand the relationship structures, based on the idea that a visually similar surface implies a similarity in the function of the protein. The system presented in this dissertation uses a low latency pixel streaming approach, leveraging GPU-based video encoding and decoding to solve the aforementioned problems and to allow for interactive remote visualisations on large high-resolution displays. In addition to remote-visualisation the system offers collaboration capabilities via bidirectional video and audio simultaneously. The system is based on the fact that, regardless of the underlying hardware setup, large displays share one property: they have a large (distributed or not) frame buffer to display coloured pixels. Consequently, this allows the users to collaborate between two sites that use different display walls with only a minimal delay. To address the bandwidth limitations, several methods have been developed and introduced which aim to reduce the required bandwidth and the end-to-end latency while still offering high image quality. The aim of these methods is to reduce the image quality and therefore the required bandwidth in regions that are not currently of interest to the users, while those that are of interest remain at a high quality. These methods can be categorised into algorithmic and user-driven optimisations to the remote visualisation pipeline. The user-driven optimisations make use of gaze tracking to adapt the quality of the encoding locally while the algorithmic optimisations use the content of the frames. Algorithmic optimisations include the usage of a convolutional neural network to detect regions of interest and adapt the encoding quality accordingly and a temporal downsampling prior to the encoding. These methods can also be combined, for example, foveated encoding may be combined with temporal downsampling to further reduce the required bandwidth and the latency. Overall, this dissertation advances the state of the art by enabling the collaborative analysis of molecular and other scientific visualisations remotely at interactive frame rates without imposing bandwidth requirements that cannot generally be met.Item Open Access Interactive visual analysis of biomolecular simulations(2015) Krone, Michael; Ertl, Thomas (Prof. Dr.)Molecular dynamics simulations can give detailed insights into the properties of biomolecules on an atomistic level. Improvements in the domain of simulation codes as well as of the available hardware enable the simulation of invariably more complex molecular processes. Molecular simulation is therefore often described as a “computational microscope” that makes it possible to run experiments virtually and thus gain insights into the function of proteins and other biomolecules. Although molecular dynamics simulations have inherent restrictions, the results can partially be obtained more reproducible, reliable, and safely than using wet lab experiments. The scope of application ranges from fundamental questions like the formation of protein conformations or the effect of mutations to complex analyses like synthesis rates of biodiesel in biotechnology or drug binding in medicine. Visualization of the simulation results is an essential part of the interpretation of these virtual experiments. It is so to say the ocular of the computational microscope, which makes the data visible. Interactive visualization facilitates making discoveries, since it fosters an exploratory visual analysis of the data. Molecular models tailored to specific problems illustrate the particular properties of the visualized biomolecules. Examples are abstract representations that show the functional structure of a protein, or molecular surfaces that depict the contact surface between a molecule and a solvent. Available visualization techniques are, however, often not efficient enough to ensure an interactive exploration of large, dynamic data. A more comprehensive analysis that goes beyond this direct visualization of the simulation data is attained through feature extractions, which are executed as part of the visualization. Here, derived features of the simulated biomolecules like potential binding sites for reactants are extracted from the raw data, that is, the positions and elements of the atoms. Similar to the existing visualization techniques, previous analysis methods are in most cases not applicable in real-time and, thus, restricted to static data like single time steps of a simulation. For simulation data, however, processes that extend over a period of time can be of particular interest, for example conformational changes of a protein. Since the available feature extraction methods are not applicable in real-time, the results have to be precomputed for all time steps. Parameter changes imply a costly recalculation for the whole simulation. Hence, an exploratory visual analysis requires new methods that can be applied interactively to dynamic data. In this work, various methods that support the interactive visual analysis of biomolecular processes are introduced and discussed. The presented GPU-accelerated methods are parameterizable in real-time by the user and enable an exploratory analysis on current desktop computers. The basis for a visual exploration is the interactive visualization of complex molecular models for large, dynamic data sets without resorting to precomputed data. Consequently, this allows the user to switch between different representations without delay, which could otherwise disrupt and impair the analysis process. Hence, the user can analyze the dynamics of the simulated biomolecules. To facilitate the visual analysis, several real-time rendering methods have been developed and introduced, which for example enhance depth perception or provide a clearer, less cluttered depiction using non-photorealistic rendering. Based on these techniques, analysis methods and tools have been developed that extract complex properties of the simulated molecules. An example is the detection of cavities and channels, which play an essential role for the function of proteins. This enables analyzing the accessibility of binding sites for reactants, which can trigger an enzymatic reaction, or the permeability of a channel protein for a certain species of solvent molecules. Since the visual analysis of the simulation data is fully interactive, it supports the user not only in verifying existing hypotheses about the properties of the biomolecules but also allows for unexpected findings. Experts from the field of biochemistry have for example been able to find a channel to the binding site of a protein that did not agree with the predicted one. The combination of various analysis methods allows for a comprehensive, consistently interactive, exploratory visual analysis of biomolecular simulations, which gives users detailed insights into the data in real-time and fosters the discovery of new, unanticipated phenomena.Item Open Access Interactive volume rendering in virtual environments(2003) Schulze-Döbold, Jürgen Peter; Ertl, Thomas (Prof. Dr.)This dissertation is about the interactive visualization of volume data in virtual environments. Only data on regular grids will be discussed. Research was conducted on three major topics: visualization algorithms, user interfaces, and parallelization of the visualization algorithms. Because the shear-warp algorithm is a very fast CPU-based volume rendering algorithm, it was investigated how it could be adapted to the characteristics of virtual environments. This required the support of perspective projection, as well as specific developments for interactive work, for instance a variable frame rate or the application of clipping planes. Another issue was the improvement of image quality by the utilization of pre-integration for the compositing. Concerning the user interface, a transfer function editor was created, which was tailored to the conditions of virtual environments. It should be usable as intuitively as possible, even with imprecise input devices or low display resolutions. Further research was done in the field of direct interaction, for instance a detail probe was developed which is useful to look inside of a dataset. In order to run the user interface on a variety of output devices, a device independent menu and widget system was developed. The shear-warp algorithm was accelerated by a parallelization which is based on MPI. For the actual volume rendering, a remote parallel computer can be employed, which needs to be linked to the display computer via a network connection. Because the image transfer turned out to be the bottleneck of this solution, it is compressed before being transferred. Furthermore, it will be described how all the above developments were combined to a volume rendering system, and how they were integrated into an existing visualization toolkit.Item Open Access Interaktive Visualisierung von Strukturmechaniksimulationen(2003) Sommer, Ove; Ertl, Thomas (Prof. Dr.)A) Motivation und Problemstellung Der Computer ist heute eines der wichtigsten Hilfsmittel beim Entwurf und der Entwicklung von Fahrzeugen. Zunächst wurde er von Konstrukteuren für das Computer Aided Design (CAD) von virtuellen Fahrzeugmodellen eingesetzt. Inzwischen ist er in vielen anderen Bereichen der Fahrzeugentwicklung unentbehrlich geworden: der Entwicklungszyklus von Automobilen ist durch die Computer-gestützte numerische Simulation substanziell verkürzt worden. An virtuellen Prototypen gewonnene Ergebnisse können zunächst optimiert und anschließend am realen Prototypen validiert werden. Untersuchungen der Fahrdynamik, des Crash-Verhaltens, der Innenraumakustik und der Außenhautumströmung sind nur einige Anwendungsfelder, in denen Computer-basierte Technologien zur Senkung der Entwicklungskosten beitragen. Nach den Vorgaben aus dem Design wird ein Konstruktionsmodell erstellt; die erzeugten CAD-Daten beschreiben die Fahrzeugkomponenten anhand parametrischer Flächen und zusätzlicher Materialinformationen. Um die Daten in numerischen Simulationen verwenden zu können, müssen die Flächenbeschreibungen zunächst diskretisiert werden. Für die Strukturmechaniksimulation wird das CAD-Modell daher in ein Finite-Element-Modell umgewandelt, das dann zum größten Teil aus drei- und viereckigen Schalenelementen besteht. Das Finite-Element-Modell wird in einem Vorverarbeitungsschritt aufbereitet und mit zusätzlichen Daten ergänzt, bevor es dem Simulationsprogramm als Eingabedaten übergeben wird. Nach der meist sehr zeitintensiven Simulation, die für Gesamtfahrzeugmodelle mehrere Tage in Anspruch nehmen kann, liegen als Ergebnis große Datenmengen vor. Diese können aufgrund ihres Umfangs und ihrer Komplexität nur mit ausgereiften Visualisierungswerkzeugen ausgewertet werden. Die Erkenntnisse aus der Simulationsanalyse fließen an den Konstrukteur zurück. So schließt sich der Zyklus, der den virtuellen Prototypen solange iterativ verbessert, bis alle Zielgrößen erreicht werden. Bereits Anfang der achtziger Jahre wurden Strukturanalysen mit Hilfe numerischer Simulation anhand einfacher Balkenmodelle durchgeführt. Die Modellkomplexität geht mit der Leistungssteigerung der Hardware und der Weiterentwicklung der Simulationssoftware einher: die Modellgröße hat sich seitdem alle drei Jahre mehr als verdoppelt. Der Notwendigkeit, dem Entwicklungsingenieur entsprechende Visualisierungswerkzeuge zur Verfügung zu stellen, wurde bisher von den Herstellern der Simulationssoftware mit eigenen Lösungen begegnet. Anfangs entstanden einfache Darstellungsanwendungen, die das Fahrzeug als Gittermodell zeichneten, ohne einen räumlichen Eindruck zu vermitteln; die Applikationen wurden weiterentwickelt, entsprechen jedoch heute in der Regel nicht mehr dem, was im Bereich der Softwareentwicklung und vor allem der Visualisierung Stand der Technik ist. Der Fortschritt durch wissenschaftliche Forschung in der Computergraphik und die Weiterentwicklung der Hardware, insbesondere der Graphiksubsysteme, lässt die Lücke zwischen dem, was in der Visualisierung möglich ist, und dem, was in kommerziellen Produkten zur Datenanalyse angeboten wird, immer größer klaffen. Zudem ist die Wissenschaft im Bereich der angewandten Informatik stets bemüht, Einsatzgebiete zu identifizieren, in denen neu entwickelte Methoden evaluiert und verbessert werden können. Eine enge Zusammenarbeit zwischen Ingenieuren und Wissenschaftlern erscheint daher als sehr vielversprechend und zwingend notwendig. Die vorliegende Arbeit ist im Rahmen einer engen Kooperation mit der Berechnungsabteilung der BMW-Gruppe entstanden. Sie hat zum Ziel, den bestehenden Fahrzeugentwicklungsprozess im Umfeld der Strukturmechaniksimulation zu analysieren und durch Adaption neuer Methoden der Computergraphik aus anderen Bereichen sowie durch Entwicklung neuer Visualisierungstechniken und Interaktionsmechanismen zu beschleunigen. Eine Evaluation der eingesetzten Konzepte soll anhand einer prototypischen Applikation vorgenommen werden. Bisher wurde in der Visualisierung im Bereich der Strukturmechaniksimulation auf Basis von vierseitigen Schalenelementen nur wenig geforscht. Für die Analyse von Crash-Simulationsergebnissen müssen große, zeitabhängige Datensätze effizient verarbeitet werden. Dabei soll die Netzstruktur des Finite-Element-Modells erhalten bleiben, ohne dass dabei auf hohe Interaktionsraten verzichtet werden muss. Eine schnelle Datenaufbereitung spielt dabei eine ebenso wichtige Rolle, wie die Navigation durch das virtuelle dreidimensionale Fahrzeugmodell mit Hilfe der an einem Standardarbeitsplatz vorhandenen Eingabegeräte. Die Weiterentwicklung der Simulationscodes hat es ermöglicht, Teilstrukturen mit Randbedingungen zu versehen, so dass nun Berechnungen an Teilmodellen vorgenommen werden können. In der Karosserieberechnung werden anstatt homogen vernetzter Gesamtmodelle seitdem unabhängig voneinander vernetzte Bauteile zu virtuellen Fahrzeugmodellen zusammengesetzt. Der Netzanschluss benachbarter Bauteile wird nun nicht mehr über das aufwändige Abgleichen und Nutzen gemeinsamer Randknoten hergestellt; stattdessen überlappen die Bauteilnetze in Flanschbereichen, wo sie durch neu entwickelte Verbindungselemente aneinander gebunden werden. Dies hat unter anderem den Vorteil, dass einzelne Bauteile durch Varianten ausgetauscht werden können, ohne dass die Umgebung neu vernetzt werden muss. Wichtige Entscheidungen müssen bereits in der frühen Phase eines Fahrzeugprojektes aufgrund der durch numerische Simulation gewonnenen Erkenntnisse getroffen werden. Das setzt voraus, dass die bis dahin verfügbaren Konstruktionsdaten in rechenbare Simulationsmodelle umgesetzt werden können. Durch die unabhängige Vernetzung einzelner Bauteile und den unterschiedlichen Konstruktionsstand der verschiedenen Fahrzeugkomponenten kommt es nach der Zusammenführung häufig zu Berührungen und Durchdringungen der Bauteilnetze im diskretisierten Finite-Element-Modell. Diese müssen zunächst detektiert und beseitigt werden, da sie ansonsten die Simulationsergebnisse verfälschen würden. Darüber hinaus müssen die Bauteilnetze miteinander durch Verbindungselemente verbunden werden. Da die Konstruktionsdaten in der frühen Phase jedoch keine vollständigen Verbindungsdaten beinhalten, muss der Berechnungsingenieur den Datensatz mit entsprechender Information aufbereiten. Die Vorverarbeitung von Eingabedaten für den Simulationsprozess nimmt angesichts steigender Variantenrechnungen und einer halbwegs automatisierten Standardauswertung der Simulationsergebnisse gegenüber der Nachbearbeitung einen immer höheren Stellenwert ein. Derartige Ergänzungen der Simulationsmodelle mussten bisher mit Hilfe eines Text-Editors direkt an den Eingabedateien vorgenommen werden. Netzfehler und fehlende Anbindungen zwischen Bauteilen konnten lediglich durch Anrechnen des Modells entdeckt werden. Dazu wurde der Simulationsprozess gestartet und nach einiger Zeit wieder abgebrochen. Durch die Analyse der bis dahin berechneten Zwischenergebnisse werden derartige Unzulänglichkeiten des Eingabemodells sichtbar. Vorweggenommene Konsistenzprüfungen machen zeitaufwändige Anrechnungen überflüssig. Weiteres Prozessoptimierungspotenzial liegt in der Integration und Angleichung verschiedener Werkzeuge. Eine enge Kopplung des Simulationsprozesses an die Vor- und Nachbearbeitung der Daten durch ein und dieselbe Applikation, die sowohl Ein- als auch Ausgabedaten verarbeiten kann, schafft die Grundlage für eine schnelle Iteration im Optimierungsprozess und trägt zur angestrebten Reduzierung der vom Ingenieur zu bedienenden Vielzahl von Applikationen bei. In Zeiten fortschreitender Globalisierung und Fusionierung, aber auch durch zunehmendes Outsourcing der Teilmodellerstellung an darauf spezialisierte Dienstleistungsunternehmen steigt der Kommunikationsbedarf über räumliche Grenzen hinweg zusammenarbeitender Entwicklungsteams. Kostenintensive Besprechungen, zu denen sich alle Beteiligten an einem Ort zusammenfinden müssen, können nur durch Verbesserung der bereits vorhandenen Fernkommunikationsinfrastruktur reduziert werden. Da auf die gemeinsame Betrachtung der Modelldaten als Diskussionsgrundlage bei Besprechungen nicht verzichtet werden kann, bietet sich eine netzwerkbasierte Kopplung entfernter Arbeitsplätze an, um kleinere Besprechungstermine durch Telefonate mit zeitgleicher kooperativer Visualisierungssitzung am Arbeitsplatzrechner ersetzen zu können. Ein weiterer Aspekt befasst sich mit der Absicherung der Zuverlässigkeit von Simulationsergebnissen. Um eine Aussage darüber machen zu können, welche Modifikation der Fahrzeugstruktur das simulierte Verhalten positiv beeinflusst hat, müssen zunächst alle Einflussfaktoren, die auf die Simulation wirken, analysiert werden. Dies geschieht in Stabilitätsanalysen, in denen anhand gleicher Eingabedaten die Streuung der Simulationsergebnisse gemessen und die Ursache dafür erforscht wird. Durch konstruktive Maßnahmen soll in Ursprungsbereichen maximaler Streuung das Modell dahingehend modifiziert werden, dass gleiche Eingabedaten zu annähernd gleichen Simulationsresultaten führen. Ziel dieser Arbeit ist, das Pre- und Postprocessing von Strukturmechaniksimulation im Fahrzeugentwicklungsprozess bezüglich neuer Funktionalität und Leistungsfähigkeit durch die Einbeziehung neuer Graphiktechnologien sowie durch die Entwicklung neuer Visualisierungsalgorithmen signifikant voranzubringen. B) Beiträge dieser Arbeit Da die Arbeit in enger Zusammenarbeit mit der Karosserieberechnungsabteilung der BMW-Gruppe entstand und die Forschungsergebnisse direkt von den Ingenieuren an alltäglichen Problemstellungen eingesetzt werden sollten, mussten zunächst Voraussetzungen für eine erhöhte Akzeptanz bei den Anwendern geschaffen werden. Dazu gehören vor allem kurze Ladezeiten der Daten, eine intuitiv zu bedienende Benutzerschnittstelle sowie komfortable Funktionalität, die es ermöglicht, die Aufgaben schneller zu lösen als mit anderen Applikationen. Die Analyse der zu verarbeitenden zeitabhängigen Simulationsdaten und der zum Einlesen zur Verfügung gestellten Bibliothek führte zu einer geeigneten internen Datenstruktur, die eine effiziente Datenaufbereitung erlaubt und damit zu geringeren Start-up-Zeiten führt als bei vielen kommerziell verfügbaren Visualisierungswerkzeugen. Ferner resultiert aus der Evaluation verschiedener Szenengraphbibliotheken unter Berücksichtigung der Rechnerplattform im Anwenderumfeld die Entscheidung zu Cosmo3D / OpenGL Optimizer. Durch die Datenstrukturen und Funktionalitäten der Bibliothek bleibt der Ressourcenbedarf im Zusammenspiel mit einem optimierten Szenengraph-Design im Rahmen dessen, was auf einem Standard-Arbeitsplatzrechner zur Verfügung steht. Zur Beschleunigung der Bildsynthese werden bereits bekannte Verfahren zur Optimierung polygonaler Modelle für die Weiterverarbeitung in der OpenGL Pipeline mit adaptierten Algorithmen verglichen, die unter Berücksichtigung der zugrunde liegenden Daten Quadrilateralstreifen maximaler Länge bilden. Zusätzlich wird der Einsatz verschiedener Detailstufen im CAE-Umfeld untersucht und eine Lösung zur deutlichen Steigerung der Bildwiederholrate während der Navigation durch das Finite-Element-Modell präsentiert. Durch die Entwicklung und Evaluation Textur-basierter Visualisierungsverfahren werden deren Vorzüge anhand verschiedener Beispiele aus dem Berechnungsumfeld verdeutlicht. Daraus lässt sich die Notwendigkeit ableiten, Standard-Arbeitsplatzrechner in Zukunft mit entsprechender Graphik-Hardware auszustatten, um von den Möglichkeiten moderner Visualisierungsalgorithmen profitieren zu können. Im Rahmen der vorliegenden Arbeit wurde die Möglichkeit geschaffen, nach dem interaktiven Zusammenführen der Modellkomponenten aus verschiedenen Datenquellen auftretende Netzfehler zu visualisieren und selektiv zu beheben. Dazu kommen auf hierarchischen Datenstrukturen basierende Algorithmen zum Einsatz. Verbunden mit Methoden zur Darstellung und interaktiven Modifikation von Verbindungselementen sowie der Detektion fehlerhafter Schweißpunktdaten wird die Grundlage geschaffen, um Finite-Element-Modelle für die Crash-Simulation effizient aufzubereiten und die Modellerstellung für Variantenrechnungen stark zu vereinfachen. Speziell auf die Bedürfnisse der Berechnungsingenieure zugeschnittene Interaktions- und Navigationsmechanismen sowie frei bewegliche Clip-Objekte erleichtern den Umgang mit den Modelldaten. Durch die Entwicklung dreidimensionaler Selektionsobjekte und eine effiziente Schnittkraftberechnung steht die Kraftflussvisualisierung mit Hilfe dynamischer Kraftflussröhren nun auch als interaktives Analysewerkzeug im Postprocessing zur Verfügung. Die Berechnung der notwendigen Größen im Batch-Betrieb und die anschließende Zwischenspeicherung in einem eigenen Dateiformat ermöglicht die Standardauswertung von festgelegten Kraftflussverläufen im Anschluss an die Simulation. Dies trägt weiterhin zur Beschleunigung und Automatisierung der Nachverarbeitung bei. Mit der Entwicklung eines Bild- beziehungsweise Filmgenerators konnte mit Ergebnissen dieser Arbeit zur Entwicklung eines Integrationswerkzeuges für die Ablaufsteuerung und das Datenmanagement in der Karosserieberechnung beigetragen werden. Es werden zwei Lösungen für Szenarien einer kooperativen Sitzung mit mehreren Rechnern präsentiert. Die Ergebnisse zeigen auf, wie zeitaufwändige Treffen zwischen Ingenieuren durch Telefonate mit gleichzeitiger kooperativer Visualisierungssitzung ersetzt werden können. Das vorgestellte Verfahren zur Stabilitätsanalyse von Simulationsprozessen hilft, Ursprünge von Instabilitäten aufzudecken und die Aussagekraft der Simulationsergebnisse verbesserter Modelle zu erhöhen. Durch diese Arbeit ist eine prototypische Visualisierungsplattform für die Vor- und Nachbereitung von Strukturmechanikdaten namens crashViewer entstanden. Das objektorientierte Softwaredesign des Prototypen erlaubt die Integration weiterer Datenformate sowie die Implementierung neuer Algorithmen zu deren Evaluation im produktiven Einsatz in der Karosserieberechnung, aber auch in anderen CAE-Bereichen. C) Gliederung der Arbeit Im Folgenden wird ein Überblick über den Aufbau dieser Arbeit gegeben, woraus der Zusammenhang der Kapitel untereinander hervorgeht. Kapitel 2 motiviert die Entwicklung einer in die Simulation integrierten Vor- und Nachverarbeitungsapplikation. Zu Beginn führt das Kapitel in das breite Feld der digitalen Fahrzeugentwicklung ein. Das Umfeld der Crash-Simulation wird detaillierter betrachtet, wodurch ein Fundament für ein besseres Verständnis der darauffolgenden Kapitel geschaffen wird. Kapitel 3 gibt einen Überblick zu den Grundlagen der interaktiven Computergraphik und der Visualisierung. Darüber hinaus werden die der Crash-Simulation zugrunde liegenden Daten beschrieben, indem zunächst die Strukturen, aus denen sich ein Gesamtfahrzeugmodell im Allgemeinen zusammensetzt, erläutert werden und anschließend auf die Datenformate der Simulationseingaben beziehungsweise der Simulationsergebnisse eingegangen wird, um die breite Spanne der zu verarbeitenden Daten zu beleuchten. Kapitel 4 präsentiert ein effizientes Szenengraph-Design für zeitabhängige Finite-Element-Modelle mit invarianter Topologie. Dazu werden die notwendigen Grundlagen der verwendeten Graphikbibliotheken vermittelt und Erweiterungsmöglichkeiten diskutiert. Kapitel 5 erläutert die Architektur des im Rahmen dieser Arbeit entstandenen Prototypen und gibt einen Überblick über entwickelte Interaktionsmechanismen zur effizienten Datenanalyse. Kapitel 6 diskutiert verschiedene Verfahren zur Darstellungsbeschleunigung. Während sich die Quadrilateralstreifengenerierung und die Simplifizierung mit der Optimierung der modellierten Geometrie für eine effiziente Verarbeitung in der Graphik-Hardware auseinandersetzt, zeigt der letzte Teil dieses Kapitels, wie durch den Einsatz von Texturen zusätzliche Geometrieverarbeitung überflüssig wird. Kapitel 7 stellt spezielle Funktionalitäten für die Vorverarbeitung von Eingabemodellen vor. Außer der in verschiedenen Bereichen eingesetzten Distanzvisualisierung wird das interaktive Modifizieren von Schweißpunktdaten und die Parameterübertragung zwischen inkompatiblen Gittern erläutert. Kapitel 8 veranschaulicht Konzepte für die Nachverarbeitung von Simulationsergebnissen. Es werden Techniken zur Visualisierung skalarer und vektorieller Größen präsentiert. Darüber hinaus werden die interaktive Kraftflussvisualisierung und die Darstellung von Instabilitäten in Simulationsergebnissen betrachtet. Die CORBA-basierte Erweiterung zum gemeinschaftlichen Arbeiten räumlich getrennter Anwender, sowie die Batch-basierte Bild- und Film-Generierung von Strukturmechanikdaten schließen die Vorstellung der im Rahmen dieser Arbeit neu entwickelten Methoden ab. Kapitel 9 stellt die Ergebnisse dieser Arbeit in einen Kontext. An Beispielen aus dem produktiven Entwicklungsprozess werden die erzielten Fortschritte verdeutlicht und die Akzeptanz bei den Anwendern kritisch beleuchtet. Abschließend wird ein Überblick über weiterführende Arbeiten gegeben, die auf den vorliegenden Ergebnissen basieren.Item Open Access Interaktive Visualisierungssysteme zur beschleunigten Analyse von Simulationsergebnissen im Fahrzeugentwicklungsprozess(2002) Schulz, Martin; Ertl, Thomas (Prof. Dr.)Die vorliegende Arbeit zeigt neue Methoden zur Beschleunigung der Analyse von numerischen Berechnungen auf. Ziel war es, die Arbeit der Berechnungsingenieure im Postprocessing durch die Bereitstellung von interaktiven und intuitiven Visualisierungswerkzeugen zu erweitern. Hierfür wurden die Arbeits- und Vorgehensweisen der Ingenieure betrachtet, darauf aufbauend Visualisierungsverfahren und -algorithmen entwickelt und im produktiven Prozess erprobt. Durch den Einsatz von Techniken der virtuellen Realität entstanden prototypische Applikationen mit neuen Interaktionsmechanismen und mit Unterstützung von neuartigen Ein- und Ausgabegeräten. Im Bereich der Finite-Element-Simulationen wurden Methoden für den Umgang mit zeitabhängigen Geometrien und Volumen betrachtet, wie sie in der Crashtest-, Schwingungs-, Kinematik- und Akustiksimulation vorkommen. Verfahren zur Selektion, Transformation, Schnittberechnung animierter Objekte und propagierende Isoflächen wurden für die Darstellung von zeitabhängigen Daten untersucht. Die Arbeiten im Bereich der Strömungssimulation konzentrierte sich auf die Visualisierung von lokal verfeinerten kartesischen Gittern mit expliziter Geometriebeschreibung. Für die interaktive Visualisierung wird eine effiziente Datenspeicherung und -verwaltung der Volumen- und Geometrieelemente vorgestellt, auf deren Basis optimierte Algorithmen für die Zelllokalisierung, Partikelbahn- und Schnittebenenberechnung untersucht wurden. Umgesetzt wurden die Methoden in den beiden Visualisierungssystemen VtCrash und PowerVIZ. Für die Zusammenarbeit mehrerer Benutzer wurde in den Prototypen kooperatives Arbeiten untersucht. Beide Applikationen kamen in den beteiligten Abteilungen der BMW Group sowohl am Arbeitsplatz, im Projektionsraum und in der CAVE zum Einsatz. Die Erfahrungen im produktiven Entwicklungsprozess der BMW Group und das Interesse an kommerziellen Varianten der Prototypen haben die Einsatzreife dieser Techniken bestätigt.Item Open Access Interaktive visuelle Analysetechniken für die Exploration narrativer Texte(2022) John, Markus; Ertl, Thomas (Prof. Dr.)Durch die fortschreitende Digitalisierung textueller Daten werden enormeMengen an digitalen Informationen täglich generiert und gespeichert. Dieser technologische Fortschritt hat in den vergangenen Jahrzehnten nahezu alle gesellschaftlichen Bereiche erfasst und verändert. Darunter fallen ebenfalls die Geisteswissenschaften, da sich durch die Digitalisierung von Literatur und Webportale, welche einen einfachen Zugang zu diesen digitalen Kopien bieten, viele neue Forschungsmöglichkeiten eröffnet haben. Aus Sicht der Informatik haben sich die digitalen Geisteswissenschaften in den letzten Jahren zu einem viel diskutierten und spannenden Forschungsgebiet entwickelt. Es handelt sich um ein interdisziplinäres Forschungsfeld, das geisteswissenschaftliche Fragestellungen mit computergestützten Verfahren der Informatik untersucht. Eine Herausforderung in vielen digitalen geisteswissenschaftlichen Disziplinen ist die Untersuchung von narrativen Texten. Die Geisteswissenschaftler*innen sind daran interessiert, die Persönlichkeitsmerkmale der Figuren, deren Rollen, Beziehungen und die Entwicklung dieser Aspekte im Verlauf der Erzählung zu untersuchen. Traditionell analysieren die Geisteswissenschaftler*innen ihre zugrunde liegenden Textdokumente durch intensives Lesen und sorgfältiges Interpretieren, sogenanntes Close Reading. Dies ist jedoch eine herausfordernde und zeitaufwendige Vorgehensweise. Diese komplexen Analyseschritte können durch computergestützte Verfahren unterstützt werden. Computerlinguistische Methoden ermöglichen es, gezielt Wissen automatisch aus den Textdokumenten abzuleiten. Die abgeleiteten Informationen können als visuelle Abstraktionen dargestellt werden, sogenannte Distant Reading-Methoden. Visuelle Abstraktionen können Informationen aufzeigen, die es ermöglichen, komplexe Zusammenhänge zu untersuchen, die durch Close Reading nur schwer zu erfassen sind. Um die Zusammenhänge sowie entstandene Ideen und Hypothesen detaillierter analysieren zu können, ist es jedoch notwendig, die zugehörigen Textabschnitte zu studieren. Daher ist es für weiterführende Analysen essenziell, die visuellen Abstraktionen mit dem zugrunde liegenden Textgegenstand zu verknüpfen. Auf diese Weise können entdeckte Sachverhalte oder entstandene Hypothesen weiterführend überprüft werden. Die vorliegende Dissertation fokussiert sich auf die Verknüpfung der Close- und Distant Reading-Techniken. In den nachfolgenden Kapiteln werden neuartige Visualisierungswerkzeuge eingeführt, die sowohl eine abstrakte als auch detaillierte Untersuchung narrativer Texte ermöglichen. Diese Analysetechniken unterstützen die Geisteswissenschaftler*innen bei der Exploration einzelner Texte, beim Vergleich mehrerer Textdokumente sowie bei der Analyse von sehr großen Textkorpora. Des Weiteren werden Unsicherheitsquellen diskutiert, die während der Entwicklung der Visualisierungswerkzeuge festgestellt oder in Diskussionen mit Forscher*innen aus den Geisteswissenschaften und der Computerlinguistik reflektiert wurden. In diesem Kontext wird eine erstellte Übersicht von visuellen Kommunikations- und Interaktionsmöglichkeiten präsentiert sowie Techniken vorgestellt, mit denen Unsicherheitsaspekte untersucht und angepasst werden können. Die erläuterten Möglichkeiten und entworfenen Werkzeuge helfen neuen und weiterführenden Projekten abgeleitete Informationen kritischer zu hinterfragen. Ferner wird eine methodische Vorgehensweise vorgestellt, welche in vielen der nachfolgenden Analysetechniken unterstützt wird, um die visuelle Untersuchung narrativer Texte zu ermöglichen. Die Dissertation konzentriert sich hauptsächlich auf die Untersuchung von Figuren in narrativen Texten, dennoch können viele der vorgestellten Visualisierungswerkzeuge für weitere komplexe Textdokumentanalysen angepasst und angewendet werden. Basierend auf den eingeführten Werkzeugen werden definierte Forschungsfragen diskutiert und offene Herausforderungen für zukünftige Forschungsmöglichkeiten abgeleitet.Item Open Access Large-scale analysis of textual and multivariate data combining machine learning and visualization(2022) Knittel, Johannes; Ertl, Thomas (Prof. Dr.)
- «
- 1 (current)
- 2
- 3
- »