13 Zentrale Universitätseinrichtungen

Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/14

Browse

Search Results

Now showing 1 - 10 of 70
  • Thumbnail Image
    ItemOpen Access
    Touching data with PropellerHand
    (2022) Achberger, Alexander; Heyen, Frank; Vidackovic, Kresimir; Sedlmair, Michael
    Immersive analytics often takes place in virtual environments which promise the users immersion. To fulfill this promise, sensory feedback, such as haptics, is an important component, which is however not well supported yet. Existing haptic devices are often expensive, stationary, or occupy the user’s hand, preventing them from grasping objects or using a controller. We propose PropellerHand, an ungrounded hand-mounted haptic device with two rotatable propellers, that allows exerting forces on the hand without obstructing hand use. PropellerHand is able to simulate feedback such as weight and torque by generating thrust up to 11 N in 2-DOF and a torque of 1.87 Nm in 2-DOF. Its design builds on our experience from quantitative and qualitative experiments with different form factors and parts. We evaluated our prototype through a qualitative user study in various VR scenarios that required participants to manipulate virtual objects in different ways, while changing between torques and directional forces. Results show that PropellerHand improves users’ immersion in virtual reality. Additionally, we conducted a second user study in the field of immersive visualization to investigate the potential benefits of PropellerHand there.
  • Thumbnail Image
    ItemOpen Access
    Comparative visualization across physical and parameter space
    (2022) Zeyfang, Adrian
    We designed and developed an interactive visualization approach for exploring and comparing image sequences in the context of porous media research. Our tool facilitates the visual analysis of two-dimensional image sequence datasets captured during fluid displacement experiments in a porous micromodel. The images are aggregated into a single graph-based representation, allowing for an experiment to be visualized across its entire temporal domain. This graph is generated from the viscous flow patterns of the invading fluid, reducing the need for manual image masking and clean-up steps. The Node-Link representation of the graph is superimposed onto the raw images, creating a composite spatio-temporal view of the dataset. We demonstrate the functionality of our implementation by evaluating its output and performance on a collection of related datasets. We found that separate experiments in the same porous medium yield topologically different, yet visually similar flow graphs with comparable node positions.
  • Thumbnail Image
    ItemOpen Access
    Datamator : an authoring tool for creating datamations via data query decomposition
    (2023) Guo, Yi; Cao, Nan; Cai, Ligan; Wu, Yanqiu; Weiskopf, Daniel; Shi, Danqing; Chen, Qing
    Datamation is designed to animate an analysis pipeline step by step, serving as an intuitive and efficient method for interpreting data analysis outcomes and facilitating easy sharing with others. However, the creation of a datamation is a difficult task that demands expertise in diverse skills. To simplify this task, we introduce Datamator, a language-oriented authoring tool developed to support datamation generation. In this system, we develop a data query analyzer that enables users to generate an initial datamation effortlessly by inputting a data question in natural language. Then, the datamation is displayed in an interactive editor that affords users the ability to both edit the analysis progression and delve into the specifics of each step undertaken. Notably, the Datamator incorporates a novel calibration network that is able to optimize the outputs of the query decomposition network using a small amount of user feedback. To demonstrate the effectiveness of Datamator, we conduct a series of evaluations including performance validation, a controlled user study, and expert interviews.
  • Thumbnail Image
    ItemOpen Access
    Visual MIDI data comparison
    (2020) Schierle, Christian
    Wir präsentieren ein System, das die Visualisierung und den visuellen Vergleich von MIDI Dateien ermöglicht. MIDI Daten, die aus einer chronologischen Abfolge von Ereignissen bestehen, stellen eine besondere Herausforderung für den Entwurf entsprechender visueller Repräsentationen dar. Basierend auf den Bedürfnissen von Nutzern aus bestimmten Zielgruppen entwickeln wir ein Konzept und eine Implementierung einiger Visualisierungen. Beispielsweise können mehrere MIDI Dateien gleichzeitig mit Hilfe einer Liste angezeigt werden, die aus Informationskarten mit einer kurzen Zusammenfassung der jeweils zugehörigen Datei gebildet wird. Unser Visualisierungssystem stellt einige Möglichkeiten zur Visualisierung des Inhalts einzelner MIDI Dateien bereit. Eine Heatmap wird verwendet, um einen Überblick über die Verteilung von Noten in den MIDI Kanälen zu bieten. Als Alternative zu einer traditionelleren Implementierung eines gestapelten Säulendiagramms stellen wir eine neuartige Visualisierung der Anzahl der Vorkommen jeder Note vor, die auf einer Wabenstruktur aus Sechsecken basiert. Zur Visualisierung von Notensequenzen verwenden wir ein Diagramm, das die Tonhöhe und Dauer der einzelnen Noten darstellt. Außerdem untersuchen wir die Leistungsfähigkeit einer adaptierten MatrixWave Visualisierung zur Darstellung von Musik. Des Weiteren haben wir prototypische Entwürfe zur Visualisierung von Ähnlichkeiten zwischen als Zeichenketten repräsentierten Sequenzen untersucht, die auf sogenannten Arc Diagrams basieren. Um die Darstellung von Unterschieden zwischen den Inhalten zweier MIDI Dateien zu unterstützen, stellen wir auf dem Tonhöhendiagramm und der Wabenstruktur basierende Vergleichsansichten vor. Die Entwürfe wurden in Form einer Webanwendung implementiert und mit Hilfe eines Anwendungsszenarios evaluiert. Die Ergebnisse zeigen, dass das Visualisierungssystem die spezifizierten Nutzerbedürfnisse erfüllt, decken aber auch Schwachstellen in der Konzeption und Implementierung auf.
  • Thumbnail Image
    ItemOpen Access
    Point cloud and particle data compression techniques
    (2023) Ravi, Niranjan
    The contemporary need for heightened processing speed and storage capacity has necessitated the implementation of data compression in various applications. This study encompasses a diverse array of applications, varying in scale, that need the implementation of efficient compression techniques. At present, there is no universally preferred compression technique that can outperform others across all data types. This is due to the fact that certain compression methods are more effective in compressing specific applications than others. Point cloud data finds widespread usage in diverse domains such as computer vision, robotics, and virtual as well as augmented reality. The dense nature of point cloud data presents difficulties with respect to storage, transmission, and computation. In a similar way, particle data usually contains significant amounts of particles that have been produced through simulations, experiments, or observations. The magnitude of particle data and the computational resources necessary to handle and examine such datasets can pose a formidable obstacle. To date, there has been no direct comparative analysis of compression methodologies applied to particle data and point cloud data. This study represents the initial attempt to compare these two distinct categories. The primary objective of this study is to test different compression techniques belonging to the particle and point cloud worlds and establish a standardized metric for evaluating the effectiveness of those compression methodologies. An integrated tool has been developed in this work that incorporates various compression techniques to evaluate the appropriateness of each technique for particle data and point cloud data. The assessment of compression techniques involves the consideration of particle error metrics and point cloud error metrics. Evidence from experiments in this work demonstrates that particle compressors exhibit superior performance across both tested data categories, while point cloud compressors demonstrate superior performance solely for point cloud data. Also, it reveals that the particle error metrics exhibit stringent boundaries, which are deemed necessary for the type of data they are intended to analyze. In contrast, the point cloud error metrics display more relaxed boundaries.
  • Thumbnail Image
    ItemOpen Access
    Reproducing, extending and updating dimensionalty reductions
    (2021) Debnath, Munmun
    Dimensionality reduction techniques play a key role in data visualization and analysis, as these techniques project high-dimensional data in low-dimensional space by preserving critical information about the data in low-dimensional space. Dimensionality reduction techniques may suffer from various drawbacks, e.g., many dimensionality reduction techniques are missing a natural out-of-sample extension, i.e., the ability to insert additional data points into an existing projection. Therefore when a data set grows and new data points are introduced, the projection has to be recalculated, which often cannot be well related to the previous projection. This thesis proposes a technique based on kernel PCA to reproduce and update the result of dimensionality reduction techniques to overcome the stated problems with better run-time performance. The proposed technique uses an initial projection provided by an arbitrary dimensionality reduction technique as a template of the embedding space. A corresponding kernel matrix is then approximated to project out-of-sample instances. The approach is evaluated on several datasets for reproduction of projections of different dimensionality reduction techniques. It is shown that the proposed technique provides a coherent projection for out-of-sample data, and has a better run-time performance than several other dimensionality reduction techniques.
  • Thumbnail Image
    ItemOpen Access
    Exploring the extension of AR-visualization and interaction for large physical spaces
    (2023) Schulz, Britta
    Während sich Augmented Reality (AR) heute oft auf die Interaktion und Überlagerung von klar erreichbaren Objekten konzentriert, stellt die Navigation in riesigen, informationsreichen Umgebungen eine besondere Herausforderung dar, vor allem wenn die virtuellen Objekte weit entfernt sind, sich überlappen oder sich in einer komplexen Umgebung befinden. Die Entwicklung einer Lösung, die die visuelle Unübersichtlichkeit minimiert und gleichzeitig die wichtigsten Informationen vermittelt, ist noch nicht vollständig realisiert. Diese Arbeit untersucht die Anwendung von AR für die Visualisierung von großen Bereichen mit hoher Informationsdichte, wie zum Beispiel Produktionshallen. Sie befasst sich mit den Einschränkungen bestehender AR-Lösungen und schlägt einen Ansatz vor, der einen vordefinierten Blickpunkt als Aussichtspunkt verwendet. Die Implementierung findet in einer Fabrikhalle statt, wobei AR Head-Mounted Displays (HMD) zur interaktiven Datenüberlagerung eingesetzt werden. Zu den Herausforderungen gehören geeignete Tracking-Techniken, die Visualisierung von Daten in großen physikalischen Dimensionen und die Interaktion des Benutzers mit teilweise verdeckten Informationen von verschiedenen entfernten Orten. Eine Nutzerstudie evaluiert die geeigneten Interaktionstechniken und den Gesamtnutzen. Insgesamt zielt diese Forschung darauf ab, die Visualisierung und Interaktion in industriellen und architektonischen Kontexten zu verbessern. Die Ergebnisse zeigen, dass das System für seine Zielanwendung als hilfreich wahrgenommen wird und dass ein 2D-Übersichtsmenü aufgrund seiner Zuverlässigkeit als allgegenwärtige Interaktionsmöglichkeit gewünscht wird. Für ein besseres Nutzererlebnis wird Head Gaze oder Eye-Tracking bevorzugt. Head Gaze ermöglicht eine präzisere Zielführung, während der Eye Gaze zu einem besseren Erlebnis, mehr Immersion und weniger körperlicher Anstrengung führt. Die weit verbreitete Hand Ray Interaktion schnitt am schlechtesten ab, weil die exakte Bewegung schwierig zu lernen war.
  • Thumbnail Image
    ItemOpen Access
    Increasing trust in human-robot interaction through data visualization in augmented reality
    (2023) Vogelsang, Jonas
    “Können wir einem Roboter vertrauen?” ist eine Frage, die durch das ständige Entwickeln neuer Roboter und Interaktionstechnologien immer relevanter wird. Es ist wichtig, dass wir in ein einfaches autonomes System vertrauen können, wie zum Beispiel in eine Wettervorhersage für die Flugkontrolle. Wenn hier eine Warnung ignoriert wird, kann das desaströse Folgen haben: in Flugzeug könnte abstürzen. Vertrauen in der Mensch-Roboter-Interaktion ist ein großes Forschungsgebiet. Wir möchten zu diesem Forschungsgebiet beitragen, indem wir untersuchen, ob wir mit Hilfe von Visualisierungen das Vertrauen in Mensch-Roboter-Interaktionen mit industriellen Roboterarmen erhöhen können. Wir besprechen aktuelle Veröffentlichungen und deren Ergebnisse für die Bereiche Mensch-Roboter-Interaktion und Visualisierungen für Augmented Reality genauso wie die Forschung in das Vertrauen in Mensch-Roboter-Interaktion und die Erforschung der Nutzung diverser Daten zur Visualisierung für Augmented Reality. Mit Hilfe einer Expertengruppe haben wir neuartige Visualisierungen entwickelt und können Designvorschläge für die Entwicklung von Visualisierungen für große industrielle Roboterarme geben. Zwei der Visualisierungen wurden implementiert und mit Hilfe einer Nutzerstudie getestet. Die Ergebnisse zeigen keinen signifikanten Effekt der Visualisierungen auf eine der beobachteten Variablen, aber das zusätzliche Feedback der Studienteilnehmer in Textform zeigt ein großes Interesse an der Weiterentwicklung der Visualisierungen. Es ist also Potential vorhanden um die Visualisierungen und damit die Interaktion und das Vertrauen, in den Roboter zu verbessern.
  • Thumbnail Image
    ItemOpen Access
    Evaluating different combinations of haptic feedback devices in Virtual Reality
    (2023) Gebhardt, Patrick
    VR-based systems have been using more and more haptic feedback devices for enhancing immersion and interaction, not only in the consumer market but also in industrial applications. However, different combinations of haptic feedback devices could result in different user experiences. To evaluate different types of multimodal haptic feedback, an exemplary use case was built in which combinations of STRIVE, STROE, and SenseGlove can be used. Since the use case was developed close to typical virtual buildability working patterns in the automotive industry, only VR experts from the respective departments were invited to participate in the subsequent user study, designed to evaluate the different combinations of haptic feedback devices. Participant feedback was recorded using a haptic questionnaire and an interview to obtain a broad spectrum of feedback that provides essential information for development in the future. Feedback from participants shows that currently, a combination of collision simulation and weight force simulation by the STRIVE and STROE devices leaves the best impression. Other important findings show that haptic feedback is generally very well accepted, but that full haptic feedback is not always required, since not all haptic impressions are necessary for every work step. Thus, while haptic grasping is beneficial in some of the tasks, it cannot keep up with the simplicity of the controller due to imperfect precision, among other things. A promising prospect for the future is therefore the implementation of finger tracking in combination with collision feedback and weight simulation as a middle ground between haptic grasping and the use of a controller since the haptic feedback of STRIVEs and STROE could thus be applied directly to the user’s hand.
  • Thumbnail Image
    ItemOpen Access
    A VR-based training system for an ankle surgery
    (2022) Nguyen, Duc Anh
    The supramalleolar osteotomy is a surgery, which aims to correct ankle osteoarthritis. Surgeons specializing in osteotomies regularly need to make accurate and precise cuts to a patient's bone with tools like an oscillating bone saw. In order to acquire the knowledge and skills to perform the real ankle surgery, they need to watch tutorials and practice on physical test models beforehand. In this work, we create a training system for the supramalleolar osteotomy in virtual reality. This includes the implementation of a bone cutting simulation and a post-analysis tool to evaluate the performance. A simple cut for this type of surgery requires the knowledge of its starting point, orientation, and current coverage. Furthermore, we design different concepts for visualizations, which aim to provide guidance, assistance, and feedback to the trainee surgeon during the operation. A preliminary study with a medical expert investigates the performance regarding the cut accuracy of each design. The study showed that the overall usage of those designed guidance visualizations improved the user's confidence during the operation. One key observation was that visualization directly positioned onto the cutting region performed better than the ones which were further away.