Please use this identifier to cite or link to this item: http://dx.doi.org/10.18419/opus-12680
Authors: Walter, Tobias
Title: Evaluation and application of estimated gaze depth in Virtual Reality
Issue Date: 2022
metadata.ubs.publikation.typ: Abschlussarbeit (Master)
metadata.ubs.publikation.seiten: 61
URI: http://nbn-resolving.de/urn:nbn:de:bsz:93-opus-ds-126996
http://elib.uni-stuttgart.de/handle/11682/12699
http://dx.doi.org/10.18419/opus-12680
Abstract: Eye Tracking Kameras werden zum Standard in neuen Virtual Reality Brillen. Während Evaluation und Bewertung von zweidimensionalen Eye Tracking Daten schon Einsatz in Forschung und Designprozessen finden, ist der Einsatz von dreidimensionaler Blicktiefe weitgehend unerforscht. Üblicherweise wird zur Schätzung der Blicktiefe der Blickstrahl mit einer zweidimensionalen Ebene, z.~B. dem Bilschirm, geschnitten. Allerdings setzt dieser Ansatz voraus, dass Abstände der Szene bekannt sind und keine Verdeckung auftritt. In dieser Arbeit wird die Blicktiefe durch das Schneiden der Blickgeraden beider Augen geschätzt. Dies ermöglicht die Verwendung von semi- transparenten Objekten, mit denen ein Benutzer interagieren kann. Einblicke in die Blicktiefe können wertvolle Einsichten in Benutzerverhalten liefern, in verdeckungsreichen Szenen die Frage klären, welches Ziel fokussiert wird und neue Interaktionstechniken ermöglichen. Ziel dieser Arbeit ist es, Blicktiefenschätzung zu evaluieren und neue Verwendungsmöglichkeiten zu erfrorschen. Um eine zuverlässige Schätzung zu erhalten, werden zwei Kalibrierungsprozeduren entwickelt, die auf aktuellen Methoden aufbauen und Modalitäten verglichen, die Einfluss auf die Kalibrierung haben könnten. Die Implementierung wurde in einer Pilotstudie (n=10) verglichen. Die Ergebnisse zeigen, dass Interaktion gut in Distanzen bis zu 1.2 Metern funktioniert, während Objekte, die nur 30 cm vom Benutzer entfernt waren, teilweise als unangenehm empfunden wurden. Außerdem legen die Ergebnisse nahe, dass ein sich bewegendes Kalibrierungsziel zu einer besseren Allzweckkalibrierung führt. Eine sorgfältige Kalibrierung des Raumes, in dem Interaktion verwendet wird, kann daher die Blicktiefenschätzung und Interaktion verbessern.
Cameras for eye tracking are becoming standard for modern virtual reality head-mounted displays. While evaluation and interaction of two-dimensional eye tracking data are widely researched and applied, the three-dimensional point of regard is mostly unexplored. Usually, gaze depth is determined using the intersection of a gaze ray with a two-dimensional plane such as the screen. However, this requires complete scene knowledge and an occlusion-free environment. In this work, the estimation is done by intersecting the two eyes' gaze rays. This enables the usage of semi- transparent objects a user can interact with by focusing directly on them or looking through them. Insight into the users' gaze depth could provide valuable data to help understand user behavior, disambiguate targets in high occlusion environments and enable new interaction techniques. The subject of this work is to evaluate the estimation of gaze depth and to explore possible novel use cases. In order to get a stable estimation of the gaze depth, two vergence-based calibration procedures are developed improving on existing research and comparing modalities that could impact calibration quality. The implementations were evaluated in a small-scale pilot (n=10) study. Results show that interaction works well in distances up to 1.2 meters, while very close distances of about 30 cm were perceived as uncomfortable to look at by some users. Results also indicate that a continuously moving calibration target leads to a better all-purpose calibration. Carefully calibrating the space used for interaction can therefore lead to improved gaze depth estimation and interaction.
Appears in Collections:05 Fakultät Informatik, Elektrotechnik und Informationstechnik

Files in This Item:
File Description SizeFormat 
Walter_Tobias.pdf4,79 MBAdobe PDFView/Open


Items in OPUS are protected by copyright, with all rights reserved, unless otherwise indicated.