Bitte benutzen Sie diese Kennung, um auf die Ressource zu verweisen: http://dx.doi.org/10.18419/opus-12680
Langanzeige der Metadaten
DC ElementWertSprache
dc.contributor.authorWalter, Tobias-
dc.date.accessioned2023-01-24T14:04:06Z-
dc.date.available2023-01-24T14:04:06Z-
dc.date.issued2022de
dc.identifier.other1832586448-
dc.identifier.urihttp://nbn-resolving.de/urn:nbn:de:bsz:93-opus-ds-126996de
dc.identifier.urihttp://elib.uni-stuttgart.de/handle/11682/12699-
dc.identifier.urihttp://dx.doi.org/10.18419/opus-12680-
dc.description.abstractEye Tracking Kameras werden zum Standard in neuen Virtual Reality Brillen. Während Evaluation und Bewertung von zweidimensionalen Eye Tracking Daten schon Einsatz in Forschung und Designprozessen finden, ist der Einsatz von dreidimensionaler Blicktiefe weitgehend unerforscht. Üblicherweise wird zur Schätzung der Blicktiefe der Blickstrahl mit einer zweidimensionalen Ebene, z.~B. dem Bilschirm, geschnitten. Allerdings setzt dieser Ansatz voraus, dass Abstände der Szene bekannt sind und keine Verdeckung auftritt. In dieser Arbeit wird die Blicktiefe durch das Schneiden der Blickgeraden beider Augen geschätzt. Dies ermöglicht die Verwendung von semi- transparenten Objekten, mit denen ein Benutzer interagieren kann. Einblicke in die Blicktiefe können wertvolle Einsichten in Benutzerverhalten liefern, in verdeckungsreichen Szenen die Frage klären, welches Ziel fokussiert wird und neue Interaktionstechniken ermöglichen. Ziel dieser Arbeit ist es, Blicktiefenschätzung zu evaluieren und neue Verwendungsmöglichkeiten zu erfrorschen. Um eine zuverlässige Schätzung zu erhalten, werden zwei Kalibrierungsprozeduren entwickelt, die auf aktuellen Methoden aufbauen und Modalitäten verglichen, die Einfluss auf die Kalibrierung haben könnten. Die Implementierung wurde in einer Pilotstudie (n=10) verglichen. Die Ergebnisse zeigen, dass Interaktion gut in Distanzen bis zu 1.2 Metern funktioniert, während Objekte, die nur 30 cm vom Benutzer entfernt waren, teilweise als unangenehm empfunden wurden. Außerdem legen die Ergebnisse nahe, dass ein sich bewegendes Kalibrierungsziel zu einer besseren Allzweckkalibrierung führt. Eine sorgfältige Kalibrierung des Raumes, in dem Interaktion verwendet wird, kann daher die Blicktiefenschätzung und Interaktion verbessern.de
dc.description.abstractCameras for eye tracking are becoming standard for modern virtual reality head-mounted displays. While evaluation and interaction of two-dimensional eye tracking data are widely researched and applied, the three-dimensional point of regard is mostly unexplored. Usually, gaze depth is determined using the intersection of a gaze ray with a two-dimensional plane such as the screen. However, this requires complete scene knowledge and an occlusion-free environment. In this work, the estimation is done by intersecting the two eyes' gaze rays. This enables the usage of semi- transparent objects a user can interact with by focusing directly on them or looking through them. Insight into the users' gaze depth could provide valuable data to help understand user behavior, disambiguate targets in high occlusion environments and enable new interaction techniques. The subject of this work is to evaluate the estimation of gaze depth and to explore possible novel use cases. In order to get a stable estimation of the gaze depth, two vergence-based calibration procedures are developed improving on existing research and comparing modalities that could impact calibration quality. The implementations were evaluated in a small-scale pilot (n=10) study. Results show that interaction works well in distances up to 1.2 meters, while very close distances of about 30 cm were perceived as uncomfortable to look at by some users. Results also indicate that a continuously moving calibration target leads to a better all-purpose calibration. Carefully calibrating the space used for interaction can therefore lead to improved gaze depth estimation and interaction.en
dc.language.isoende
dc.rightsinfo:eu-repo/semantics/openAccessde
dc.subject.ddc004de
dc.titleEvaluation and application of estimated gaze depth in Virtual Realityen
dc.typemasterThesisde
ubs.fakultaetInformatik, Elektrotechnik und Informationstechnikde
ubs.institutInstitut für Visualisierung und Interaktive Systemede
ubs.publikation.seiten61de
ubs.publikation.typAbschlussarbeit (Master)de
Enthalten in den Sammlungen:05 Fakultät Informatik, Elektrotechnik und Informationstechnik

Dateien zu dieser Ressource:
Datei Beschreibung GrößeFormat 
Walter_Tobias.pdf4,79 MBAdobe PDFÖffnen/Anzeigen


Alle Ressourcen in diesem Repositorium sind urheberrechtlich geschützt.