Please use this identifier to cite or link to this item: http://dx.doi.org/10.18419/opus-14492
Authors: Zeng, Sichun
Title: Gaze estimation error prediction of information visualizations
Issue Date: 2024
metadata.ubs.publikation.typ: Abschlussarbeit (Bachelor)
metadata.ubs.publikation.seiten: 45
URI: http://nbn-resolving.de/urn:nbn:de:bsz:93-opus-ds-145114
http://elib.uni-stuttgart.de/handle/11682/14511
http://dx.doi.org/10.18419/opus-14492
Abstract: As eye-tracking technology gains prominent attention in Information Visualizations (InfoVis) research, the need for high accuracy and precision in eye-tracking data becomes increasingly critical. Gaze estimation error is a concept used in eye-tracking, that refers to the difference between the estimated and the true gaze position and direction. Unlike interactions involving physical contact, the visual focus can only be determined through estimation, making gaze estimation errors inevitable. To minimize these errors, calibration is typically performed, where users are asked to look at five or more points on the screen to establish baseline data for ground truth. All following eye-tracking experiments are then based on this calibration data. However, there are situations where calibration is not practical, such as in some remote or online studies or during dynamic activities, where the calibration process cannot be reliably controlled. To address this limitation, this paper proposes VisCaiNet, a deep-learning model that predicts gaze estimation error through post-hoc analysis, using duration, scanpath, scanpath length, and Hit Any AOI Rate (HAAR) as input features, with calibration error as the output. It can effectively discern between high and low-quality gaze data based on the predefined calibration criteria, offering a solution to the challenges posed by variable conditions and unfeasible calibration situations.
Da die Eye-Tracking-Technologie in der Informationsvisualisierungsforschung (InfoVis) zunehmend an Bedeutung gewinnt, wird der Bedarf an hoher Genauigkeit und Präzision bei Eye-Tracking-Daten immer wichtiger. Der Blickschätzungsfehler ist ein beim Eye-Tracking verwendetes Konzept, das sich auf die Differenz zwischen der geschätzten und der wahren Blickposition und -richtung bezieht. Im Gegensatz zu Interaktionen mit physischem Kontakt kann der visuelle Fokus nur durch Schätzung bestimmt werden, sodass Fehler bei der Blickschätzung unvermeidlich sind. Um diese Fehler zu minimieren, wird in der Regel eine Kalibrierung durchgeführt, bei der Benutzer gebeten werden, fünf oder mehr Punkte auf dem Bildschirm zu betrachten, um Basisdaten für die Grundwahrheit zu ermitteln. Alle folgenden Eye-Tracking-Experimente basieren dann auf diesen Kalibrierungsdaten. Es gibt jedoch Situationen, in denen eine Kalibrierung nicht praktikabel ist, beispielsweise bei einigen Remote- oder Online-Studien oder bei dynamischen Aktivitäten, in denen der Kalibrierungsprozess nicht zuverlässig gesteuert werden kann. Um diese Einschränkung zu beheben, schlägt dieses Papier VisCaiNet vor, ein Deep-Learning-Modell, das Blickschätzungsfehler durch Post-hoc-Analyse vorhersagt und dabei Dauer, Scanpfad, Scanpfadlänge und Hit Any AOI Rate (HAAR) als Eingabemerkmale verwendet, mit Kalibrierungsfehlern die Ausgabe. Es kann anhand der vordefinierten Kalibrierungskriterien effektiv zwischen Blickdaten hoher und niedriger Qualität unterscheiden und bietet so eine Lösung für die Herausforderungen, die sich aus variablen Bedingungen und undurchführbaren Kalibrierungssituationen ergeben.
Appears in Collections:05 Fakultät Informatik, Elektrotechnik und Informationstechnik

Files in This Item:
File Description SizeFormat 
Bachelor Thesis Zeng.pdf800,47 kBAdobe PDFView/Open


Items in OPUS are protected by copyright, with all rights reserved, unless otherwise indicated.