Benedikt Hosp

Photo of

University of Tübingen
Dpt. of Computer Science
Human-Computer Interaction
Sand 14
72076 Tübingen
Germany

Telephone
+49 - (0) 70 71 - 29 - 78996
Telefax
+49 - (0) 70 71 - 29 - 50 62
E-Mail
benedikt.hosp@uni-tuebingen.de
Office
Sand 14, C205a
Office hours
on appointment

Research Interests

  • Perceptual-Cognitive Diagnostic and Training Systems
  • Latent Gaze Features Recognition (Expertise, Confusion etc.)
  • Gaze Behavior in Sports / Surgery
  • Peripheral Human Vision
  • Virtual Reality
  • High Speed, Remote Eye Tracking
  • (Explainable) Machine Learning / Deep Learning

Publications

2021

Differentiating Surgeon Expertise Solely by Eye Movement Features

Benedikt Hosp, Myat Su Yin, Peter Haddawy, Paphon Sa-Ngasoongsong, and Enkelejda Kasneci. arXiv preprint arXiv:2102.08155, 2021.

BIB

States of confusion: Eye and Head tracking reveal surgeons’ confusion during arthroscopic surgery

Benedikt Hosp, Myat Su Yin, Ratthapoom Watcharporas, Enkelejda Kasneci, and others. arXiv preprint arXiv:2106.06261, 2021.

BIB

Expertise classification of soccer goalkeepers in highly dynamic decision tasks: A deep learning approach for temporal and spatial feature recognition of fixation image patch sequences

B. Hosp, F. Schultz, E. Kasneci, and O. Hoener. Frontiers in Sports and Active Living, pages 183. Frontiers, 2021.

BIB

Soccer goalkeeper expertise identification based on eye movements

B. W. Hosp, F. Schultz, O. Hoener, and E. Kasneci. PloS one 16(5): e0251070. Public Library of Science San Francisco, CA USA, 2021.

BIB

2020

RemoteEye: An open-source high-speed remote eye tracker

Benedikt Hosp, Shahram Eivazi, Maximilian Maurer, Woflgang Fuhl, David Geisler, and Enkelejda Kasneci. Behavior Research Methods, pages 1–15. Springer, 2020.

PDF BIB

A Study of Expert/Novice Perception in Arthroscopic Shoulder Surgery

Myat Su Yin, Peter Haddawy, Benedikt Hosp, Paphon Sa-ngasoongsong, Thanwarat Tanprathumwong, Madereen Sayo, Supawit Yangyuenpradorn, and Akara Supratak. Proceedings of the 4th International Conference on Medical and Health Informatics, pages 71–77, 2020.

BIB

2019

Encodji: Encoding Gaze Data Into Emoji Space for an Amusing Scanpath Classification Approach ;)

Wolfgang Fuhl, Efe Bozkir, Benedikt Hosp, Nora Castner, David Geisler, Thiago C., and Enkelejda Kasneci. Eye Tracking Research and Applications, 2019.

PDF BIB Supplementary Material

2018

BORE: Boosted-oriented edge optimization for robust, real time remote pupil center detection

W. Fuhl, S. Eivazi, B. Hosp, A. Eivazi, W. Rosenstiel, and E. Kasneci. Eye Tracking Research and Applications, ETRA, 2018.

PDF BIB Supplementary Material

Teaching

Course Term
Basispraktikum Technische Informatik
Basispraktikum Technische Informatik

Open Thesis Topics

Finished Thesis Topics

01.03.2021

Development of an omnidirectional 2D/3D virtual reality experiment designer and player for eye tracking studies

Die Zielsetzung war es nun also, eine Software zu schreiben, welche für den wissenschaftlichen Gebrauch genutzt werden kann. Dabei ging es darum, dass verschiedene Stimuli in einem UI (hier”Experiment Designer\ genannt) geladen werden können, diese Stimuli dann korrekt klassifiziert werden, und im Anschluss korrekt in einer Liste zusammengefügt werden. Dabei ist es dann möglich die Stimuli noch anzupassen, wie z.B. die initiale Kameradrehung für 360 Grad Videos, oder auch wie lange ein Bild angezeigt werden soll, bevor es für den Probanden automatisch wieder verschwindet. Weitere Funktionen wie das Speichern und Laden einer solchen Liste an Stimuli, um diese schnell wieder mit den selben angepassten Werten gri bereit zu haben, sind selbstverstandlich ebenfalls integriert worden. Im Anschluss ist es über einen Button im Experiment Designer möglich, die Liste an Stimuli automatisch durchlaufen zu lassen. Dabei ist es allerdings selbstverstaendlich weiterhin möglich den Abspielvorgang zu pausieren, Stimuli zu überspringen oder erneut abzuspielen, sowie frühzeitig abzubrechen. Hierbei werden waehrend des Abspielvorgangs die Augen getracked, um somit sowohl die Herkunft, wie auch die Richtung des Blickes, und zwar immer relativ zur Kopfbewegung, zu verfolgen und in einer gesonderten Textdatei automatisch nieder zuschreiben, damit diese Daten im Anschluss analysiert werden können.

Read more …