Neues DFG-Projekt im Rahmen des SPP 2481 "UGaze (Blicke verstehen)" bewilligt

Blicksignalisierung bei verschieden skalierten interaktiven und kollaborativen Handlungen (GazeACT)

Nachdem wir bereits von 2018 bis 2023 einen Beitrag zum DFG Schwerpunktprogramm SPP 1772 (Multitasking) leisten durften, erfreut es uns sehr, mitteilen zu dürfen, dass es uns gemeinsam mit der Kollegin Prof. Dr. Katja Fiehler von der Justus-Liebig-Universität Gießen erneut gelungen ist, im Rahmen des Schwerpunktprogramms SPP 2481 „Blicke verstehen“ eine Förderung zu erhalten.

Unser Projekt „Blicksignalisierung bei verschieden skalierten interaktiven und kollaborativen Handlungen (GazeACT)“ wird dabei in der ersten Förderphase für drei Jahre gefördert (Dezember 2025 - Dezember 2028). Wir freuen uns auf die Zusammenarbeit im SPP!

Falls Sie Interesse haben, in diesem Projekt zu promovieren, freuen wir uns auf Ihre Bewerbung (Bewerbungsfrist ist der 1. Oktober 2025): https://jobs.uni-jena.de/jobposting/996a4e711eea138d81ac3dbfa6750ad4097afa280Externer Link

Projektbeschreibung:

Die Erforschung von Augenbewegungen zur Untersuchung von perzeptuellen und kognitiven Prozessen wurde primär in isolierten Szenarien (mit nur einem Beobachter) untersucht, selbst wenn das Ziel verfolgt wurde, soziale Interaktionen und/oder Kollaborationen zu untersuchen. Es gibt zwar einige Hinweise darauf, dass das Blickverhalten in verschieden skalierten interaktiven und kollaborativen Handlungen hochgradig informativ für das Erkennen von Absichten anderer sein kann, unser allgemeines Verständnis der Blicksignalisierung in solchen Szenarien ist aber sehr begrenzt. Ziel dieses Tandem-Forschungsvorhabens ist es daher, die Funktion der Blicksignalisierung bei der Steuerung von Hand- und Ganzkörperbewegungen in dynamischen, interaktiven und kollaborativen Aufgaben in Echtzeit zu untersuchen und dabei die Blicke von zwei Individuen (d.h. zwei Interagierenden/zwei Kollaborateuren) zu messen. Interaktive Aufgaben beziehen sich auf Szenarien, bei denen zwei Individuen interagieren, während jedes Individuum seine eigenen Ziele verfolgt (z.B. das Greifen und Übergeben eines Objekts oder das Vorbeigehen an einem anderen Individuum ohne Kollision). Im Gegensatz dazu beziehen sich kollaborative Aufgaben auf Szenarien, bei denen zwei Individuen eine Aufgabe gemeinsam ausführen, um ein gemeinsames Ziel zu erreichen (z.B. ein Objekt gemeinsam greifen und anheben, um es in einen Rahmen einzupassen, oder einen Tisch gemeinsam tragen, um diesen gezielt durch den Raum zu manövrieren). Die Untersuchung dieser Aufgaben wird es uns ermöglichen, (i) Blickmuster bei interaktiven und kollaborativen Handlungen zu identifizieren, zu charakterisieren und zu vergleichen und insbesondere zu verstehen (ii) wie sich die Blicksignalisierung und ihre Interpretation über den zeitlichen Verlauf von Handlungen verändert, und (iii) wie sie von Faktoren der anderen Person (z.B. Informationswert des Blicks des anderen) und der gemeinsamen Aufgabe (z.B. Schwierigkeit der Aufgabe) beeinflusst wird. Mit diesem Tandem-Ansatz verschieden skalierter Handlungen zielt dieses Projekt darauf ab, einen bedeutenden Beitrag zu zwei Entwicklungsbereichen von UGaze zu leisten, nämlich (I) Gaze Expression und (II) Gaze Sharing, und zwar über eine breite Palette von alltäglichen, sozialen interaktiven und kollaborativen Aufgaben.