Suche

RobotPuzzle


RobotPuzzle
Projektstart: 01.08.2013
Projektende: 01.08.2014
Projektträger: Universität Augsburg
Projektverantwortung vor Ort: Prof. Dr. Elisabeth André
Beteiligte WissenschaftlerInnen der Universität Augsburg: M.Sc. Gregor Mehlmann
M.Sc. Kathrin Janowski
M.Sc. Markus Häring

Zusammenfassung

Mensch und Roboter nutzen die Kombination von Sprache und Blickbewegungen, um sich bezüglich der Platzierung mehrerer Objekte zu verständigen.

Beschreibung

Bei dieser Anwendung hat der Mensch die Aufgabe, verschiedene Objekte auf die vorgegebenen Felder zu legen. Die Anweisungen des Roboters sind dabei absichtlich mehrdeutig gehalten, um den Nutzer zum Nachfragen anzuregen.

Durch die Eye-Tracking-Brille, welche der Nutzer trägt, sowie spezielle Markierungen auf den Objekten, ist das System in der Lage zu erkennen, welches Objekt der Nutzer zur Zeit betrachtet. Dadurch ist wiederum der Roboter in der Lage, Mehrdeutigkeiten in der gesprochenen Frage des Nutzers aufzulösen, um korrekt zu antworten.

Desweiteren ermöglicht diese Information dem Roboter, Blickverhalten zu zeigen, welches die geteilte Aufmerksamkeit veranschaulicht. Beispielsweise folgt er dem Blick des Nutzers um seine Aufmerksamkeit zu zeigen, oder nimmt Blickkontakt auf, wenn dieser den Roboter ansieht.

Dieser Blickkontakt dient außerdem als Signal für die Rederechtsvergabe. Wenn der Nutzer eine Frage stellt, wartet der Roboter mit seiner Antwort, bis der Nutzer ihn direkt ansieht.

All diese Verhaltensweisen dienen dazu, sich auf ein gemeinsames Hintergrundwissen zu verständigen, um Missverständnisse zu vermeiden oder zumindest schnell aus der Welt zu schaffen.

Publikationen

  • Modeling Grounding for Interactive Social Companions 
    Gregor Mehlmann, Kathrin Janowski, Elisabeth André 
    KI - Künstliche Intelligenz, Special Issue on Companion Technologies, 2015
  • Exploring a Model of Gaze for Grounding in Multimodal HRI 
    Gregor Mehlmann, Kathrin Janowski, Markus Häring, Tobias Baur, Patrick Gebhard and Elisabeth André 
    Proceedings of the 16th International Conference on Multimodal Interaction, ICMI' 14, pp. 247-254, Istanbul, Turkey, November 12 - 16 2014.
  • Modeling Gaze Mechanisms for Grounding in HRI 
    Gregor Mehlmann, Kathrin Janowski, Tobias Baur, Markus Häring, Elisabeth André und Patrick Gebhard 
    Proceedings of the 21th European Conference on Artificial intelligence, ECAI' 14, pp. 1069 - 1070, Prague, Czech Republic, August 18-22, 2014, Frontiers in Artificial Intelligence and Applications, Volume 263.