Ziel von ImRoNet ist es, internetbasierte multimediale /multimodale Nutzerschnittstellen zur Teleoperation von Robotern zu erforschen und neue Verfahren und Komponenten zur Gestaltung der intuitiven Bedienung von Robotern in typischen Einsatzumgebungen zu konzipieren und experimentell zu validieren. Durch den Einsatz neuer Benutzerschnittstellen sollen dabei neue Interaktionsformen mit Robotern ermöglicht und dadurch neue Anwendungsfelder für Roboter aufgezeigt werden.
Auf der Automatica 2010 war das Projekt bereits zum zweiten Mal nach 2008 als Teil des Gemeinschaftsstandes „Innovationsplattform Servicerobotik“ vertreten. Gezeigt wurden mehrere interessante Exponate, um die verschiedenen Teilaspekte von ImRoNet zu veranschaulichen.
Ein 2008 bereits in einer einfachen Version gezeigter Aspekt war die mittels Augmented Reality unterstütze Wartung, bei der ein mit einer Kamera ausgestattetes Bedienpanel vor einem Schaltschrank bewegt werden kann. Das Panel besitzt dafür eine 6-D-Maus und ist an einem Roboterarm befestigt, der mittels einer mobilen Plattform zum Einsatzort verfahren werden kann. Ein lokaler Benutzer kann so durch die Einblendung von Arbeitsanweisungen und Prozessparametern in das Bild bei seiner Arbeit unterstützt werden.
Die Präsentation eines Teleoperationsszenarios erfolgte anhand des zweiten Demonstrators, bestehend aus einem Drei-Finger-Greifer mit taktiler Sensorik, Roboterarm und Plattform (Bild 2), der mit erweiterter Sensorik zur 3-D-Umgebungserfassung ausgestattet ist. Das System besitzt weiterhin eine Schwenk-Neige-Einheit mit einem Stereokamerasystem, einem Echzeit-3-D-Senor und einem Projektor. Zur Durchführung von (teil-)autonomen Wartungs- und Inspektionsaufgaben wurde in der Zelle eine Stellraderkennung mit Verfahren der Plattform an die optimale Greifposition und und anschließendem kraftgeregelten Drehen eines gewählten Stellrades demonstriert. Die Kontrolle des Greifprozesses kann hier optional auf mit haptischem Feedback erfolgen. Sowohl für ein reines Telepräsenzszenario als auch für die Unterstützung eines lokalen Nutzers eignete sich der andere hier gezeigte Anwendungsfall. Ein entfernter Experte konnte mittels des Inertialsensors an seinem Head Mounted Display eine über dem Stand angebrachte Szenenkamera durch Kopfbewegungen fernsteuern, wahlweise auf die Schwenk-Neige-Einheit des Roboters umschalten und zusätzlich auch mittels 6-D-Maus die Plattform verfahren (siehe Bild ). Weitergehend wurde mittels des Projektors anhand eines Anwendungsbeispiels auch die projektorbasierte Augmentierung vor Ort gezeigt.
Daneben konnten Fachbesucher mehrere kleinere Teilaspekte selbst ausprobieren. Hierzu gehörten Greifen mittels einer RFID-basierten Auswahl von Greifskills, ein multimediales/multimodales Bediengerät und die Interaktion mittels eines portablen Projektor-Wiimote-Systems.