Menschen nehmen oft an, dass Angebote, die zu großzügig erscheinen, versteckte "Phantomkosten" beinhalten müssen. Diese Wahrnehmung tritt nicht nur bei Interaktionen mit Menschen, sondern auch bei Interaktionen mit Robotern auf.
Ein neuartiges tiefes Lernmodell, das Graph-Vision-Transformer (GViT), ermöglicht die Erkennung von Gesten in ultraweiter Entfernung von bis zu 25 Metern unter Verwendung einer einfachen RGB-Kamera.
Dieses Papier präsentiert einen neuartigen tele-immersiven Rahmen, der die kognitive und physische Zusammenarbeit zwischen Menschen und Robotern durch Mixed Reality (MR) fördert. Dieser Rahmen umfasst ein neuartiges bidirektionales räumliches Bewusstsein und einen multimodalen virtuell-physischen Interaktionsansatz, um eine nahtlose Interaktion zwischen Mensch und Drohne zu ermöglichen.
Eine robuste, kontextbewusste Methode zur Fusion von Informationen aus verschiedenen Modalitäten (Sprache, Gesten) wird vorgestellt, um die Absichten des Menschen für Manipulationsaufgaben eines Roboters zuverlässig zu erkennen.
Physiologische Messungen zeigen, dass Menschen bei Begegnungen mit mobilen Robotern eine erhöhte Stressreaktion aufweisen, insbesondere wenn mehrere Roboter gleichzeitig navigieren im Vergleich zu Suchverhalten.
Ein Roboter kann die Leistung eines suboptimalen Mensch-Roboter-Teams verbessern, indem er die Bereitschaft des Menschen, seinen Anweisungen zu folgen, online schätzt und sein Eingreifen entsprechend anpasst.
Durch die Verwendung von mengenbasierten Vorhersagemodellen und statistischer Risikokontrolle kann ein Roboter seine Aktionen an die Absichten des Menschen anpassen und gleichzeitig ein vorgegebenes Risiko nicht überschreiten.
Der VID2REAL HRI-Forschungsrahmen ermöglicht es Forschenden, die Vorteile von video-basierten und realen Studien zur Mensch-Roboter-Interaktion effektiv zu nutzen, um Erkenntnisse mit hoher ökologischer Validität zu gewinnen.
Der Einsatz von erweiterter Realität (XR) ermöglicht eine intuitivere Kommunikation und Programmierung zwischen Menschen und Robotern, wodurch die Anpassungsfähigkeit und Aufgabengeneralisierung autonomer, lernfähiger Manipulatoren verbessert wird.
Die effektive Übermittlung von Zielen an autonome Systeme ist eine Schlüsselanforderung für deren effektiven Einsatz. Ebenso ist das gegenseitige Verständnis von Zielen und Einschränkungen zwischen Endnutzern und Robotikern ein wichtiger Faktor für die Konvergenz zu einem nutzbaren Design. Diese Studie identifiziert einige zugrunde liegende Ursachen für Schwierigkeiten bei der Vermittlung von Zielen und Lücken in Technologie und Designansätzen und empfiehlt Wege, diese in der Praxis und in der Forschung anzugehen.