Core Concepts
Ein neuartiger Lernansatz aus Demonstration (LfD) wird entwickelt, um Roboter in die Lage zu versetzen, sozial verträgliche Navigationsmanöver zu erlernen, ohne dabei auf vordefinierte Merkmale oder Belohnungsfunktionen angewiesen zu sein. Das System berücksichtigt auch die vorhergesagten Trajektorien umgebender Fußgänger, um eine ganzheitliche Modellierung des sozialen Kontexts zu ermöglichen.
Abstract
Der Artikel stellt ein neuartiges LfD-Framework zur Verbesserung der sozialen Navigationskompetenzen von Robotern vor. Herkömmliche Ansätze verwenden oft vordefinierte Merkmale oder Belohnungsfunktionen, die Annahmen über menschliches Verhalten beinhalten. Das vorgeschlagene Framework zielt darauf ab, diese Einschränkungen zu überwinden, indem es ausschließlich auf Rohdaten aus Sensoren setzt.
Kernelemente des Frameworks sind:
- Einbeziehung von Trajektorienvorhersagen für umgebende Fußgänger, um den zeitlichen Aspekt sozialer Navigation zu berücksichtigen.
- Verwendung eines Convolutional Neural Networks (CNN) als Zustandsencoder, um die gesamte Umgebungsinformation in die Trajektorienplanung einfließen zu lassen, anstatt nur die nächsten Fußgänger zu berücksichtigen.
- Einsatz eines Conditional Neural Process (CNP)-basierten LfD-Moduls, um soziale Navigationsmanöver direkt aus Demonstrationsdaten zu erlernen, ohne Annahmen über Belohnungsfunktionen treffen zu müssen.
Die Autoren präsentieren erste Ergebnisse zu den einzelnen Komponenten des Frameworks und skizzieren den geplanten Integrationsansatz sowie zukünftige Evaluationen hinsichtlich sozialer Verträglichkeit und Akzeptanz.
Stats
Es gibt keine expliziten Statistiken oder Zahlen im Artikel.
Quotes
Es gibt keine hervorgehobenen Zitate im Artikel.