Die Studie untersucht einen vereinfachten, energiezentrierten Belohnungsansatz für die Verstärkungslernung zur Förderung stabiler und energieeffizienter Fortbewegung von Vierbeinerrobotern.
Im Gegensatz zu früheren Arbeiten, die komplexe Belohnungssysteme mit Vorgaben zu Gangmustern verwendeten, zeigt der vorgestellte Ansatz, dass Vierbeinerroboter wie ANYmal-C und Unitree Go1 autonom energieeffiziente Gangarten wie Viertaktgehen bei niedrigen Geschwindigkeiten und Traben bei höheren Geschwindigkeiten auswählen können, ohne dass vordefinierte Gangmuster erforderlich sind.
Der Schlüssel ist eine adaptive Energiebelohnung, deren Gewichtung basierend auf der Referenzgeschwindigkeit angepasst wird. Dies ermöglicht es den Robotern, ihre Bewegungsmuster an die jeweilige Geschwindigkeit anzupassen und dabei Energie zu sparen.
Die Effektivität des Ansatzes wird durch Simulationen mit ANYmal-C und Tests auf einem realen Unitree Go1-Roboter nachgewiesen. Im Vergleich zu Basismethoden ohne Energieregularisierung oder mit festen Energiegewichten zeigt der vorgestellte Ansatz eine deutlich höhere Energieeffizienz bei gleichbleibender Geschwindigkeitsgenauigkeit.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문