Die Autoren präsentieren eine universelle Bewegungsdarstellung, die eine breite Palette motorischer Fähigkeiten für die physikbasierte Steuerung humanoider Roboter umfasst.
Bisherige Methoden konzentrierten sich auf das Erlernen von Bewegungseinbettungen für einen engen Bereich von Bewegungsstilen (z.B. Fortbewegung, Spielfiguren) aus spezialisierten Bewegungsdatensätzen. Dies schränkt ihre Anwendbarkeit bei komplexen Aufgaben ein.
Die Autoren schließen diese Lücke, indem sie den Abdeckungsbereich ihrer Bewegungsdarstellung deutlich erweitern. Dazu lernen sie zunächst einen Bewegungsimitator, der die gesamte menschliche Bewegung aus einem großen, unstrukturierten Bewegungsdatensatz imitieren kann. Anschließend destillieren sie die Fähigkeiten direkt aus dem Imitator in einen Bewegungsrepräsentationsraum.
Zusätzlich lernen sie eine bedingte Verteilung (Prior), die von der Propriozeption (Körperhaltung und -geschwindigkeit) des Humanoiden abhängt, um die Ausdrucksfähigkeit des Modells und die Sampling-Effizienz für nachgelagerte Aufgaben zu verbessern. Durch Sampling aus dieser Prior können sie lange, stabile und vielfältige menschliche Bewegungen erzeugen.
Die Autoren zeigen, dass ihre Bewegungsrepräsentation bei hierarchischen RL-Ansätzen menschenähnliches Verhalten erzeugt. Sie demonstrieren die Effektivität ihrer Bewegungsrepräsentation durch die Lösung generativer Aufgaben (z.B. Schlagen, Geländeüberquerung) und Bewegungsverfolgung mit VR-Controllern.
In un'altra lingua
dal contenuto originale
arxiv.org
Approfondimenti chiave tratti da
by Zhengyi Luo,... alle arxiv.org 04-15-2024
https://arxiv.org/pdf/2310.04582.pdfDomande più approfondite