Die Forscher untersuchten, ob tiefes Reinforcement Learning in der Lage ist, anspruchsvolle und sichere Bewegungsfähigkeiten für einen kostengünstigen, miniaturisierten humanoiden Roboter zu synthetisieren, die zu komplexen Verhaltensstrategien in dynamischen Umgebungen zusammengesetzt werden können.
Sie verwendeten tiefes Reinforcement Learning, um einen humanoiden Roboter mit 20 angetriebenen Gelenken in einem vereinfachten Eins-gegen-Eins-Fußballspiel trainieren zu lassen. Der resultierende Agent zeigt robuste und dynamische Bewegungsfähigkeiten wie schnelles Aufstehen, Laufen, Wenden und Schießen und wechselt zwischen ihnen auf eine geschmeidige, stabile und effiziente Art und Weise. Die Fortbewegung und das taktische Verhalten des Agenten passen sich an spezifische Spielkontexte an, was praktisch schwierig manuell zu entwerfen wäre. Der Agent entwickelte auch ein grundlegendes strategisches Verständnis des Spiels und lernte beispielsweise, Ballbewegungen vorherzusagen und Schüsse des Gegners zu blocken.
Der Agent wurde in der Simulation trainiert und ohne weitere Anpassung auf echte Roboter übertragen. Eine Kombination aus ausreichend hoher Kontrollfrequenz, gezielter Dynamikstochastisierung und Störungen während des Trainings in der Simulation ermöglichte einen guten Übertrag in die Realität. Obwohl die Roboter von Natur aus zerbrechlich sind, führte eine grundlegende Regularisierung des Verhaltens während des Trainings dazu, dass die Roboter sichere und effektive Bewegungen lernten, während sie immer noch auf dynamische und wendige Art und Weise agierten - weit über das hinaus, was intuitiv von dem Roboter erwartet wird.
To Another Language
from source content
arxiv.org
Önemli Bilgiler Şuradan Elde Edildi
by Tuomas Haarn... : arxiv.org 04-12-2024
https://arxiv.org/pdf/2304.13653.pdfDaha Derin Sorular