Der Artikel präsentiert einen selbstverbessernden Hardware-in-the-Loop-Trainingsrahmen, der digitale Zwillinge mit Reinforcement Learning (RL) integriert. Im Gegensatz zu bestehenden Forschungsarbeiten, die digitale Zwillinge zur Erzeugung synthetischer Daten für das Training von Deep-Learning-Modellen einsetzen, trainiert dieser Rahmen RL-Agenten direkt in der digitalen Zwillingsumgebung, die sich basierend auf Echtzeitinteraktionen kontinuierlich aktualisiert.
In einem Fallstudie zur Hindernisumfahrung wird ein digitaler Zwilling für den Ufactory Xarm5-Roboter auf Basis von Pybullet und Robot Operating System (ROS) entwickelt. Der RL-Agent aktualisiert seine Strategie kontinuierlich, wenn Kollisionen oder erfolglose Aufgabenversuche vom Überwachungssystem des digitalen Zwillings erkannt werden. Sobald der RL-Agent die Aufgabe sicher und erfolgreich abschließen kann, werden die Gelenkwinkelkommandos an den physischen Roboter gesendet.
Die Ergebnisse zeigen, dass der Roboter in der Lage ist, sich an eine anspruchsvollere Aufgabe als zuvor anzupassen, indem er seine Strategie selbstständig verbessert. Dieser Ansatz eliminiert die Notwendigkeit einer wiederholten Umprogrammierung des Roboters, wenn sich die Umgebung ändert, und erhöht somit die Anpassungsfähigkeit des Roboters.
To Another Language
from source content
arxiv.org
สอบถามเพิ่มเติม