Luo, J., Chen, D., & Zhang, Q. (2024). Reinforcement Learning with Euclidean Data Augmentation for State-Based Continuous Control. Advances in Neural Information Processing Systems, 38.
本研究は、状態ベースの連続制御タスクにおける強化学習(RL)のデータ効率と漸近性能を向上させることを目的とする。
本研究では、ユークリッド対称性に基づく新しいデータ拡張手法を提案する。具体的には、ロボットの四肢の構成と速度を含む、四肢ベースの状態表現を採用する。この表現は、回転や並進などのユークリッド変換に対して不変であるため、データ拡張に適している。
提案手法をDeepMind Control Suiteの様々なタスクで評価した結果、従来のデータ拡張手法や標準的なRLアルゴリズムと比較して、データ効率と漸近性能が大幅に向上することが確認された。特に、自由度が高く、従来手法では学習が困難であったタスクにおいて、顕著な改善が見られた。
本研究は、ユークリッドデータ拡張が状態ベースの連続制御におけるRLのデータ効率と性能を向上させるための効果的な手法であることを示した。
本研究は、ロボット工学やその他の連続制御アプリケーションにおけるRLの適用範囲を広げる可能性を秘めている。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問