Conceitos Básicos
Hierarchical Diffusion Policy (HDP) combines high-level task planning with low-level control to achieve kinematics-aware multi-task robotic manipulation.
Resumo
論文では、Hierarchical Diffusion Policy(HDP)が、高レベルのタスクプランニングと低レベルの制御を組み合わせて、運動学に配慮したマルチタスクロボット操作を実現しています。HDPは、次の最適なエンドエフェクタポーズを予測する高レベルエージェントと、そのポーズに基づいて関節位置軌道を生成する低レベルエージェントで構成されています。RK-Diffuserは、正確ながら信頼性の低いエンドエフェクタポーズ軌道を関節位置軌道に変換し、異なる可能性を探ります。実験では、HDPがRLBenchの一連の難しい操作タスクで最先端のパフォーマンスを達成しています。
Estatísticas
HDPはRLBenchタスク全体で80.2%の成功率を達成しました。
RK-DiffuserはIKエラー率ゼロで94.55%の成功率を持っています。
Pose Diffusionは24.55%のIKエラー率と67.18%の成功率を示しました。
Joint DiffusionはIKエラー率ゼロで73.64%の成功率を持っています。
RKD-RGBはIKエラー率ゼロで72.18%の成功率を持っています。
Citações
"Empirically, we show that HDP achieves a significantly higher success rate than the state-of-the-art methods in both simulation and real-world."
"Hierarchical agents outperform simple low-level continuous control policies."
"Joint position diffusion is less accurate without the access to last joint position inpainting."