Core Concepts
提案モデルは、視覚空間注意ネットワーク(SAP)と強化学習(RL)ポリシーを統合し、画像と固有感覚データに基づいて作業に関連する注意点を抽出し、ロボット動作を生成することで、様々な照明条件下でも高い成功率と短い作業時間を実現する。
Abstract
本研究では、建設現場での照明変化や壁表面状態の変化に対してロバストなペグインホール作業を実現するための視覚と固有感覚データ駆動のロボット制御モデルを提案している。
モデルの構成:
空間注意点ネットワーク(SAP)と深層強化学習(DRL)ポリシーを統合し、端末間で共同学習する。
SAPは画像から作業に関連する注意点を抽出し、DRLポリシーはその注意点と固有感覚データに基づいてロボット動作を生成する。
オフライン学習フレームワーク:
少ないデータ抽出と現実との乖離を最小限に抑えるため、事前にホールマップを作成し、それを用いてオフラインでモデルを学習する。
これにより、短時間での学習と現場への適用が可能となる。
評価結果:
提案モデルは、12の未知のホールに対して、16の異なる初期位置と3つの照明条件(うち2つは影が誤解を招く)で評価を行い、93.9%の成功率と8.21秒の作業時間を達成した。
これは、固有感覚データのみを入力とするベースラインモデルよりも高い成功率と短い作業時間を示している。
SAPは影の影響下でも画像の重要な領域を抽出できることが確認された。
Stats
提案モデルの成功率は93.9%であり、ベースラインモデルの87.4%よりも高い。
提案モデルの作業時間は8.21秒であり、ベースラインモデルの11.57秒よりも短い。