Core Concepts
ニューラルフィールドを用いて、2Dカメラ画像からロボットの自己モデルを学習し、その自己モデルを動作計画に活用する。
Abstract
本研究では、ニューラルフィールドを用いてロボットの自己モデルを学習する手法を提案している。従来のアプローチでは、深度情報や幾何学的な知識が必要とされていたが、本手法では2Dカメラ画像のみから自己モデルを学習することができる。
具体的には、ロボットの関節角度を入力とし、ニューラルネットワークでロボットの形状を表現するダイナミックニューラルフィールドを学習する。関節角度の入力に着目し、各関節の寄与を段階的に学習するカリキュラム学習を導入することで、高自由度のロボットの自己モデルを効率的に学習できる。
学習した自己モデルは、逆運動学計算や、障害物回避を考慮した動作計画に活用できる。実験では、7自由度のロボットを対象に、自己モデルの精度を定量的に評価し、動作計画への応用を示している。
本手法は、深度情報を必要とせず、単一カメラからのみ自己モデルを学習できるため、実世界のロボットシステムにおいて有用であると考えられる。
Stats
ロボットの自己モデルと実際のロボットの形状の差は、ワークスペースの短辺長の1.94%以下である。
ロボットの表面積のIoUは0.496、凸包の体積のIoUは0.573である。