Centrala begrepp
ロボットが新しい環境で物体を正確にセグメントするための革新的な方法を提案する。
Sammanfattning
ロボットが未知の環境で操作タスクを実行するためには、物体を正確にセグメントすることが重要です。従来のUOIS(Unseen Object Instance Segmentation)手法では、RGB/RGB-D特徴埋め込みを学習するために深層ニューラルネットワークをトレーニングしています。しかし、多くの手法は単一のRGB-D画像をセグメントしようとしており、視覚的特徴しか考慮されていません。これに対し、RISegはロボットとの相互作用と設計されたBody Frame-Invariant Feature(BFIF)を使用して不正確なセグメンテーションを修正します。この手法は、不確実性駆動型であり、最小限かつ非妨害的な相互作用でセグメンテーション精度を劇的に向上させます。提案されたインタラクティブパイプラインは複雑なシーンの物体セグメンテーション精度率が80.7%であり、他の最先端のUOIS手法と比較して28.2%向上しています。
Statistik
平均オブジェクトセグメンテーション精度率:80.7%
他の最先端UOIS手法と比較した増加率:28.2%
シーン内で平均2-3回のプッシュで達成したオブジェクトセグメンテーション精度率:80.7%
Citat
"We demonstrate the effectiveness of our proposed interactive perception pipeline in accurately segmenting cluttered scenes by achieving an average object segmentation accuracy rate of 80.7%, an increase of 28.2% when compared with other state-of-the-art UOIS methods."
"By introducing motion to regions of segmentation uncertainty, we are able to drastically improve segmentation accuracy in an uncertainty-driven manner with minimal, non-disruptive interactions (ca. 2-3 per scene)."