未来の自律ロボットにおいて、視覚と空間認識は重要であり、マーカーレスなオブジェクトの掴み取りに焦点を当てたシステムが提案された。このシステムはMask R-CNNシーンセグメンテーションを使用し、物体の位置情報をマーカーに依存せずに把握することが可能。また、深度カメラからの空間情報と組み合わせて密なポイントクラウドを生成し、ジオメトリベースのグラスプランニングを行うことで効率的な掴み取りが可能と示唆された。実験では、動的に掴む空中プラットフォーム上での成功率が94.5%まで達成され、既存のモーションキャプチャシステムと同等以上の性能が確認された。
In un'altra lingua
dal contenuto originale
arxiv.org
Approfondimenti chiave tratti da
by Erik Bauer,B... alle arxiv.org 03-07-2024
https://arxiv.org/pdf/2211.13093.pdfDomande più approfondite