Core Concepts
提案されたMULAN-WCは、複数のロボットによる協力的なNeRFフレームワークであり、無線信号ベースの調整を活用しています。このフレームワークは、位置情報の不確実性を考慮したNeRFトレーニングとアクティブな次の最適ビュー選択を組み合わせて、3D再構築を向上させます。
Abstract
MULAN-WCは、無線信号ベースのロボット間調整を使用したマルチロボット3D再構築手法です。
ロボット間相対姿勢推定やアクティブな画像取得に焦点を当てています。
無線Angle-of-Arrival(AoA)および距離測定を使用して相対姿勢を推定し、NeRFトレーニングプロセスに不確実性情報を統合します。
アクティブビュー選択では、位置不確実性も考慮に入れられます。
Introduction:
Vision-based 3D reconstruction is crucial in robotics applications.
Challenges in multi-robot systems include inter-robot pose estimation and active image acquisition.
Neural Radiance Fields (NeRF):
NeRF revolutionizes 3D reconstruction from sparse 2D images.
Accurate relative positional information in multi-robot systems is challenging.
Wireless Coordination:
Phased array-based wireless sensing provides inter-robot positional information.
Quantifying wireless localization uncertainty enhances NeRF training accuracy.
Uncertainty-aware Training:
Incorporating uncertainty measures into NeRF training improves rendering quality.
Weighting samples based on measurement noise leads to better combined rendering.
Active View Selection:
Active image acquisition maximizes information gain for NeRF.
Novel-view location sampling considers pose uncertainty for optimal data collection.
Results:
Synthetic and real-world experiments validate the effectiveness of the proposed framework.