WildFusion 是一种多模态隐式三维场景重建框架,它融合了 LiDAR、RGB 相机、麦克风和触觉传感器等多种传感器数据。通过利用隐式神经网络表示,该模型可以从稀疏的输入数据中生成连续的三维场景表示,包括几何、语义、可遍历性、颜色等特征。
实验结果表明,WildFusion 在几何、语义、颜色和置信度预测方面都取得了较高的准确性,尤其在之前访问过的场景中表现出色。在未访问过的场景中,模型也能够较好地推广,提供有意义的预测。
此外,WildFusion 还可以用于下游的运动规划任务。通过将语义标签和距离信息融合到可遍历性预测中,模型能够为四足机器人导航提供连续的可遍历性评分,帮助机器人在复杂的森林环境中安全高效地行走。与基于高程图或语义的基准方法相比,WildFusion 的性能更优,能够更好地识别不同地形的可遍历性。
总的来说,WildFusion 展示了利用多模态传感器融合构建隐式三维场景表示的潜力,为机器人导航和三维建图等任务提供了更加丰富和鲁棒的环境理解。未来的工作可以进一步扩展传感模态,并探索如何在边缘设备上实现实时计算。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問