Core Concepts
本手法は、LiDARデータと動的物体の境界ボックスを入力として、静的背景とダイナミックな物体を個別にモデル化したニューラルフィールドを構築し、それらを効果的に統合することで、高精度な動的LiDARシーンの再現を実現する。
Abstract
本論文は、動的な運転シーンのLiDARスキャンを高精度に再現するための新しいニューラルフィールドベースのアプローチ「DyNFL」を提案している。
入力として、LiDARスキャンと動的物体の境界ボックスを受け取る。まず、シーンを静的背景とN個の動的物体に分解し、それぞれをニューラルフィールドでモデル化する。静的背景はSDF(符号付き距離関数)ベースのニューラルフィールドで表現し、動的物体はそれぞれ独自のニューラルフィールドで表現する。
次に、これらのニューラルフィールドを統合して、LiDARスキャンを再現する。ニューラルフィールド間の合成には、レイドロップテストを用いて、遮蔽や透明面を適切に処理する。これにより、物理的な正確性を保ちつつ、異なるシーンから再構築したアセットを柔軟に統合できる。
評価では、合成データと実世界データの両方で、提案手法が既存手法を大きく上回る性能を示している。特に動的物体の再現精度が高く、物体検出やセマンティックセグメンテーションの精度も優れている。さらに、物体の軌道操作や追加/削除など、柔軟なシーン編集が可能であることを示している。
Stats
LiDARの範囲推定誤差は、既存手法に比べて大幅に改善されている。
動的物体の範囲推定誤差の中央値は8.5 cm。
全体の範囲推定誤差の中央値は3.0 cm。
Quotes
"本手法は、物理的な正確性を保ちつつ、異なるシーンから再構築したアセットを柔軟に統合できる。"
"評価では、合成データと実世界データの両方で、提案手法が既存手法を大きく上回る性能を示している。"
"特に動的物体の再現精度が高く、物体検出やセマンティックセグメンテーションの精度も優れている。"