本論文は、シーンフローを連続的な時空間における部分微分方程式(PDE)として定式化する新しいアプローチ「Scene Flow via PDE」を提案している。従来のシーンフロー手法は、2つの時間フレーム間の点ごとの3D運動ベクトルを推定するのに対し、本手法は観測シーケンス全体を通じた連続的な位置変化を記述するPDEを推定する。
具体的には、未知の真のPDE ∂L*/∂tを、ニューラルネットワークによる柔軟な表現で近似し、複数の自己教師あり学習目的関数に対して最適化することで、高品質なシーンフロー推定を実現する。提案手法「EulerFlow」は、この定式化に基づき、Argoverse 2 2024 Scene Flow Challengeにおいて、教師あり・教師なしの既存手法を大きく上回る性能を示した。
特に、小さく高速に移動するオブジェクトの運動を精度良く捉えられることが特徴で、従来手法では捉えられなかった鳥の飛行などのシーンを正確に推定できる。また、単純なオイラー積分を用いることで、3Dポイントトラッキングの自然な振る舞いも観察された。
本手法の柔軟性と汎用性は、自動運転シーンだけでなく、ダイナミックなテーブルトップ環境でも良好な性能を発揮することが示された。シーンフローの連続的な時空間モデリングは、動的な世界理解の強力なプリミティブとなる可能性を秘めている。
翻译成其他语言
从原文生成
arxiv.org
更深入的查询