本文提出了一種新的場景流動估計方法,稱為"場景流動作為偏微分方程"(SFvPDE)。與傳統的場景流動方法不同,SFvPDE將場景流動定義為估計一個連續的時空偏微分方程,用於描述整個觀察序列的運動。
具體來說,SFvPDE使用一個神經網絡先驗來表示這個偏微分方程,並通過優化這個神經網絡先驗來實現高質量的場景流動估計。這種方法不需要任何監督信號,而是通過優化多個重建目標來實現自我監督。
作者提出了一個具體的實現方法,稱為EulerFlow。EulerFlow使用簡單的點雲距離目標,如Chamfer距離,並利用歐拉積分來估計偏微分方程。實驗結果表明,EulerFlow在Argoverse 2 2024場景流動挑戰賽和Waymo Open場景流動基準上都取得了最先進的性能,超越了所有之前的監督和無監督方法。
此外,EulerFlow展現了一些有趣的新能力,如能夠在沒有明確的長期監督的情況下,通過簡單的歐拉積分產生3D點跟蹤行為。這些結果表明,SFvPDE框架為場景流動估計開闢了一個新的研究方向。
翻譯成其他語言
從原文內容
arxiv.org
深入探究