Core Concepts
本手法は、360度動画から静的シーンを高品質に合成することができる。動的オブジェクトを効果的に除去し、遮蔽された領域を補完することで、詳細な静的構造を再現できる。
Abstract
本論文は、360度動画から静的シーンを高品質に合成する新しい手法「オムニディレクショナルローカル放射輝度フィールド(OmniLocalRF)」を提案している。
まず、ローカル放射輝度フィールド(LocalRF)の原理を拡張し、双方向の最適化手法を導入することで、遠隔フレームの情報を活用して動的オブジェクトを効果的に除去できるようにした。
次に、マルチ解像度のニューラルフィーチャープレーンを用いて動的オブジェクトのマスクを予測するモジュールを開発した。これにより、長尺の360度動画においても精度良く動的領域を分離できる。
提案手法は、既存手法と比較して定量的・定性的に優れた結果を示した。特に、手動のマスク作成や姿勢推定などの追加操作を必要としないため、効率的で実用的なソリューションとなっている。
Stats
360度動画から静的シーンを高品質に合成できる
動的オブジェクトを効果的に除去し、遮蔽領域を補完できる
長尺の360度動画に対応し、手動操作を必要としない