核心概念
複数の異なる時間に撮影されたシーンの観察から、静的な背景とそれぞれの360度オブジェクトを高品質に再構築する。
摘要
本論文では、複数の異なる時間に撮影されたシーンから、静的な背景と複数の360度オブジェクトを高品質に再構築する手法を提案する。
まず、各シーンのカメラパラメータと3Dポイントクラウドを推定し、背景とオブジェクトを分割・整列する。次に、提案する「可視性フィールド」を用いて、各シーンの可視性を定量化し、可視性の高い部分を融合することで、クリーンな背景と360度オブジェクトの再構築を実現する。
具体的には以下の手順で進める:
- 各シーンの3Dポイントクラウドを抽出し、背景とオブジェクトを分割・整列する
- 各シーンの可視性フィールドを計算し、可視性の高い部分を融合して背景を再構築
- 各オブジェクトの可視性フィールドを融合して360度オブジェクトを再構築
提案手法は、合成データと実データの両方で評価を行い、クリーンな背景と360度オブジェクトの高品質な再構築を実現できることを示している。
统计
各シーンの撮影カメラの位置と姿勢は、SfMアルゴリズムを用いて推定した。
背景と各オブジェクトの相対的な位置姿勢は、点群の整列アルゴリズムを用いて推定した。
可視性フィールドは、各位置における可視カメラの割合として定義した。
引用
"我々の基本的なアイデアは、同じオブジェクトを様々な配置で観察することで、ある1つのシーンでは見えない部分が別のシーンで見えるようになるということです。各シーンの見えている部分を融合することで、背景とオブジェクトの遮蔽のない描画を実現できます。"
"提案する可視性フィールドは、3D位置に対する可視性を表す体積的な表現です。可視性フィールドを用いることで、各シーンの対応する部分の可視性を比較し、より高い可視性の部分を融合することができます。"