Core Concepts
時空間ガウシアンを用いて動的シーンを表現し、ビュー依存の特徴を活用することで、高品質かつリアルタイムの動的ビュー合成を実現する。
Abstract
本論文は、動的シーンの高品質かつリアルタイムのビュー合成を実現するための新しい表現手法を提案している。
主な特徴は以下の通り:
時空間ガウシアン (Spacetime Gaussian)
3Dガウシアンに時間依存の不透明度と運動/回転の多項式パラメータを追加することで、静的、動的、および一時的なコンテンツを表現可能
時間依存の不透明度により、出現/消失するコンテンツをモデル化
多項式の運動/回転パラメータにより、複雑な動きを表現
スプラッティング特徴レンダリング
球面調和関数ではなく、ベースカラー、ビュー依存情報、時間依存情報をエンコードした特徴を使用
小規模なMLPネットワークを用いて最終的な色を生成
特徴ベースのアプローチにより、モデルサイズを小さく保ちつつ、ビューや時間依存の外観をモデル化
ガウシアンのガイド付きサンプリング
訓練誤差とコarse深度マップを利用して、疎なエリアにガウシアンをサンプリング
訓練中の収束が困難な遠方のエリアの品質を向上
実験では、既存手法と比較して、高解像度かつ高速なレンダリング品質を維持しつつ、コンパクトなモデルサイズを実現している。
Stats
8Kの動画を1秒間に66フレームでレンダリングできる
提案手法のモデルサイズは200MBと小さい
他手法と比較して、PSNRは32.05、DSSIMは0.014、LPIPSは0.044と高い品質を達成
Quotes
"時空間ガウシアンを用いて動的シーンを表現し、ビュー依存の特徴を活用することで、高品質かつリアルタイムの動的ビュー合成を実現する。"
"時間依存の不透明度により、出現/消失するコンテンツをモデル化し、多項式の運動/回転パラメータにより、複雑な動きを表現できる。"
"特徴ベースのアプローチにより、モデルサイズを小さく保ちつつ、ビューや時間依存の外観をモデル化できる。"