核心概念
本稿では、単一視点の画像から3Dオブジェクトやシーンを高速かつ高品質に生成する新しい単一ステージ3D拡散モデル、DiffusionGSを提案する。
摘要
DiffusionGS: 単一視点からの高速かつスケーラブルな単一ステージ画像から3Dへの生成のための、拡散デノイザーへのガウシアンスプラッティングの導入
Cai, Y., Zhang, H., Zhang, K., Liang, Y., Ren, M., Luan, F., ... & Yuille, A. (2024). Baking Gaussian Splatting into Diffusion Denoiser for Fast and Scalable Single-stage Image-to-3D Generation. arXiv preprint arXiv:2411.14384.
本研究は、単一視点の画像から高品質な3Dオブジェクトやシーンを高速に生成することを目的とする。既存の2段階手法の限界を克服し、3Dの一貫性を保証しながら、様々な視点からの入力に対応可能な、より効率的かつスケーラブルな手法を提案する。