BlockFusionは、拡張可能で高品質な3Dシーンを生成するための拡散モデルベースのアプローチを提案する。潜在空間上の三平面の抽出と外挿を通じて、既存のシーンに調和的に新しいブロックを追加することができる。
多視点の擬似合成画像を入力とすることで、粗い3Dジェネレーション結果を短時間で高品質に改善することができる。
言語を使用して既存の3Dモデルのパラメータを制御し、訓練時に見られなかった新しい形状を生成することができる。
本手法は、3Dガウシアンスプラッティングを生成タスクに適応し、最適化時間を大幅に短縮しつつ、高品質な3Dメッシュを生成することができる。
メッシュデータから直接、正確なレイディアンスフィールドを生成する手法「Mesh2NeRF」を提案する。これにより、従来の手法で必要だった複数視点からの画像レンダリングを経由することなく、ニューラルレイディアンスフィールドの生成が可能になる。