核心概念
単一入力画像と変形可能な3Dモデルを活用することで、写実的で操作可能な人物アバターを生成する。
摘要
本研究では、最新の多視点一貫性のある拡散モデルをベースに、3Dモーファブルモデルを統合することで、単一入力画像から写実的で操作可能な人物アバターを生成する手法を提案している。
具体的には以下の通り:
- 拡散モデルのベースラインに3Dモーファブルモデルを組み込むことで、生成画像の品質と一貫性を大幅に向上させている。
- 表情や姿勢の制御を可能にする新しい学習スキームを提案し、単一入力画像から多様な表情や姿勢の人物アバターを生成できるようにしている。
- 定量的・定性的な評価により、提案手法が既存手法を大きく上回ることを示している。
本手法は、単一画像から写実的で操作可能な人物アバターを生成する新しい方法論を提示しており、VR/AR、ゲーム、映画などの分野で大きな応用が期待できる。
統計資料
単一入力画像から多視点の一貫性のある人物画像を生成できる。
入力画像とは異なる表情や姿勢の人物アバターを生成できる。
提案手法は既存手法と比べて、SSIM、LPIPS、FID、PCK、Re-IDの各指標で優れた性能を示している。
引述
"単一入力画像と変形可能な3Dモデルを活用することで、写実的で操作可能な人物アバターを生成する。"
"提案手法は、単一画像から写実的で操作可能な人物アバターを生成する新しい方法論を提示しており、VR/AR、ゲーム、映画などの分野で大きな応用が期待できる。"