Core Concepts
本研究では、単一の2Dアート画像から、表情や頭部の動きなどを制御可能な3Dアートアバターを生成する新しい手法を提案する。
Abstract
本研究では、単一の2Dアート画像から、表情や頭部の動き、肩の動きなどを制御可能な3Dアートアバターを生成する新しい手法を提案している。
まず、事前学習された条件付き2Dディフュージョンモデルを使用して、入力画像から複数視点の画像とノーマルマップを合成する。これらの情報を使って、SDF(符号付き距離関数)ベースの陰関数表現を最適化し、静的なアバターを生成する。
次に、アバターの前面画像を描画し、2Dランドマークを抽出する。これらのランドマークを3D空間に投影することで、中性表情時の3Dランドマーク{Ls,neut}を得る。人間の3Dランドマーク{Ld,neut}、{Ld,exp}との相対的な動きを転写することで、アバターの表情アニメーションを実現する。
ポーズアニメーションでは、ヘッドケージとトルソーケージを抽出し、これらを変形させることで、ヘッドとトルソーの動きを制御する。ケージ間の空間は、デローネー三角形分割に基づいて変形される。
提案手法は、様々なアート様式に適用可能な一回限りの最適化ベースの手法であり、高品質なアニメーション可能なアートアバターを生成できる。