Core Concepts
柔軟でスケーラブル、適応性のあるマルチモーダル条件付き顔合成を実現するための新しいアプローチを紹介します。
Abstract
著者: Jingjing Ren, Cheng Xu, Haoyu Chen, Xinran Qin, Lei Zhu
所属機関: 香港科技大学(広州)、香港理工大学スマートヘルスセンター、中山大学深圳キャンパスサイバーサイエンス・テクノロジー学部
抽象: マルチモーダル条件付き顔合成の進歩により、視覚的に魅力的で正確に整列した顔画像の作成が可能となりました。
方法: ユニモーダルトレーニングアプローチとエントロピー感知型モダリティ適応調節を組み合わせて、柔軟でスケラブルかつ適応性のあるマルチモーダル条件付き顔合成をサポートします。
Various Uni-modal Synthesis:
低解像度、スケッチ、ライティング、表情、ポーズなどの異なる単一モード合成が可能。
Mask & Lighting Synthesis:
マスクとライティングを組み合わせたシンセシスが可能。
Pose & Text Synthesis:
ポーズとテキストを組み合わせたシンセシスが可能。
Sketch & Expression Synthesis:
スケッチと表情を組み合わせたシンセシスが可能。
Uni-modal Training with Modal Surrogates:
各モダリティに対する特定の特徴量を持つモダリティサロゲートを使用して柔軟かつ拡張可能なマルチモーダル顔合成フレームワークを導入。
Stats
単一サンプリングプロセス内で多様な顔合成タスクを実現する方法。
Quotes
"我々の手法は高品質な顔画像生成能力を示し、多様な条件下で高い信頼性で動作します。"
"Uni-modalトレーニングアプローチとエントロピー感知型モダリティ適応調節は、優れた多様性と制御能力を提供します。"