Core Concepts
個人に依存しない表現機能を使用して、高品質な3Dヘッドモデルをリアルなアニメーションパラメータに変換する新しい方法を提案します。
Abstract
この記事は、個人固有の表現機能を抽出し、それらを再帰的ニューラルネットワーク(LSTM)を使用してリアルなアニメーションパラメータに変換する方法に焦点を当てています。これにより、高品質な3Dヘッドアバターが異なる人物からも成功裏にアニメートされます。論文では、既存の手法と比較して提案手法の優位性が示されており、写実的で自然なアニメーション結果が得られることが強調されています。
Stats
2048次元の出力特徴量ベクトルを使用して、表情残差特徴量を計算しました。
ネットワークは32バッチごとに訓練され、8フレームの短いシーケンスで学習されました。
ネットワークはAdamオプティマイザーを使用して1.0e−4の学習率で15000回イテレーションで訓練されました。
Quotes
"私たちの方法は、異なる人物からでも高品質な3Dヘッドアバターを成功裏にアニメートすることができます。"
"提案手法は既存手法と比較して写実的かつ自然なアニメーション結果を示します。"