核心概念
Proposing MoST, a novel motion style transformer that effectively disentangles style from content in action sequences, outperforming existing methods.
摘要
既存の動きスタイル転送方法は、同一コンテンツの2つの動き間で効果的ですが、異なるコンテンツの動き間でスタイルを転送する際に性能が低下します。この課題に対処するために、スタイルとコンテンツを効果的に分離し、ソース動きから転送されたスタイルを持つ妥当な動きを生成する新しいモーションスタイルトランスフォーマーを提案します。我々の手法は既存の手法よりも優れており、特に異なるコンテンツを持つ動きペアでは高品質であり、ヒューリスティックな事後処理は不要です。
統計資料
我々の手法は既存の手法よりも優れており、特に異なるコンテンツを持つ動きペアでは高品質である。
バッチサイズは8で300K回繰り返し学習されました。
学習率はE、G用にe−5、D用にe−6でした。
引述
"Our method outperforms existing methods and demonstrates exceptionally high quality, particularly in motion pairs with different contents, without the need for heuristic post-processing."
"Codes are available at https://github.com/Boeun-Kim/MoST."