本論文は、スパースな入力画像から高品質な人物の3Dモデルを効率的に復元する新しい手法「MetaCap」を提案する。
メタラーニング段階では、多視点の人物動画から暗黙的な人物表現のパラメータを最適化する。この際、人体の関節構造と変形を考慮するため、人物テンプレートを用いて正準空間に変換する手法を提案する。
微調整段階では、スパースな入力画像に対してメタ学習したパラメータを初期値として用いることで、高品質な人物モデルを短時間で生成できる。さらに、オクルージョンを考慮したレンダリング手法を導入し、モノビューでの復元精度を向上させている。
定量的・定性的な評価から、提案手法が従来手法を大きく上回る性能を示すことを確認した。特に、衣服の変形を伴う複雑な人物モデルの復元において優れた結果を得られることが分かった。また、スタジオ環境だけでなく野外環境でも高い頑健性を発揮することを確認した。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問