本研究では、マルチビューRGBビデオから得られるテクスチャ情報を活用して、姿勢に応じた高品質な人物アバターを生成する手法を提案している。
まず、入力ビデオから各フレームの姿勢に合わせてテクスチャマップを生成する。次に、姿勢と対応するテクスチャマップのペアを構築し、ボディパーツごとにキーとなる姿勢とテクスチャマップを抽出する。これにより、姿勢変化に伴う衣服のしわなどの動的な外観を効果的にモデル化できる。
最後に、姿勢情報とテクスチャ情報を統合して、ニューラルレンダリングネットワークを用いて、高品質な人物アバターを生成する。実験の結果、提案手法は既存手法と比べて、訓練姿勢および未知の姿勢に対して、より詳細で自然な動的外観を生成できることが示された。
Na inny język
z treści źródłowej
arxiv.org
Głębsze pytania