Core Concepts
ベースメッシュから単一の入力画像を使用して、シミュレーション対応の3Dウェアアセットを自動的に合成する新しい手法を提案する。
Abstract
本研究では、Garment3DGenと呼ばれる新しい手法を提案する。この手法は、ベースメッシュと単一の入力画像から、シミュレーション対応の3Dウェアアセットを自動的に生成する。
まず、最近の画像から3Dへの変換手法を活用して、入力画像から粗い3Dジオメトリを生成する。次に、このジオメトリを擬似的な正解データとして使用し、ベースメッシュを最適化することで、入力画像に忠実な3Dジオメトリを生成する。さらに、高品質なテクスチャマップを生成するモジュールを導入し、最終的な3Dウェアアセットを作成する。
提案手法の特徴は以下の通り:
入力画像から直接3Dウェアを生成できるため、ユーザーの手間を大幅に削減できる
実在する衣服だけでなく、AIで生成された架空の衣服も生成可能
生成された3Dウェアはシミュレーション対応で、物理シミュレーションやVRでの手-衣服インタラクションなどに活用できる
Stats
3Dジオメトリを生成するために、最近の画像から3Dへの変換手法を活用している。
生成された3Dジオメトリを擬似的な正解データとして使用し、ベースメッシュの最適化に活用している。
高品質なテクスチャマップを生成するモジュールを導入している。