本論文では、テキストに基づいて3Dモデルのテクスチャを生成する手法「MatAtlas」を提案する。
まず、大規模なテキスト主導の画像生成モデル(Stable Diffusion)を利用して、3Dモデルのテクスチャを生成する。深度情報とエッジ情報を活用することで、生成されたテクスチャの一貫性と品質を向上させる。
次に、生成されたテクスチャを使って、データベースからマテリアルを検索・割り当てる。これにより、リライタブルで編集可能な3Dアセットを出力することができる。
具体的には以下の手順で処理を行う:
提案手法は、既存手法と比較して優れた性能を示し、リライタブルで編集可能な3Dアセットの生成を可能にする。
To Another Language
from source content
arxiv.org
Deeper Inquiries