Core Concepts
본 연구는 단일 입력 이미지를 기반으로 시뮬레이션 준비 의상 자산을 합성하는 새로운 방법인 Garment3DGen을 소개한다. 제안된 접근법을 통해 사용자는 실제 및 합성 이미지에서 3D 텍스처 의상을 생성할 수 있으며, 생성된 자산은 인체에 직접 드레이프되고 시뮬레이션될 수 있다.
Abstract
본 연구는 단일 입력 이미지를 기반으로 시뮬레이션 준비 의상 자산을 생성하는 새로운 방법인 Garment3DGen을 소개한다.
첫째, 최근 이미지-3D 확산 방법의 발전을 활용하여 3D 의상 기하학을 생성한다. 그러나 이러한 기하학은 직접 사용할 수 없기 때문에, 이를 의사 ground-truth로 사용하고 기반 템플릿 메시를 변형하는 최적화 절차를 설정한다.
둘째, 입력 메시가 자유롭게 변형되어 원하는 대상을 따르면서도 메시 품질과 토폴로지를 유지할 수 있도록 하는 신중하게 설계된 손실 함수를 도입한다.
마지막으로, 고품질 텍스처 맵을 생성하는 텍스처 추정 모듈을 제안한다. 이를 통해 생성된 3D 자산을 렌더링할 수 있다.
Garment3DGen을 통해 사용자는 아티스트의 개입 없이도 원하는 의상의 3D 텍스처 자산을 생성할 수 있다. 사용자는 의상을 설명하는 텍스트 프롬프트를 제공하여 시뮬레이션 준비 3D 자산을 생성할 수 있다.
Stats
3D 의상 자산 생성을 위해 최근 이미지-3D 확산 모델의 발전을 활용한다.
기반 템플릿 메시를 변형하는 최적화 절차를 통해 메시 품질과 토폴로지를 유지한다.
고품질 텍스처 맵을 생성하는 텍스처 추정 모듈을 도입한다.