이 논문은 고품질 가상 착용을 위한 Texture-Preserving Diffusion (TPD) 모델을 제안한다.
첫째, 제안된 Self-Attention-based Texture Transfer (SATT) 방법은 기존 접근법과 달리 옷 변형 없이 확산 모델의 기존 자기 주의 블록을 활용하여 옷감 질감을 효율적으로 전달한다. 이를 통해 복잡한 질감, 패턴, 자세 변화에도 높은 품질의 가상 착용 이미지를 생성할 수 있다.
둘째, Decoupled Mask Prediction (DMP) 방법은 사람 이미지와 참조 옷 이미지를 기반으로 정확한 마스크를 예측하여, 배경 및 신체 부위 정보를 최대한 보존할 수 있다. 이를 통해 합성 이미지의 높은 충실도를 달성한다.
제안 모델은 VITON, VITON-HD 데이터셋에서 기존 최신 방법들을 크게 능가하는 성능을 보였다.
Ke Bahasa Lain
dari konten sumber
arxiv.org
Wawasan Utama Disaring Dari
by Xu Yang,Chan... pada arxiv.org 04-02-2024
https://arxiv.org/pdf/2404.01089.pdfPertanyaan yang Lebih Dalam