본 논문에서는 단일 뷰 이미지에서 고품질 3D 객체를 재구성하기 위해 가우시안 스플래팅(GS) 표현을 기반으로 하는 새로운 확산 모델 프레임워크인 GSD를 제안합니다. 기존 연구들은 부적절한 3D 표현으로 인해 일관성 없는 3D 기하 구조 또는 평범한 렌더링 품질로 어려움을 겪었습니다. 본 연구에서는 최첨단 3D 명시적 표현인 가우시안 스플래팅과 무조건적 확산 모델을 활용하여 이러한 문제를 해결하고자 합니다.
GSD는 GS 타원체 집합으로 표현되는 3D 객체를 생성하도록 학습된 확산 모델입니다. 강력한 생성 3D 사전 확률을 통해 무조건적으로 학습되었음에도 불구하고, 확산 모델은 추가적인 모델 미세 조정 없이 뷰 가이드 재구성에 사용될 수 있습니다. 이는 효율적이면서도 유연한 스플래팅 함수와 가이드된 노이즈 제거 샘플링 프로세스를 통해 세밀한 2D 특징을 전파함으로써 달성됩니다. 또한, 2D 확산 모델을 추가로 사용하여 렌더링된 이미지의 품질을 향상시키고, 렌더링된 이미지를 수정하고 재사용하여 재구성된 GS 품질을 개선합니다. 최종 재구성된 객체는 고품질 3D 구조와 질감을 명시적으로 제공하며 임의의 뷰에서 효율적으로 렌더링할 수 있습니다.
까다로운 실제 CO3D 데이터 세트에 대한 실험 결과, 본 연구에서 제안한 접근 방식이 최첨단 기술보다 우수함을 보여줍니다. GSD는 유연하며 다중 뷰 이미지에서도 작동할 수 있습니다.
본 논문의 주요 기여는 다음과 같습니다.
본 논문에서는 가우시안 스플래팅을 기반으로 하는 확산 변환기를 사용하여 단일 이미지에서 생성적 실제 객체 재구성 접근 방식인 GSD를 제안했습니다. 뷰 가이드 샘플링을 통해 효율적인 세밀한 2D 특징 인식을 위해 스플래팅 함수를 활용했습니다. 제안된 방법은 범주별 재구성 작업에서 뛰어난 성능을 보여주었습니다. DiT와 세밀한 조건화 메커니즘 덕분에 GSD는 확장 가능성을 보여주었으며, 이는 일반 객체 재구성 작업에서 사실적인 성능을 달성하기 위한 길을 열어줄 수 있습니다.
Till ett annat språk
från källinnehåll
arxiv.org
Djupare frågor