본 논문에서는 단일 이미지 3D 재구성 작업에서 발생하는 catastrophic forgetting 문제를 해결하기 위해 변형 분포 사전 확률과 saliency 맵 기반 경험 재생 방법을 결합한 새로운 지속 학습 프레임워크를 제안합니다.
고속 장면 캡처에 유용한 스파이크 카메라의 누적 오류 문제를 해결하기 위해, 스파이크 기반 이미지 재구성, 포즈 보정, 가우시안 스플래팅을 하나의 프레임워크로 통합하여 최적화하는 USP-Gaussian을 제안한다.
CAD-NeRF는 3D 장면의 새로운 뷰를 합성하기 위해 소수의 비보정 이미지에서 NeRF를 학습하는 방법으로, CAD 모델 검색을 통해 초기 형상 및 포즈를 활용하여 정확도를 높입니다.
MV2Cyl은 2D 멀티 뷰 이미지에서 3D 압출 실린더를 재구성하는 새로운 방법으로, 2D 컨볼루션 신경망을 활용하여 3D 정보를 추출하고, 이를 3D 필드로 통합하여 정확한 3D 모델을 생성합니다.
합성 3D 데이터만으로 학습된 LRM-Zero 모델은 실제 데이터로 학습된 모델과 비슷한 수준의 고품질 3D 복원 성능을 달성할 수 있다.
NoPoSplat이라는 새로운 방법은 포즈 정보 없이도 여러 각도에서 촬영된 이미지를 사용하여 3D 장면을 재구성할 수 있으며, 특히 이미지 간 겹침이 적은 경우에도 기존 방법보다 뛰어난 성능을 보입니다.
이 논문에서는 저조도 환경에서 드론 영상을 이용한 3D 재구성을 개선하기 위해, 버스트 이미지에서 특징을 추출하는 학습 기반 접근 방식인 LBurst를 제안합니다.
본 논문에서는 단일 뷰 이미지에서 고품질 3D 객체를 재구성하기 위해 가우시안 스플래팅(GS) 표현을 기반으로 하는 새로운 확산 모델 프레임워크인 GSD를 제안합니다. GSD는 GS 표현을 직접 모델링하여 3D 생성 사전 확률을 학습하고, 효율적이면서도 유연한 스플래팅 함수를 통해 입력 뷰에서 세밀한 특징을 추출하여 뷰 가이드 샘플링을 가능하게 합니다. 또한, 보조 2D 확산 모델을 활용하여 렌더링된 이미지의 품질을 더욱 향상시키고, 이를 통해 3D 재구성 품질을 향상시키는 반복적인 개선 프로세스를 제시합니다.
DUSt3R은 카메라 파라미터나 자세에 대한 사전 정보 없이 이미지에서 고품질의 3D 모델을 생성하는 새로운 딥러닝 기반 방법입니다.
E-3DGS는 단일 이벤트 카메라를 사용하여 고품질 3D 재구성을 달성하기 위해 모션 이벤트와 노출 이벤트를 모두 활용하는 새로운 방법입니다.