본 연구는 사전 학습된 2D 확산 모델을 활용하여 장면 내 가려진 물체의 완전한 3D 재구성을 달성하는 새로운 프레임워크를 제안한다.
제안된 PU-Ray 방법은 신경 암시 표면 기반 레이 마칭을 통해 정확하고 안정적인 레이 깊이 예측을 달성하며, 다양한 도메인과 학습 시나리오에서 유연성을 보인다.
본 연구에서는 연합 학습 프레임워크인 Fed3DGS를 제안한다. Fed3DGS는 3D 가우시안 스플래팅(3DGS)을 기반으로 하며, 다수의 클라이언트가 협력하여 3D 장면을 재구성한다. 제안 방법은 모델 크기 측면에서 더 우수한 확장성을 보이며, 계절 변화에 따른 외관 변화를 효과적으로 모델링할 수 있다.
RING-NeRF는 연속적이고 무제한적인 다중 스케일 장면 표현과 디코더의 공간 및 스케일 불변성이라는 두 가지 귀납적 편향을 통해 다양한 과제에서 우수한 성능을 달성합니다.
제안된 포즈 잔차 필드(PoRF)와 엡폴라 기하학 손실을 통해 카메라 포즈와 신경 표면 재구성을 효과적으로 최적화할 수 있다.
제안된 3DFIRES 시스템은 단일 또는 소수의 입력 이미지로부터 전체 장면 기하학을 정확하게 재구성할 수 있다.