이 논문은 단일 이미지에서 객체의 자세, 모양 및 질감을 동시에 예측하는 UPNeRF라는 통합 프레임워크를 소개합니다. UPNeRF는 객체 차원 추정과 자세 정제를 분리하여 스케일-깊이 모호성을 해결하고, 일반화가 잘 되는 투영 박스 표현을 도입합니다.
UPNeRF는 객체 중심 NeRF 프레임워크에 부드럽게 통합되는 전용 자세 추정기를 사용하여 외부 3D 탐지기 없이도 작동합니다. UPNeRF는 nuScenes 데이터셋에서 재구성 및 자세 추정 작업 모두에서 최신 기술 수준 결과를 달성합니다. 또한 KITTI 및 Waymo 데이터셋에서 최대 50%의 회전 및 이동 오류 감소로 뛰어난 교차 데이터셋 일반화를 보여줍니다.
To Another Language
from source content
arxiv.org
ข้อมูลเชิงลึกที่สำคัญจาก
by Yuliang Guo,... ที่ arxiv.org 03-26-2024
https://arxiv.org/pdf/2403.15705.pdfสอบถามเพิ่มเติม