이 연구는 암시적 3D 표현과 의미 정보를 결합한 최근 연구인 Semantic-NeRF를 확장하여, RGB 출력 부분을 제거하고 의미 출력에만 집중하는 방법을 제안한다. 기존 Semantic-NeRF 모델의 훈련 절차를 수정하여 모델의 의미 출력과 ground truth 의미 이미지 간 교차 엔트로피 손실만을 사용하도록 하였다. 이를 통해 기존 Semantic-NeRF와 동일한 실험 조건에서 비교 실험을 수행하였다. 실험 결과, 의미 정보만을 이용해서도 장면 이해, 객체 탐지, 분할 등의 작업에서 유사한 성능을 보였다. 이는 의미 정보 중심의 3D 장면 이해에 대한 새로운 접근법을 제시한다.
เป็นภาษาอื่น
จากเนื้อหาต้นฉบับ
arxiv.org
ข้อมูลเชิงลึกที่สำคัญจาก
by Ruibo Wang,S... ที่ arxiv.org 03-26-2024
https://arxiv.org/pdf/2403.16043.pdfสอบถามเพิ่มเติม