이 논문은 3D 장면 분할 문제에 대한 새로운 접근법을 제안한다. 기존의 3D 장면 분할 방법들은 대규모 데이터셋 기반의 사전 학습 과정이 필요했지만, 이로 인해 도메인 간 격차와 비효율적인 학습 과정이 발생했다.
이를 해결하기 위해 저자들은 비모수 네트워크인 Seg-NN을 제안한다. Seg-NN은 학습 없이도 효과적인 3D 특징을 추출할 수 있으며, 도메인 간 격차 문제를 완화할 수 있다. 또한 Seg-PN이라는 모수 기반 모델을 제안하여 성능을 더욱 향상시켰다. Seg-PN은 Seg-NN의 비모수 인코더를 활용하고, 추가적으로 QUEST 모듈을 통해 지원 집합과 질의 집합 간 상호작용을 학습한다.
실험 결과, Seg-NN은 기존 모델 대비 성능이 향상되었고, Seg-PN은 기존 최고 성능 대비 각각 S3DIS와 ScanNet 데이터셋에서 +4.19%, +7.71% 향상된 성능을 보였다. 또한 학습 시간이 기존 대비 90% 이상 단축되어 효율성이 크게 개선되었다.
Til et annet språk
fra kildeinnhold
arxiv.org
Viktige innsikter hentet fra
by Xiangyang Zh... klokken arxiv.org 04-08-2024
https://arxiv.org/pdf/2404.04050.pdfDypere Spørsmål