核心概念
적은 양의 학습 데이터로도 효과적인 3D 장면 분할을 수행할 수 있는 비모수 네트워크 기반의 접근법을 제안한다.
摘要
이 논문은 3D 장면 분할 문제에 대한 새로운 접근법을 제안한다. 기존의 3D 장면 분할 방법들은 대규모 데이터셋 기반의 사전 학습 과정이 필요했지만, 이로 인해 도메인 간 격차와 비효율적인 학습 과정이 발생했다.
이를 해결하기 위해 저자들은 비모수 네트워크인 Seg-NN을 제안한다. Seg-NN은 학습 없이도 효과적인 3D 특징을 추출할 수 있으며, 도메인 간 격차 문제를 완화할 수 있다. 또한 Seg-PN이라는 모수 기반 모델을 제안하여 성능을 더욱 향상시켰다. Seg-PN은 Seg-NN의 비모수 인코더를 활용하고, 추가적으로 QUEST 모듈을 통해 지원 집합과 질의 집합 간 상호작용을 학습한다.
실험 결과, Seg-NN은 기존 모델 대비 성능이 향상되었고, Seg-PN은 기존 최고 성능 대비 각각 S3DIS와 ScanNet 데이터셋에서 +4.19%, +7.71% 향상된 성능을 보였다. 또한 학습 시간이 기존 대비 90% 이상 단축되어 효율성이 크게 개선되었다.
统计
적은 양의 학습 데이터로도 기존 최고 성능 대비 S3DIS 데이터셋에서 +4.19%, ScanNet 데이터셋에서 +7.71% 향상된 성능을 달성했다.
학습 시간이 기존 대비 90% 이상 단축되었다.
引用
"To reduce the reliance on large-scale datasets, recent works in 3D segmentation resort to few-shot learning."
"Seg-NN extracts dense representations by hand-crafted filters and achieves comparable performance to existing parametric models."
"Seg-PN only requires training a lightweight QUEry-Support Transferring (QUEST) module, which enhances the interaction between the support set and query set."