SLCF-Net은 RGB 이미지와 희소 LiDAR 깊이 데이터를 순차적으로 융합하여 장면의 기하학적 구조와 의미론적 정보를 동시에 추정하는 새로운 접근 방식을 제안한다.
2D 이미지 특징을 3D 체적에 투영하기 위해 Gaussian-decay Depth-prior Projection (GDP) 모듈을 도입했다. 이 모듈은 깊이 정보를 활용하여 2D 특징을 3D 체적에 분산 투영한다.
또한 이전 프레임의 3D 의미론적 장면 표현을 현재 프레임으로 전파하여 시간적 일관성을 높였다. 이를 위해 센서 움직임을 보상하는 새로운 매핑 기법을 개발했다.
SLCF-Net은 SemanticKITTI 데이터셋에서 기존 접근 방식을 능가하는 성능을 보였다. 특히 모든 의미론적 클래스에서 최고 또는 차상위 수준의 정확도를 달성했다.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문