Core Concepts
본 연구는 실제 LiDAR 스캔과 객체 경계 상자를 활용하여 동적 장면을 정확하게 재현하는 신경 필드 기반의 접근법을 제안한다. 제안 방법은 정적 배경과 동적 객체를 별도로 모델링하고, 이를 효과적으로 통합하여 물리적으로 정확한 LiDAR 스캔을 생성할 수 있다.
Abstract
본 연구는 동적 주행 장면의 LiDAR 스캔을 고품질로 재현하는 DyNFL이라는 새로운 신경 필드 기반 접근법을 제안한다.
입력으로는 실제 LiDAR 스캔과 동적 객체의 경계 상자가 주어진다. DyNFL은 이를 활용하여 장면을 정적 배경과 동적 객체로 분해하고, 각각에 대한 별도의 신경 필드를 구축한다. 정적 배경 필드는 SDF 기반의 표면 표현을 사용하여 정확한 기하학을 모델링하고, 동적 객체 필드는 객체의 움직임을 고려하여 재구성한다.
이렇게 구축된 다중 신경 필드는 물리적 LiDAR 센서 모델을 반영하여 정확한 거리, 강도, 레이 드롭 등을 예측할 수 있다. 또한 신경 필드 간 효과적인 합성 기법을 통해 다양한 장면 편집이 가능하다. 이를 통해 실제와 유사한 LiDAR 스캔을 생성할 수 있으며, 자율주행 분야의 다양한 응용에 활용될 수 있다.
실험 결과, DyNFL은 기존 방법 대비 LiDAR 스캔의 거리 및 강도 추정 정확도가 크게 향상되었으며, 객체 탐지 및 분할 등의 하위 작업에서도 높은 성능을 보였다. 또한 장면 편집 기능을 통해 동적 객체의 제거, 삽입, 궤적 조정 등이 가능하여 다양한 응용이 가능할 것으로 기대된다.
Stats
LiDAR 스캔의 거리 오차 중앙값은 3.0 cm로 매우 정확하다.
동적 객체의 거리 오차 중앙값은 8.5 cm로 우수한 성능을 보인다.
LiDAR 스캔의 강도 RMSE는 0.05로 매우 정밀하다.