Khái niệm cốt lõi
차량 주행 중 수집된 제한적인 관찰 관점으로 인해 기존 방법들은 훈련 관점에서 벗어난 장면 합성 시 심각한 왜곡이 발생하는 문제가 있다. 본 연구는 확산 모델의 사전 지식을 활용하여 3D 가우시안 스플래팅 모델의 성능을 향상시킴으로써 이 문제를 해결한다.
Tóm tắt
본 연구는 자율주행 시뮬레이션을 위한 거리 장면 합성 문제를 다룬다. 기존 방법들은 차량에 장착된 고정 카메라로 수집된 제한적인 관찰 관점으로 인해 훈련 관점에서 벗어난 장면 합성 시 심각한 왜곡이 발생하는 문제가 있다.
이를 해결하기 위해 본 연구는 다음과 같은 접근법을 제안한다:
- 자율주행 데이터셋을 활용하여 확산 모델을 미세 조정한다. 이때 인접 프레임의 이미지와 LiDAR 포인트 클라우드의 깊이 정보를 활용한다.
- 미세 조정된 확산 모델의 사전 지식을 활용하여 3D 가우시안 스플래팅 모델의 훈련을 정규화한다. 이를 통해 훈련 관점에서 벗어난 장면에 대한 합성 성능을 향상시킨다.
실험 결과, 제안 방법은 기존 최신 방법들에 비해 훈련 관점에서 벗어난 장면에 대한 합성 품질을 크게 개선하였다. 또한 실시간 추론 능력을 유지하면서도 자율주행 시뮬레이션에 필요한 자유로운 관점 제어 기능을 제공한다.
Thống kê
차량 주행 중 수집된 제한적인 관찰 관점으로 인해 기존 방법들은 훈련 관점에서 벗어난 장면 합성 시 심각한 왜곡이 발생한다.
제안 방법은 확산 모델의 사전 지식을 활용하여 3D 가우시안 스플래팅 모델의 성능을 향상시켰다.
실험 결과, 제안 방법은 기존 최신 방법들에 비해 훈련 관점에서 벗어난 장면에 대한 합성 품질을 크게 개선하였다.
Trích dẫn
"차량 주행 중 수집된 제한적인 관찰 관점으로 인해 기존 방법들은 훈련 관점에서 벗어난 장면 합성 시 심각한 왜곡이 발생한다."
"제안 방법은 확산 모델의 사전 지식을 활용하여 3D 가우시안 스플래팅 모델의 성능을 향상시켰다."