VLM-Auto는 자율주행 차량에 인간과 유사한 운전 행동을 제공하는 새로운 자율주행 보조 시스템입니다. 이 시스템은 CARLA 시뮬레이터와 ROS2를 활용하여 구현되었으며, 단일 Nvidia 4090 24G GPU로 전체 파이프라인을 처리할 수 있습니다.
VLM-Auto의 핵심은 Visual Language Model(VLM) 모듈입니다. 이 모듈은 자율주행 차량의 전방 카메라 이미지를 입력받아 환경 정보(날씨, 조명, 도로 상태, 지역 등)를 분석하고, 이를 바탕으로 차량 제어 및 운전 행동 매개변수(최대 속도, 최대 제동력, 최대 가속도 등)를 생성합니다. 이렇게 생성된 매개변수는 CARLA 시뮬레이터 내 자율주행 차량의 행동을 조정하는 데 사용됩니다.
CARLA 시뮬레이터 실험에서 VLM-Auto 시스템은 5가지 라벨에 대해 97.82%의 평균 정확도를 달성했습니다. 또한 실제 주행 데이터셋인 HawkDrive 데이터셋에서도 야간 및 흐린 환경에서 96.97%의 예측 정확도를 보였습니다. 이를 통해 VLM-Auto 시스템의 우수한 성능과 일반화 능력을 확인할 수 있었습니다.
Vers une autre langue
à partir du contenu source
arxiv.org
Questions plus approfondies