本文提出了一個名為VLM-Auto的自動駕駛助手系統,利用視覺語言模型(VLM)分析駕駛環境,並根據分析結果調整車輛的駕駛行為。
系統架構包括:
在CARLA模擬實驗中,VLM-Auto系統在5種標籤上達到了97.82%的平均精度。在真實世界的HawkDrive數據集上,在夜間和陰暗場景下達到了96.97%的預測準確率。
此外,本文還貢獻了一個包含221,228個圖像樣本和相應提示集的VLM-Auto數據集,為相關研究提供支持。
總的來說,VLM-Auto系統展示了視覺語言模型在增強自動駕駛系統的理解和適應能力方面的潛力,為未來的自動駕駛技術發展提供了有益的啟示。
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Ziang Guo, A... lúc arxiv.org 10-01-2024
https://arxiv.org/pdf/2405.05885.pdfYêu cầu sâu hơn