Alapfogalmak
提出一個基於視覺語言模型的自動駕駛助手系統,能夠根據對道路場景的理解調整駕駛行為,提高自動駕駛系統在複雜環境下的性能和安全性。
Kivonat
本文提出了一個名為VLM-Auto的自動駕駛助手系統,利用視覺語言模型(VLM)分析駕駛環境,並根據分析結果調整車輛的駕駛行為。
系統架構包括:
- VLM模塊接收來自車輛前置攝像頭的圖像輸入,並根據系統提示分析環境信息,如天氣、光照、路面狀況、地點等,並生成相應的控制和行為參數。
- 這些參數被映射到CARLA模擬器中的車輛代理行為,調整車輛的駕駛方式。
在CARLA模擬實驗中,VLM-Auto系統在5種標籤上達到了97.82%的平均精度。在真實世界的HawkDrive數據集上,在夜間和陰暗場景下達到了96.97%的預測準確率。
此外,本文還貢獻了一個包含221,228個圖像樣本和相應提示集的VLM-Auto數據集,為相關研究提供支持。
總的來說,VLM-Auto系統展示了視覺語言模型在增強自動駕駛系統的理解和適應能力方面的潛力,為未來的自動駕駛技術發展提供了有益的啟示。
Statisztikák
在CARLA模擬器的Town 04地圖上,VLM-Auto代理在霧天陰暗和雨天陰暗條件下的平均精度分別為97.47%和92.94%。
在HawkDrive真實世界數據集的夜間和低光場景中,VLM-Auto系統的平均預測準確率達到96.97%。
Idézetek
"VLM-Auto系統展示了視覺語言模型在增強自動駕駛系統的理解和適應能力方面的潛力,為未來的自動駕駛技術發展提供了有益的啟示。"
"在CARLA模擬實驗中,VLM-Auto系統在5種標籤上達到了97.82%的平均精度。在真實世界的HawkDrive數據集上,在夜間和陰暗場景下達到了96.97%的預測準確率。"