核心概念
大型視覺語言模型 (LVLMs) 在處理複雜多模態資訊時,可能會產生幻覺 (hallucination),即生成與輸入資訊不符或不合理的輸出。VL-Uncertainty 是一種基於不確定性估計的新方法,旨在偵測 LVLMs 中的幻覺現象,並藉由分析模型對於語義相同但經過擾動的提示的預測差異,量化模型的不確定性,進而判斷模型是否產生幻覺。
論文資訊
Ruiyang Zhang, Hu Zhang, Zhedong Zheng. (2024). VL-Uncertainty: Detecting Hallucination in Large Vision-Language Model via Uncertainty Estimation. arXiv preprint arXiv:2411.11919v1.
研究目標
本研究旨在解決大型視覺語言模型 (LVLMs) 中日益嚴重的幻覺 (hallucination) 問題,提出一個名為 VL-Uncertainty 的新型框架,透過估計 LVLMs 的內在不確定性來偵測幻覺。
方法
VL-Uncertainty 的核心概念是利用語義等效擾動 (semantic-equivalent perturbation) 來評估 LVLMs 的不確定性。具體來說,研究團隊對視覺和文本提示進行語義等效擾動,並觀察模型對這些擾動提示的回應差異。
視覺擾動
研究團隊採用不同程度的高斯模糊來擾動原始圖像,模擬人類視覺系統在不同清晰度下感知圖像的過程。
文本擾動
研究團隊使用預先訓練的文本模型,在不改變原始問題語義的情況下,對其進行改寫,並透過調整模型溫度來控制擾動程度。
主要發現
實驗結果顯示,VL-Uncertainty 在四個基準測試集上,包含自由格式和多選題任務,皆顯著優於現有的幻覺偵測方法。
主要結論
VL-Uncertainty 是一個有效且具有擴展性的框架,能夠有效偵測 LVLMs 中的幻覺現象,並能應用於各種視覺語言任務。
貢獻
本研究的主要貢獻在於提出了一種基於不確定性估計的新方法 VL-Uncertainty,該方法無需額外模型或人工標註,即可有效偵測 LVLMs 中的幻覺現象,提升了 LVLMs 的安全性及可靠性。
局限與未來研究方向
儘管 VL-Uncertainty 在幻覺偵測方面取得了顯著成果,但仍存在一些局限性。例如,目前的研究僅關注視覺和文本模態,未來可以進一步探討如何將 VL-Uncertainty 應用於其他模態,例如音頻和影片。此外,未來研究可以探討如何將 VL-Uncertainty 整合到 LVLMs 的訓練過程中,以提升模型的魯棒性和可靠性。
統計資料
在 MM-Vet 基準測試中,VL-Uncertainty 在 InternVL2-8B 模型上提升了 10.09% 的準確率。
在 ScienceQA 基準測試中,VL-Uncertainty 在 InternVL2-26B 模型上達到了 92.02% 的幻覺偵測準確率。