核心概念
大型語言模型 (LLM) 在 In-Context Learning (ICL) 中容易出現捷徑學習現象,影響其泛化能力和穩健性。
論文資訊
Rui Song, Yingji Li, Fausto Giunchiglia, Hao Xu. (2024). Shortcut Learning in In-Context Learning: A Survey. arXiv:2411.02018v1
研究目標
本綜論旨在系統性地總結、討論和整合現有關於大型語言模型 (LLM) 中捷徑學習的研究,並讓社群意識到當前的進展。
方法
本綜論回顧並分類了 ICL 中不同類型的捷徑學習,探討了其成因,並介紹了現有的評估基準和緩解策略。
主要發現
LLM 在 ICL 中容易出現兩種捷徑學習:本能捷徑和習得捷徑。
本能捷徑源於 LLM 訓練過程中數據分佈和指令微調帶來的偏差。
習得捷徑源於 ICL 推理過程中,示範樣本中存在的非穩健模式。
現有評估基準多數基於現有數據集修改,少數針對特定捷徑類型設計。
緩解策略分為資料導向、模型導向和提示導向三類,各有優缺點。
主要結論
捷徑學習是 LLM 在 ICL 中面臨的重大挑戰,需要更多研究來理解其成因、設計更穩健的評估基準,並開發更有效的緩解策略。
研究意義
本綜論有助於研究者更全面地了解 LLM 中捷徑學習的現狀和挑戰,促進該領域的進一步發展。
局限與未來研究方向
需要更深入地探討本能捷徑和習得捷徑之間的相互影響。
需要設計更貼近真實應用場景的評估基準。
需要開發更有效且通用的捷徑學習緩解策略。
需要加強對捷徑學習的可解釋性研究,以更好地理解其內在機制。