本文系統地研究了影響函數在大型語言模型(LLM)上的效用。實驗結果表明,影響函數在多數情況下表現不佳。作者進一步分析了其中的原因:
計算逆Hessian矩陣乘積(iHVP)時不可避免會產生近似誤差,隨著數據量和參數規模的增加,這種誤差會越來越大。即使增加迭代次數也無法完全消除這一問題。
微調過程中模型收斂狀態的不確定性,使得很難確定何時應該計算影響函數。模型參數的更新方向可能不再始終指向局部最小值,這進一步加劇了影響函數的不準確性。
影響函數的定義是基於參數變化,而不是模型行為的變化。對於複雜的神經網絡模型,尤其是LLM,參數的變化並不能準確反映模型行為的變化。這種定義本身的局限性可能是影響函數在LLM上表現不佳的根本原因。
作者的研究突出了應用影響函數於LLM的局限性,並呼籲研究社區開發新的方法來識別有影響力的訓練樣本。
翻譯成其他語言
從原文內容
arxiv.org
深入探究