核心概念
以大型語言模型生成的數據微調小型語言模型,可能會導致知識錯配,並增加小型模型產生幻覺的可能性。
文獻資訊: Wee, P., & Baghdadi, R. (2024). Exploring the Knowledge Mismatch Hypothesis: Hallucination Propensity in Small Models Fine-tuned on Data from Larger Models. arXiv preprint arXiv:2411.00878v1.
研究目標: 本研究旨在驗證以大型語言模型生成的數據微調小型語言模型,是否會導致知識錯配,進而增加小型模型產生幻覺的可能性。
研究方法: 研究人員使用 LLaMA 7B 作為小型模型,LLaMA 13B 作為大型模型。他們使用 TriviaQA 數據集,並將其分為訓練集和測試集。研究人員使用參數效率微調技術,分別以小型模型和大型模型生成的數據微調小型模型。最後,他們比較兩個微調後的小型模型在未見過的測試集上的幻覺程度。
主要發現: 研究結果顯示,與以小型模型自身生成的數據微調的小型模型相比,以大型模型生成的數據微調的小型模型產生了更多的錯誤答案(平均增加 125%,中位數增加 107%)。
主要結論: 研究證實了知識錯配假說,即以大型語言模型生成的數據微調小型語言模型,可能會導致知識錯配,並增加小型模型產生幻覺的可能性。
研究意義: 本研究揭示了當前微調實踐中可能存在的一個問題,即知識錯配可能導致模型幻覺增加。這項研究強調了在微調過程中使用高質量數據的重要性,並為未來研究如何減輕知識錯配帶來的負面影響提供了方向。
研究限制與未來方向: 本研究僅在 LLaMA 模型的 7B 和 13B 變體上進行了測試,未來可以使用更多不同規模和架構的語言模型進行驗證。此外,TriviaQA 數據集本身可能存在一些錯誤或不完整之處,未來可以使用更乾淨、更完整的數據集進行實驗。
統計資料
以大型模型數據微調的小型模型,其錯誤答案數量平均增加了 125%,中位數增加了 107%。
以大型模型數據微調的小型模型,其「我不知道」的回答數量減少了。
以大型模型數據微調的小型模型,其正確答案數量有所增加。