核心概念
大型語言模型在面對包含無關或不正確推理步驟的思辨鏈提示時,表現出顯著的脆弱性,準確率大幅下降,突顯出開發更強大的去噪技術以提高其推理穩健性的必要性。
標題:當思辨鏈提示包含雜訊推理時,語言模型能否進行穩健推理?
作者:Zhanke Zhou, Rong Tao, Jianing Zhu, Yiwen Luo, Zengmao Wang, Bo Han
機構:香港浸會大學 TMLR 小組,武漢大學
會議:第 38 屆神經信息處理系統會議 (NeurIPS 2024)
本研究旨在探討大型語言模型 (LLM) 在思辨鏈提示中遇到雜訊推理時的穩健性,特別是當推理步驟包含無關或不正確的信息時,LLM 的推理能力是否會受到影響。