核心概念
大型語言模型 (LLM) 可透過名為「漸進式修正」(PROCO) 的新型提示方法,在沒有外部回饋的情況下,進行自我修正並提高推理能力。
要約
大型語言模型在關鍵條件驗證下可實現自我修正
這篇研究論文介紹了一種名為「漸進式修正」(PROCO)的新型零樣本提示方法,用於解決複雜的推理任務。
探討大型語言模型 (LLM) 在沒有外部回饋的情況下,是否能夠自我修正並提高推理能力。
漸進式修正 (PROCO):
首先提示 LLM 生成初始答案。
接著迭代執行「驗證 - 修正」過程,逐步識別並修正可能錯誤的答案。
驗證階段: 使用「替代驗證」方法,透過遮蔽問題中的關鍵條件,並將生成的答案作為新條件,構建驗證問題,進而判斷答案的正確性。
修正階段: 根據驗證結果,將錯誤答案添加到「潛在錯誤答案集」中,並以此作為回饋,引導 LLM 修正先前的錯誤。