แนวคิดหลัก
TheoremLlama 框架透過生成 NL-FL 對齊數據集、採用區塊訓練和課程數據排序等訓練技術,並利用迭代證明編寫方法,成功將通用大型語言模型轉化為精通 Lean4 的定理證明專家。
研究目標
本研究旨在解決將自然語言證明轉換為可被計算機驗證的 Lean4 形式證明這一挑戰,並致力於提升大型語言模型在自動定理證明領域的性能。
方法
NL-FL 對齊數據生成: 從 Mathlib4 提取 Lean4 定理證明,利用 Gemini-1.5 模型生成對應的自然語言陳述和證明,並透過註釋將自然語言推理整合到 Lean4 代碼中,構建 Open Bootstrapped Theorems (OBT) 數據集。
Lean4 證明器訓練: 採用區塊訓練技術增強模型的上下文學習能力,並利用課程數據排序策略優化訓練過程,使用 OBT 數據集微調 Llama3-8B-Instruct 模型。
迭代證明編寫: 利用先前生成的正確證明作為上下文示例,迭代地增強模型的證明編寫能力。
主要發現
TheoremLlama 在 MiniF2F-Valid 和 MiniF2F-Test 數據集上分別取得了 36.48% 和 33.61% 的準確率,顯著優於 GPT-4 基線模型(25.41% 和 22.95%)。
消融實驗證明 NL-FL 引導、NL-FL bootstrap、區塊訓練和課程數據排序等組件對模型性能提升均有顯著貢獻。
案例分析表明,TheoremLlama 能夠有效地利用自然語言證明指導 Lean4 證明編寫,展現出較強的自動推理能力。
主要結論
TheoremLlama 框架提供了一種將通用大型語言模型轉化為精通 Lean4 的定理證明專家的有效方法,為自動定理證明領域的研究提供了新的思路。
意義
OBT 數據集的發布為自動定理證明領域的研究提供了寶貴的資源。
TheoremLlama 框架為解決自然語言與形式語言之間的鴻溝提供了新的方法,有望推動自動推理技術的發展。
局限與未來研究方向
模型在處理高難度數學問題時仍面臨挑戰,需進一步探索如何將人類證明中的深層數學洞察力融入模型中。
未來研究可探索強化學習方法,使模型能夠與 Lean 進行線上互動,並利用 Lean 的反饋進一步優化證明過程。
需關注自然語言引導的 Lean4 證明器可能自動修正自然語言錯誤的潛在風險,避免錯誤的自然語言證明在數學界傳播。
สถิติ
TheoremLlama 在 MiniF2F-Valid 數據集上達到了 36.48% 的準確率。
TheoremLlama 在 MiniF2F-Test 數據集上達到了 33.61% 的準確率。
GPT-4 在 MiniF2F-Valid 數據集上達到了 25.41% 的準確率。
GPT-4 在 MiniF2F-Test 數據集上達到了 22.95% 的準確率。
OBT 數據集包含 106,852 個 NL-FL 對齊和引導的定理。