本論文では、大規模言語モデル(LLM)の複雑な論理推論能力を向上させるための新しいアプローチ「LogicPro」を提案している。
まず、LeetCodeのアルゴリズム問題とそのPythonコードソリューションを利用して、テストサンプル入力を構築する。次に、これらのテストサンプルと問題文に基づいて、複雑な論理推論問題を生成する。さらに、コードソリューションの中間変数の出力を活用して、推論プロセスと最終答えを導出する。
このアプローチにより、十分に難しく(全モデルが非効果的)、多様(2,360種類のアルゴリズム問題から合成)、かつスケーラブル(より多くのアルゴリズム問題を収集可能)なデータセットを構築できる。また、中間変数の値によって導かれる高品質な推論プロセスも得られる。
実験の結果、LogicProを使用することで、BBH27、GSM8K、HellSwag、Logicqa、Reclor、RTEデータセットにおいて、多くのモデルの性能が大幅に向上することが示された。これは、既存の推論データセットを大きく上回る成果である。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問