핵심 개념
大規模言語モデルの論理推論能力を向上させるために、入力コンテキストから論理的表現を抽出し、拡張し、自然言語に翻訳して入力プロンプトに組み込む。
초록
本論文は、大規模言語モデル(LLM)の論理推論能力を向上させるための新しいプロンプティング手法「論理思考(LoT)」を提案している。
LoT は以下の3つのフェーズから構成される:
論理抽出フェーズ: LLMを使ってコンテキストから命題と論理関係を抽出する。
論理拡張フェーズ: 抽出した論理表現を論理推論ルールに基づいて拡張する。
論理翻訳フェーズ: 拡張された論理表現を自然言語に翻訳し、元のプロンプトに付加する。
LoTは既存のプロンプティング手法(Chain-of-Thought、Self-Consistency、Chain-of-Thought with Self-Consistency、Tree-of-Thoughts)と互換性があり、それらと組み合わせることで論理推論能力を大幅に向上させることができる。
実験の結果、LoTはさまざまな論理推論タスクにおいて、既存のプロンプティング手法の性能を大幅に向上させることが示された。例えば、ReClor データセットでは Chain-of-Thoughtの性能を+4.35%向上させ、LogiQAデータセットではChain-of-Thought with Self-Consistencyの性能を+5%向上させた。また、ProofWriterデータセットではTree-of-Thoughtsの性能を+8%向上させた。
통계
書籍には膨大な知識が含まれている。
人が本を読むと、その人は知識を得る。
人が知識を得れば、その人はより賢くなる。