本研究は、大規模言語モデルの論理的推論能力を向上させるために、論理的誤謬の理解に着目している。
まず、論理的誤謬の理解を評価するための5つの具体的なタスクを提案した。これらのタスクは、「何が」「なぜ」「どのように」の3つの認知的側面から構成されている。
次に、これらのタスクに基づいて、論理的誤謬理解データセット(LFUD)を構築した。LFUDは、12種類の論理的誤謬を含む4,020個のインスタンスから成る。
実験の結果、LFUDを用いてモデルを fine-tune することで、論理的推論タスクにおける性能が大幅に向上することが示された。特に、LFUDの各タスクや各論理的誤謬タイプが、モデルの論理的推論能力向上に寄与していることが明らかになった。
さらに、モデルの論理的誤謬理解能力を直接評価したところ、GPT-4が最も優れた性能を示した。一方、他のモデルは論理的に正しい文章を誤って論理的誤謬と判断する傾向があることが分かった。
以上より、本研究の提案手法は大規模言語モデルの論理的推論能力を大幅に向上させることができ、論理的誤謬の理解が重要な鍵となることが示された。
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Yanda Li,Dix... lúc arxiv.org 04-09-2024
https://arxiv.org/pdf/2404.04293.pdfYêu cầu sâu hơn