本研究では、大規模言語モデル(LLM)の知識集約型タスクにおける幻覚問題に取り組むため、外部のグラフ知識を活用する手法を提案している。
まず、LLMをグラフと連携させるための基準となるベンチマークデータセット「GRBENCH」を構築した。GRBENCHには10個のドメイン固有のグラフが含まれ、それぞれのグラフに関連する1,740の質問-答えのペアが用意されている。
次に、提案手法の「Graph Chain-of-Thought (GRAPH-COT)」を紹介する。GRAPH-COTは、LLMがグラフ上で段階的に推論を行うことで、必要な情報を効率的に引き出す仕組みである。各反復では、(1)LLMによる推論、(2)LLMとグラフの対話、(3)グラフの実行、の3つのステップを踏む。
実験の結果、GRAPH-COTは既存の手法と比べて一貫して優れた性能を示した。特に、単純なテキスト検索ベースの手法よりも、グラフ構造を活用することで高い精度が得られることが分かった。一方で、難易度の高い質問に対する正答率は依然として低く、LLMのグラフ理解能力の向上が課題として残されている。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問