本研究では、思考連鎖強化型知識書き換え(CoTKR)を提案している。CoTKRは、質問に関連する知識を段階的に要約することで、包括的で意味的に整合性のある知識表現を生成する。具体的には以下の2つの操作を交互に行う:
これにより、CoTKRは不要な情報を除外し、質問に関連する重要な知識を抽出することができる。さらに、質問の推論プロセスに沿った体系的な知識表現を生成する。
また、知識書き換え器とQAモデルの好みの差を埋めるため、質問応答のフィードバックを活用する「PAQAF」と呼ばれる学習フレームワークを提案している。PAQAFは、QAモデルの応答を評価して好みのペアを構築し、直接好み最適化を用いて知識書き換え器を最適化する。
実験の結果、CoTKRは既存の知識書き換え手法と比べて、QAモデルにとって最も有益な知識表現を生成できることが示された。これにより、大規模言語モデルの知識グラフ質問応答性能を大幅に向上させることができる。
Naar een andere taal
vanuit de broninhoud
arxiv.org
Belangrijkste Inzichten Gedestilleerd Uit
by Yike Wu, Yi ... om arxiv.org 10-01-2024
https://arxiv.org/pdf/2409.19753.pdfDiepere vragen