核心概念
思考連鎖を活用して、関連知識を段階的に要約することで、質問に合わせた包括的で意味的に整合性のある知識表現を生成する。
摘要
本研究では、思考連鎖強化型知識書き換え(CoTKR)を提案している。CoTKRは、質問に関連する知識を段階的に要約することで、包括的で意味的に整合性のある知識表現を生成する。具体的には以下の2つの操作を交互に行う:
- 推論: 質問を分解し、生成された知識表現に基づいて必要な知識を特定する。
- 要約: 現在の推論ステップの出力に基づいて、検索された知識グラフから関連知識を要約する。
これにより、CoTKRは不要な情報を除外し、質問に関連する重要な知識を抽出することができる。さらに、質問の推論プロセスに沿った体系的な知識表現を生成する。
また、知識書き換え器とQAモデルの好みの差を埋めるため、質問応答のフィードバックを活用する「PAQAF」と呼ばれる学習フレームワークを提案している。PAQAFは、QAモデルの応答を評価して好みのペアを構築し、直接好み最適化を用いて知識書き換え器を最適化する。
実験の結果、CoTKRは既存の知識書き換え手法と比べて、QAモデルにとって最も有益な知識表現を生成できることが示された。これにより、大規模言語モデルの知識グラフ質問応答性能を大幅に向上させることができる。
统计
質問に関連する知識を段階的に要約することで、包括的で意味的に整合性のある知識表現を生成できる。
知識書き換え器とQAモデルの好みの差を埋めるため、質問応答のフィードバックを活用する学習フレームワークを提案している。
実験の結果、CoTKRは既存の手法と比べて、QAモデルにとって最も有益な知識表現を生成できることが示された。
引用
"思考連鎖を活用して、関連知識を段階的に要約することで、質問に合わせた包括的で意味的に整合性のある知識表現を生成する。"
"知識書き換え器とQAモデルの好みの差を埋めるため、質問応答のフィードバックを活用する学習フレームワークを提案している。"
"実験の結果、CoTKRは既存の手法と比べて、QAモデルにとって最も有益な知識表現を生成できることが示された。"