핵심 개념
大規模言語モデルは証拠文書から関連性の高い知識を効果的に選択することで、質問応答タスクの精度を大幅に向上させることができる。
초록
本研究では、大規模言語モデルの質問応答タスクにおける性能を向上させるために、KS-LLMと呼ばれる新しい手法を提案している。
具体的には以下の3つのステップから構成される:
- トリプル構築: 入力質問に基づいて構造化されたトリプルを生成する。
- 証拠文選択: 生成したトリプルと最も関連性の高い証拠文を証拠文書から選択する。
- 答案生成: 選択した証拠文とトリプルを入力として、大規模言語モデルが最終的な答案を生成する。
この手法により、大規模言語モデルは証拠文書から関連性の高い知識を効果的に抽出することができ、質問応答タスクの精度が大幅に向上する。
実験結果では、提案手法がTriviaQA-verified、WebQ、NQの3つのデータセットで最高の性能を達成している。
特に、Vicuna-13Bモデルを使用した場合、提案手法はベースラインと比較して最大8.14ポイントの精度向上を示している。
これらの結果は、提案手法が大規模言語モデルの質問応答性能を大幅に向上させることを示している。
통계
2000トークンの証拠文書を使用した場合、Vicuna-13Bモデルの正解率は37.66%に低下する。
300トークンの証拠文書を使用した場合、Vicuna-13Bモデルの正解率は52.69%に向上する。
인용구
"大規模言語モデルは知識集約的なタスクを処理する際に深刻な幻覚問題に悩まされている。"
"既存の手法は証拠文書の全内容を直接活用しているが、これにより雑音情報が導入され、大規模言語モデルのパフォーマンスが低下する可能性がある。"