核心概念
長文コンテキストを効率的に活用することで、開放ドメイン質問応答の性能を向上させることができる。
要約
本論文は、開放ドメイン質問応答(ODQA)タスクにおいて、長文コンテキストを効率的に活用する手法を提案している。
大規模言語モデルを用いたODQAタスクでは、モデルサイズや計算リソースの制約から、入力コンテキストの長さが制限されるという課題がある。
本手法では、小規模なエンコーダモデルとクロスアテンションメカニズムを用いることで、元のタスクモデルの計算コストを大きく増やすことなく、長文コンテキストを効果的にエンコードできる。
実験の結果、本手法を用いることで、2つの保持データセット、4つの保持外データセット、2つのIn-Context Learning設定において、ベースラインを上回る性能が得られることが示された。
また、計算リソースの要件はベースラインと同程度に抑えられ、実行時間も競争力のある水準を維持できることが確認された。
統計
元の言語モデルは最大2,048トークンまでしか入力を処理できないが、提案手法では最大10,000トークンまで処理可能
提案手法を用いることで、ベースラインと比べて、TriviaQAデータセットの開発セットで2.5ポイント、テストセットで2ポイントの精度向上が得られた
提案手法を用いることで、NQデータセットの開発セットで0.4ポイント、テストセットで1.1ポイントの精度向上が得られた
引用
"大規模言語モデルを用いたODQAタスクでは、モデルサイズや計算リソースの制約から、入力コンテキストの長さが制限されるという課題がある。"
"本手法では、小規模なエンコーダモデルとクロスアテンションメカニズムを用いることで、元のタスクモデルの計算コストを大きく増やすことなく、長文コンテキストを効果的にエンコードできる。"
"実験の結果、本手法を用いることで、2つの保持データセット、4つの保持外データセット、2つのIn-Context Learning設定において、ベースラインを上回る性能が得られることが示された。"