Core Concepts
大規模言語モデルの長文理解能力を向上させるため、入力を管理可能な長さのチャンクに分割し、階層的にマージする手法を提案する。
Abstract
本論文は、大規模言語モデル(LLM)の長文理解能力を向上させる新しい手法「Hierarchical cOntext MERging (HOMER)」を提案している。
HOMER の主な特徴は以下の通り:
入力を管理可能な長さのチャンクに分割し、それらを階層的にマージする。これにより、LLMの自己注意機構が抱える計算量の問題を回避できる。
チャンクをマージする前に、トークン削減を行うことで、メモリ効率を高める。
下位層の埋め込みを段階的に圧縮する「伝播的精錬」を行うことで、効率的な埋め込みを生成する。
最適化された計算順序を採用することで、メモリ使用量をログスケールで抑えることができる。
実験の結果、HOMERは長文理解タスクにおいて大幅な性能向上を示し、メモリ効率も大幅に改善された。また、従来の位置エンコーディング拡張手法と組み合わせることで、さらなる性能向上が確認された。
Stats
入力長が32,000トークンの場合でも、パスキー検索の正解率が80.4%を達成した。
質問応答タスクでは、入力長を考慮しない場合と比べて3%の精度向上が見られた。
64,000トークンの長文に対するパープレキシティを低く維持できた。
Quotes
"大規模言語モデル(LLMs)は様々な自然言語処理タスクで顕著な性能を示してきたが、コンテキスト長の制限が主な制約となっている。"
"HOMERは、入力を管理可能な長さのチャンクに分割し、それらを階層的にマージすることで、自己注意機構の計算量の問題を回避する。"
"HOMERは、トークン削減とプロパゲーティブ精錬を組み合わせることで、効率的な埋め込みを生成する。"