Core Concepts
ナイーブベイズ手法を用いて、大規模言語モデルのコンテキスト長を大幅に拡張し、in-context学習の性能を向上させる。
Abstract
本論文は、大規模言語モデル(LLM)のin-context学習能力を大幅に向上させる新しい手法「ナイーブベイズ・コンテキスト拡張(NBCE)」を提案している。
LLMのin-context学習では、モデルの最大コンテキスト長の制限により、多数の実例を活用することが困難であった。NBCEは、コンテキストを複数の等サイズのウィンドウに分割し、ナイーブベイズの投票メカニズムを用いて最も関連性の高いウィンドウを選択する。これにより、モデルのアーキテクチャや fine-tuningを必要とせずに、コンテキスト長を大幅に拡張できる。
実験の結果、NBCEは従来手法に比べて大幅な性能向上を示した。特に、実例数が増えるほど、その効果が顕著になることが確認された。また、モデルサイズが大きいほど、NBCEの優位性が高まることも明らかになった。
Stats
大規模言語モデルの最大コンテキスト長は2048トークンに制限されている。
提案手法NBCEにより、コンテキスト長を大幅に拡張できる。
NBCEは、モデルのアーキテクチャや fine-tuningを必要とせず、線形時間で処理可能。
Quotes
"LLMsのin-context学習能力は、トランスフォーマーアーキテクチャの長さ制限により制約を受けることが多い。"
"NBCEは、既存のLLMsがin-context学習を大幅に増やすことを可能にする新しいフレームワークである。"
"NBCEは、モデルアーキテクチャに依存せず、線形効率性を維持しながら、コンテキストサイズを大幅に拡張する。"