核心概念
文脈学習(ICL)は大規模言語モデルの性能向上に大きく寄与するが、その寄与要因は主に「ラベルスペースの調整」と「ラベル形式の調整」にあり、「弁別力」への寄与は限定的である。
摘要
本論文は、大規模言語モデルの文脈学習(ICL)の性能向上メカニズムを分析している。具体的には以下の3つの要因に分解して検討している:
- ラベルスペースの調整: ICLによりモデルの出力がラベルの定義済み集合に収まるようになる効果
- ラベル形式の調整: ICLによりモデルの出力がラベルの所定の表現形式に沿うようになる効果
- 弁別力: ICLによりモデルの課題解決能力が向上する効果
実験の結果、ICLの性能向上の大部分はラベルスペースとラベル形式の調整によるものであり、弁別力への寄与は限定的で不安定であることが示された。
また、ICLは詳細な教示と同様の役割を果たしており、ラベルスペースとラベル形式を暗黙的に指定していることが明らかになった。
さらに、誤ったラベルを含む文脈でも、ラベルスペースとラベル形式の調整能力は維持されることが確認された。
统计
文脈学習により、出力が定義済みラベルスペースに収まる割合が大幅に増加する。
文脈学習により、出力が所定のラベル形式に沿う割合が大幅に増加する。
文脈学習による弁別力の向上は限定的で不安定である。
引用
文脈学習は詳細な教示と同様の役割を果たし、ラベルスペースとラベル形式を暗黙的に指定している。
誤ったラベルを含む文脈でも、ラベルスペースとラベル形式の調整能力は維持される。