本論文は、大規模言語モデルの文脈学習(ICL)の性能向上メカニズムを分析している。具体的には以下の3つの要因に分解して検討している:
実験の結果、ICLの性能向上の大部分はラベルスペースとラベル形式の調整によるものであり、弁別力への寄与は限定的で不安定であることが示された。
また、ICLは詳細な教示と同様の役割を果たしており、ラベルスペースとラベル形式を暗黙的に指定していることが明らかになった。
さらに、誤ったラベルを含む文脈でも、ラベルスペースとラベル形式の調整能力は維持されることが確認された。
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Quanyu Long,... at arxiv.org 04-12-2024
https://arxiv.org/pdf/2404.07546.pdfDeeper Inquiries