本論文は、大規模言語モデルを用いたコンテキスト学習(ICL)の挙動を詳細に分析したものである。主な知見は以下の通り:
多数のデモンストレーションを利用することで、多くのデータセットにおいて性能が大幅に向上する。例えば、1000個のデモンストレーションを利用することで、平均36.8ポイントの精度向上が見られた。
短いコンテキストでは、関連性の高いデモンストレーションを選択することが重要だが、コンテキストが長くなるにつれ、その重要性が低下する。ランダムに選択したデモンストレーションでも、ほぼ同等の性能が得られる。
パラメータ効率的ファインチューニング(PEFT)は、ICLよりもデータ量を多く必要とするが、十分なデータがある場合はPEFTの性能がICLを上回ることがある。
長いコンテキストでのICLは、短いコンテキストに比べ、入力の順序に対してより頑健である。一方で、同一ラベルのデモンストレーションをまとめて提示すると性能が大幅に低下する。
長いコンテキストでのICLの効果は、主に関連性の高いデモンストレーションを参照することによるものであり、デモンストレーションを一緒に学習することによる効果は限定的である。
Başka Bir Dile
kaynak içeriğinden
arxiv.org
Önemli Bilgiler Şuradan Elde Edildi
by Amanda Berts... : arxiv.org 05-02-2024
https://arxiv.org/pdf/2405.00200.pdfDaha Derin Sorular