핵심 개념
大規模言語モデルを用いたコンテキスト学習(ICL)は、教師あり学習とは異なり、少数の例示データを入力に付加することで、モデルの出力を制御することができる。ICLはk-NNのようなノンパラメトリックなアプローチに似ており、入力インスタンスに最も近い例示データを利用して予測を行う。この特性から、ICLは情報検索の問題と強い類似性を持つことが分かる。
초록
本論文では、ICLの効果を高めるための3つの方法を提案している。
- 適応的ICL(AICL)
- 入力インスタンスごとに最適な例示データ数を動的に決定する
- 無監督のクエリパフォーマンス予測(QPP)手法や、教師あり学習による例示データ数の予測モデルを用いる
- 例示データの順位付け
- 例示データの有用性を考慮した順位付けモデルを学習する
- バイエンコーダやクロスエンコーダなどの情報検索の手法を応用する
- 多様な例示データの活用
- 例示データの多様性を考慮することで、言語モデルのバイアスを抑制する
- 情報検索の分野で研究されてきた多様性指向ランキングの手法を応用する
これらの提案は、情報検索の知見を活用してICLの性能を向上させることを目指している。初期的な評価実験の結果からも、提案手法が有効であることが示唆されている。
통계
適応的ICLを用いることで、静的なICLと比べて分類精度が向上した。
無監督のQPP手法を用いた適応的ICLも、教師あり学習による手法と同程度の性能を示した。
인용구
"ICLは、k-NNのようなノンパラメトリックなアプローチに似ており、入力インスタンスに最も近い例示データを利用して予測を行う。"
"ICLの効果を高めるためには、例示データの有用性を考慮した順位付けモデルの学習や、例示データの多様性の考慮が重要である。"