大規模言語モデルは事前学習時に獲得した知識を活用し、少数の入出力例から新しい関数を学習することができる。この文脈学習の振る舞いは、ベイズ的推論の観点から理解できる。
大規模言語モデルの文脈学習では、注意層の活性化から抽出された圧縮ベクトルが学習された機能を表現できることが分かっている。本研究では、このベクトルの最適化と集約の手法を提案し、性能向上を実現する。
ベイズの定理に基づいた新しい文脈例示選択手法「ByCS」を提案し、音声、テキスト、視覚の各モダリティにおいて有効性と堅牢性を実証した。
大規模言語モデルは、わずかな例示を用いて文脈学習を行うことができ、これは自然言語処理の新しいパラダイムとなっている。本論文では、文脈学習の進展と課題を包括的に調査し、分析している。