本論文では、大規模言語モデル(LLM)の蒸留のための新しい損失関数「双方向ロジット差分(BiLD)損失」を提案している。
LLMのロジットは、ビジョンモデルに比べて長い裾野の分布を持ち、ノイズが多いことが分かった。また、LLMのテキスト生成では、ロジットの内部ランキング情報が重要であるが、従来の蒸留手法ではこれを十分に活用できていなかった。
BiLD損失は、ロジットの長い裾野のノイズをフィルタリングし、ロジットの内部ランキング情報を活用することで、LLMの蒸留性能を向上させる。具体的には、上位k個のロジットのみを使用し、教師モデルと学生モデルのロジットの差分を計算することで、KL divergenceを最小化する。
実験の結果、BiLD損失は13のNLPデータセットで最高の平均精度を達成し、他の蒸留手法を上回る性能を示した。また、ロジットレベルの分析から、BiLD損失は教師モデルの主要な振る舞いをよりよく模倣できることが分かった。
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문