大規模言語モデル(LLM)は、検索ランキングにおいて優れた性能を発揮するものの、その計算コストの高さが実用上の課題となっています。本稿では、LLMのランキング能力をBERTのような軽量なモデルに転移させるための新たな蒸留手法「DisRanker」を提案します。
大規模言語モデル(LLM)の推論プロセスを問題分解と問題解決の2段階に分割し、分解部分をより小型のモデルに蒸留することで、推論コストを削減しながらも高い性能を維持できる。
本稿では、大規模言語モデルの指示追従能力を向上させるための新しい蒸留フレームワークTAPIRを提案する。TAPIRは、タスクアウェアなカリキュラムプランニングを用いることで、生徒モデルがバランスの取れたタスク能力と段階的に難度が上がる学習パスを獲得できるようになり、その結果、従来の手法よりも優れた性能を達成することを示した。
BiLD損失は、言語モデルのロジットの長い裾野のノイズをフィルタリングし、ロジットの内部ランキング情報を活用することで、大規模言語モデルの蒸留性能を向上させる。