本論文では、TINYLLM と呼ばれる新しい知識蒸留手法を提案している。TINYLLM は以下の特徴を持つ:
単一の大規模言語モデルではなく、複数の大規模言語モデルから知識を蒸留する。これにより、知識の多様性を高めることができる。
単に正解ラベルを学習するだけでなく、各大規模言語モデルが生成する推論過程(rationale)も学習する。これにより、小型モデルの深い理解力を高めることができる。
in-context example generator と teacher-forcing Chain-of-Thought 戦略を導入し、生成された rationale が文脈に適合的で正確なものとなるよう工夫している。
実験の結果、TINYLLM は6つのデータセットと2つの推論タスクにおいて、従来手法と比べて大幅な性能向上を示した。特に、大規模モデルと比べても遜色ない性能を発揮しつつ、モデルサイズは1.1%から26.0%と大幅に小さくなっている。
Naar een andere taal
vanuit de broninhoud
arxiv.org
Belangrijkste Inzichten Gedestilleerd Uit
by Yijun Tian,Y... om arxiv.org 04-02-2024
https://arxiv.org/pdf/2402.04616.pdfDiepere vragen