Основные понятия
大規模モデルの知識を蒸留することで、小規模モデルは事前学習を行わずに同等以上の性能を達成できる。
Аннотация
本論文では、小規模モデルが事前学習を行わずに高性能を達成する方法を提案する。具体的には以下の手順を踏む。
- 大規模な事前学習済みモデル(ティーチャー)を利用する。
- ティーチャーの知識を蒸留することで、小規模モデル(スチューデント)の学習を効率化する。
- 蒸留の際、教師信号と合わせて、事前学習済み生成モデルから合成データを活用することで、データ不足を補う。
この方法により、小規模モデルは事前学習を行わずに、事前学習+微調整モデルと同等以上の性能を達成できる。さらに、事前学習の時間コストを大幅に削減できる。
Статистика
提案手法を用いることで、事前学習+微調整モデルと比べて最大94%の学習時間を削減できる。
合成データを活用することで、データ不足の問題を緩和できる。