Concetti Chiave
大規模データセット蒸留において、従来手法では膨大な容量のソフトラベルが必要とされてきたが、クラス内サンプル多様性を向上させることで、ソフトラベルの必要容量を大幅に削減できる。
Sintesi
大規模データセット蒸留におけるソフトラベルの必要性
本論文は、大規模データセット蒸留における、従来手法で必要とされてきた膨大な容量のソフトラベルの必要性について考察し、その必要容量を大幅に削減する手法を提案しています。
ImageNetレベルの大規模データセット蒸留において、従来手法では、SRe2L[6]のように蒸留プロセスを、1) 教師モデルの学習 (squeeze phase)、2) 教師モデルと生徒モデルのBN統計量をマッチングさせて画像を合成 (recover phase)、3) 画像データ拡張とソフトラベル生成による教師データ作成 (relabel phase) の3段階に分割する手法が主流でした。
しかし、この手法では、relabel phaseで生成されるソフトラベルの容量が、蒸留後のデータセットの30倍以上に達してしまうという問題がありました。
本論文では、ソフトラベルの必要容量が膨大になる原因として、蒸留データセットのクラス内サンプル多様性の低さを指摘しています。
従来手法では、異なるクラスのサンプルをバッチノーマリゼーション (BN) マッチングに用いていたため、クラス内サンプルの類似性が高くなっていました。
そこで本論文では、クラス内のサンプルをバッチ化し、クラスごとに学習を行うことで、クラス内サンプルの多様性を向上させる手法を提案しています。