本論文は、画像スーパーレゾリューション(ISR)のための新しい知識蒸留フレームワークMTKD(Multi-Teacher Knowledge Distillation)を提案している。
まず、複数の高性能教師モデル(SwinIR、RCAN、EDSR)の出力を統合する新しいDCTSwin ベースのネットワークを開発した。これにより、教師モデルの知識を効果的に融合した高品質な高解像度画像表現を生成できる。
次に、この統合された高解像度表現を用いて、小規模な学生モデルの学習を行う新しい知識蒸留手法を提案した。具体的には、離散ウェーブレット変換に基づく損失関数を設計し、学生モデルに空間的・周波数的な情報を効果的に学習させている。
実験の結果、提案手法MTKD は、従来の知識蒸留手法と比較して最大0.46dBのPSNR向上を達成し、教師モデルを上回る性能を示した。また、DCTSwinブロックや離散ウェーブレット変換ベースの損失関数の有効性も確認された。
本手法は、複数の高性能教師モデルの知識を効果的に統合し、小規模な学生モデルの性能を大幅に向上させることができる新しい知識蒸留フレームワークである。
לשפה אחרת
מתוכן המקור
arxiv.org
תובנות מפתח מזוקקות מ:
by Yuxuan Jiang... ב- arxiv.org 04-16-2024
https://arxiv.org/pdf/2404.09571.pdfשאלות מעמיקות