מושגי ליבה
事前学習された全精度モデルをターゲットの長尾分布データにキャリブレーションすることで、効率的なバイナリーネットワークを学習する。さらに、アドバーサリアルな損失関数のバランシングと効率的な多解像度入力の活用により、様々な長尾分布データに対して汎化性能を向上させる。
תקציר
本論文では、計算効率の高いバイナリーネットワークを用いて長尾分布認識を行う手法を提案している。具体的には以下の3つの主要な貢献がある。
-
事前学習された全精度モデルをターゲットの長尾分布データにキャリブレーションすることで、バイナリーネットワークの学習に活用する「Calibrate and Distill」フレームワークを提案した。これにより、事前学習モデルの知識を効果的に活用できる。
-
特徴量蒸留損失関数とKL divergence損失関数のバランスをアドバーサリアルに学習する手法を提案した。これにより、データ分布に依存せずに適切なバランスを見出すことができる。
-
効率的な多解像度入力の活用方法を提案した。教師モデルのみに多解像度入力を与えることで、計算コストの増加を抑えつつ、多様な入力サイズに対する頑健性を高められる。
これらの提案手法を組み合わせた「CANDLE」を、15種類の長尾分布データセットに適用し、従来手法と比較して大幅な精度向上を示した。特に、長尾クラスの精度が大きく改善されており、長尾分布認識に対する有効性が確認できる。
סטטיסטיקה
長尾分布データセットの平均クラス数は100クラス程度であり、主要クラスと比較して、マイナークラスの画像数は1/100程度と極端に少ない。
提案手法「CANDLE」は、従来手法と比較して、平均精度で少なくとも+14.33%の改善を示した。
「CANDLE」は、主要クラス、中間クラス、マイナークラスの精度をそれぞれ+10.57%、+26.17%、+22.65%改善した。
ציטוטים
"Deploying deep models in real-world scenarios entails a number of challenges, including computational efficiency and real-world (e.g., long-tailed) data distributions."
"To better generalize to various datasets, we further propose a novel adversarial balancing among the terms in the objective function and an efficient multiresolution learning scheme."
"We conducted the largest empirical study in the literature using 15 datasets, including newly derived long-tailed datasets from existing balanced datasets, and show that our proposed method outperforms prior art by large margins (> 14.33% on average)."