Core Concepts
Lightweight parameter-efficient adaptation and discriminative sample-aware loss function improve few-shot learning performance.
Abstract
この論文では、少数のラベル付き例を使用して新しいクラスを学習するクロスドメインフューショット分類に焦点を当てています。従来の方法にはいくつかの制限がありますが、本研究では2つの重要な改善点を導入しています。まず、小規模データセットで多数のパラメータを微調整することに伴う過学習に対処するため、軽量かつパラメータ効率の高い適応戦略を導入しています。この戦略は、事前トレーニングされた特徴量の線形変換を使用し、訓練可能なパラメータ数を大幅に削減します。第二に、伝統的な最近傍重心分類器を差し替えて、識別的サンプル感知損失関数を導入し、モデルがトレーニングセット内のクラス間およびクラス内分散に対する感度を向上させることで特徴空間でのクラスタリングを改善します。
Stats
TSA [19]はMeta-Datasetで平均精度が80.4%である。
DIPAは他の手法よりも3倍以上パラメータ効率が良い。
Quotes
"Empirical evaluations on the Meta-Dataset benchmark showcase that our approach not only improves accuracy up to 7.7% and 5.3% on seen and unseen datasets respectively but also achieves this performance while being at least ∼ 3× more parameter-efficient."
"Our approach forms well-separated clusters in the feature space, minimizing confusing centroids and thereby enhancing query classification accuracy."