核心概念
従来のクラス間距離の最大化ではなく、クラス間距離の最小化が、少数ショットクラス逐次学習における表現学習の転移性と識別性の両方を向上させる。
摘要
少数ショットクラス逐次学習のためのより良い表現学習に向けて:CLOSER
この研究論文では、少数ショットクラス逐次学習(FSCIL)における表現学習の課題と、それを克服するための新しいアプローチについて論じられています。
深層学習モデルは、大量のデータと注釈を必要とするため、動的な現実世界のシナリオでは、新しい概念を学習しながら、以前に学習した概念を保持することが課題となります。この課題に対処するために、FSCILは、限られた数のサンプルから新しいクラスを学習しながら、以前に学習したクラスのパフォーマンスを維持することを目指しています。
従来のFSCIL手法では、ベースクラス(古いクラス)で学習した特徴抽出器を固定し、クラスプロトタイプを用いたノンパラメトリック分類器を採用することで、破滅的忘却と過剰適合の問題を回避してきました。しかし、このアプローチは、ベースクラスのソフトマックスクロスエントロピー(SCE)損失の最適化によって得られた表現に大きく依存しており、多くの場合、クラス内表現の崩壊と新しいクラスへの転移性の低下につながります。