Core Concepts
少量のデータから新しいクラスを学習しつつ、既存のクラスを忘れないようにするために、事前学習したビジョントランスフォーマーの高次統計量を較正する手法を提案する。
Abstract
本研究は、少量クラス増分学習(FSCIL)の問題に取り組んでいる。FSCIL では、モデルを新しいクラスに適応させる際に、非常に少ない学習サンプル(5個)しか利用できない。
既存のFSCILメソッドは、最初のタスクで良好な特徴抽出器を学習し、その後の少量クラスタスクでは特徴抽出器を固定して使用する。しかし、これらのメソッドは主に最初のタスクの学習方法に焦点を当てており、少量クラスのデータをどのように効果的にモデル化するかについては十分に検討されていない。
本研究では、ImageNet21kなどの大規模データセットで事前学習したビジョントランスフォーマーモデルを利用し、少量クラスの特徴分布を基底クラスの統計量を用いて較正することで、少量クラスの分類性能を大幅に向上させることを示している。具体的には以下の通り:
事前学習したビジョントランスフォーマーモデルを基底タスクに適応させ、その後の少量クラスタスクでは特徴抽出器を固定して使用する。
基底クラスの統計量(平均、共分散)を利用して、少量クラスの統計量を較正する手法を提案する。
較正した統計量を用いて、既存の高次統計量ベースの分類手法(FeCAM、RanPAC)の性能を大幅に向上させることができる。
提案手法は、CIFAR100、CUB-200、Stanford Cars、FGVC-Aircraftなどの各種ベンチマークデータセットで優れた性能を示す。
Stats
少量クラスの特徴分布は、基底クラスの特徴分布との類似性に基づいて較正することで、より良い推定が可能になる。
基底クラスの特徴共分散行列は、少量クラスの共分散行列の良い推定値となる。
Quotes
"少量のデータから新しいクラスを学習しつつ、既存のクラスを忘れないようにするために、事前学習したビジョントランスフォーマーの高次統計量を較正する手法を提案する。"
"基底クラスの統計量(平均、共分散)を利用して、少量クラスの統計量を較正する手法を提案する。"
"較正した統計量を用いて、既存の高次統計量ベースの分類手法(FeCAM、RanPAC)の性能を大幅に向上させることができる。"