核心概念
事前学習済みモデルを用いた継続的学習において、アダプターの増分微調整と過去クラスのプロトタイプのセマンティックシフト推定を組み合わせることで、パラメータ効率的に新規クラスの学習を行いつつ、既存クラスの性能を維持する。
摘要
本論文では、事前学習済みビジョントランスフォーマーモデルを用いた継続的学習について検討している。
まず、パラメータ効率的な微調整手法(PET)の中でも、アダプター微調整が他の手法(プロンプト、SSF)に比べて優れた継続学習性能を示すことを明らかにした。
そこで、アダプターを増分的に微調整し、過去クラスのプロトタイプのセマンティックシフトを推定することで、新規クラスの学習と既存クラスの性能維持のバランスを取る手法を提案した。
具体的には以下の通り:
- アダプターの増分微調整: 過去クラスの性能を制限せずにアダプターを微調整することで、新規クラスの学習能力を高める
- セマンティックシフト推定: 過去クラスのプロトタイプの分布変化を推定し、分類器の再学習に活用することで、既存クラスの性能を維持
提案手法は、5つのベンチマークデータセットにおいて、既存の継続学習手法を上回る性能を示した。特に、大きなドメインギャップのあるデータセットでの優位性が確認された。
统计
新規クラスの学習と既存クラスの性能維持のバランスが重要である。
アダプターの増分微調整は、パラメータ制限なしで新規クラスの学習能力を高められる。
過去クラスのプロトタイプのセマンティックシフトを推定し、分類器を再学習することで、既存クラスの性能を維持できる。