Core Concepts
高品質な表現を持つ比較的学習方法に焦点を当て、従来の連続設定での壊滅的忘却問題を回避するために、知識保存と Catastrophic Forgetting の効果的な対策を提案します。
Abstract
最近、高品質な表現が注目されていることから、リハーサルベースの比較的連続学習が提案されました。このフレームワークに基づいて、新しい戦略で以前のデータ分布を回復することで知識を保存する Contrastive Continual Learning via Importance Sampling(CCLIS)を提案しています。さらに、Prototype-instance Relation Distillation(PRD)損失も提案されており、これは自己蒸留プロセスを使用してプロトタイプとサンプル表現の関係を維持するための技術です。実験では、我々の手法がオンラインコンテキストで Catastrophic Forgetting に効果的に対抗し、既存のベースラインよりも知識保存性能が優れていることが示されています。
Stats
CCLIS(Ours)は他のベースラインよりも以下のデータセットで優れたパフォーマンスを発揮しています:
Seq-Cifar-10: 74.95±0.61% (Class-IL), 96.20±0.26% (Task-IL)
Seq-Cifar-100: 42.39±0.37% (Class-IL), 72.93±0.46% (Task-IL)
Seq-Tiny-ImageNet: 16.13±0.19% (Class-IL), 48.29±0.78% (Task-IL)
Quotes
"Based on this framework, we propose Contrastive Continual Learning via Importance Sampling (CCLIS) to preserve knowledge by recovering previous data distributions with a new strategy for Replay Buffer Selection."
"Our method notably outperforms existing baselines in terms of knowledge preservation and thereby effectively counteracts catastrophic forgetting in online contexts."