toplogo
Sign In

CEAT: Continual Expansion and Absorption Transformer for Non-Exemplar Class-Incremental Learning


Core Concepts
CEAT proposes a novel architecture for Non-Exemplar Class-Incremental Learning, addressing plasticity-stability dilemma and classifier bias.
Abstract
Abstract: Real-world applications require models to learn new tasks continuously without forgetting old knowledge. CEAT architecture extends expanded-fusion layers in parallel with frozen parameters to learn novel knowledge. Prototype contrastive loss reduces overlap between old and new classes in feature space. Introduction: Class Incremental Learning aims to recognize new classes without catastrophic forgetting. NECIL prohibits storing old images or using pre-trained models. Methodology: CEAT consists of continual expansion and absorption steps to maintain parameter number after each task. Batch interpolation pseudo-feature generation maintains decision boundaries of previous classes. Prototype contrastive loss enforces inter-class separation. Experiment: Tested on CIFAR100, TinyImageNet, ImageNet-Subset benchmarks. CEAT outperforms previous works with significant improvements in accuracy. Related Work: Previous methods store exemplars from previous tasks, while NECIL focuses on non-exemplar learning.
Stats
CEAT achieves 5.38%, 5.20%, and 4.92% improvement on CIFAR-100, TinyImageNet, and ImageNet-Subset benchmarks respectively.
Quotes
"Experience-Replay methods store a subset of the old images for joint training." "To address the classifier bias towards the new classes, we propose a novel approach to generate the pseudo-features."

Key Insights Distilled From

by Xinyuan Gao,... at arxiv.org 03-12-2024

https://arxiv.org/pdf/2403.06670.pdf
CEAT

Deeper Inquiries

How can CEAT's architecture be adapted for other types of incremental learning scenarios

CEATのアーキテクチャは、他の種類の増分学習シナリオに適応するために以下のように調整できます。まず、CEATのフレームワークを使用して新しいタスクやデータセットに適用する際に、既存のバックボーンを凍結して安定性を保ちつつ、拡張可能な層を追加して新しい知識を取り込むことが重要です。さらに、プロトタイプ対比損失(PCL)やバッチ内挿疑似特徴量(IPF)など、CEATが提供する追加機能を活用して古いクラスと新しいクラス間の重複を減らす方法も採用できます。

What are the potential limitations or drawbacks of CEAT's approach compared to traditional experience-replay methods

CEATアプローチと従来のエクスペリエンス・リプレイ手法と比較した際の潜在的な制限や欠点は次の通りです。 CEATでは古い画像サンプルを保存せず、それでも高性能な結果が得られる一方で、エクスペリエンス・リプレイ手法は古い画像サンプルを再生するため記憶容量が必要です。この点から見ると、CEATはメモリ効率面で優れています。 一方で、CEATではパラメータ拡張および吸収操作が行われるため計算コストがかかる場合もあります。また、「可塑性-安定性ジレンマ」と呼ばれる問題も発生しうることから注意が必要です。

How might the concept of continual expansion and absorption be applied in fields beyond machine learning

持続的拡大および吸収コンセプトは機械学習以外でも応用可能です。 例えば製造業では製品設計や品質管理段階で前回まで学んだ知識や技術情報を保持しながら新しい工程や材料情報等を取り入れて進化させることが考えられます。 医療分野では治験データ解析時に前回まで蓄積された臨床試験データから学んだ知見や予測モデル等を基盤としながら新規臨床試験結果等から得られた情報も柔軟かつ効率的に取り込む方法として利用され得ます。
0
visual_icon
generate_icon
translate_icon
scholar_search_icon
star