Core Concepts
リアルな継続学習シナリオにおいて、事前学習モデルを活用することで、新しい知識を統合しつつ過去の学習を保持することができる。
Abstract
本研究では、リアルな継続学習(RealCL)と呼ばれる新しい継続学習パラダイムを提案している。RealCLでは、タスク間のクラス分布が構造化されておらず、ランダムに変化する。従来の継続学習研究では、クラスが段階的に増加する理想化されたシナリオを想定していたが、RealCLはより現実的な状況を反映している。
提案手法のCLARE(Continual Learning Approach with pRE-trained models for RealCL scenarios)は、事前学習モデルを活用し、新しい知識を統合しつつ過去の学習を保持することができる。CLAREの主な特徴は以下の通り:
事前学習モデルのエンコーダと動的ニューラルアダプテーションネットワーク(Dyn-NAN)から構成される
Dyn-NANは、新しいクラスに柔軟に適応できる動的な構造を持つ
メモリモジュールを用いて、過去のタスクの情報を保持する
実験の結果、CLAREは従来の継続学習手法よりもRealCLシナリオにおいて優れた性能を示した。特に、平均タスク忘却率と平均グローバル忘却率が低く、過去の学習を効果的に保持できることが確認された。また、メモリサイズを大きくすることで、精度も向上することが分かった。
Stats
提案手法CLAREは、従来の継続学習手法と比べて、RealCLシナリオにおいて平均タスク忘却率が低い。
CLAREの平均グローバル忘却率も低く、過去の学習を効果的に保持できる。
メモリサイズを大きくすることで、CLAREの精度が向上する。