Core Concepts
本論文では、大量のタスクから構成される長尾分布のタスク系列に対する継続学習アルゴリズムの性能を調査する。また、最適化アルゴリズムの状態を活用することで、既存の継続学習アルゴリズムの性能を向上させる手法を提案する。
Abstract
本論文では、継続学習の重要な側面について取り上げている。継続学習とは、新しいタスクを学習しつつ、以前に獲得した知識を保持する能力のことである。
まず、既存の継続学習アルゴリズムは通常、少数のタスクで構成され、タスクサイズが均一であるため、現実世界の学習シナリオを正確に表現できていないことを指摘している。
そこで本論文では、大量のタスクから構成され、タスクサイズが長尾分布に従う継続学習タスク系列を設計し、既存アルゴリズムの性能を評価している。
さらに、最適化アルゴリズムの状態、特に2次モーメントに着目し、これを活用することで既存の継続学習アルゴリズムの性能を向上させる手法を提案している。
提案手法は、2次モーメントを過去のタスクから得られた加重平均で維持し、新しいタスクの学習に活用する。これにより、わずかな計算コストや記憶コストで、忘却を効果的に抑制できることを示している。
実験では、合成データセットと2つの実世界データセット(単語意味曖昧性解消、視覚的質問応答)を用いて提案手法の有効性を確認している。
Stats
タスクサイズが長尾分布に従う。
タスク数は1000個。