Abstract
機械学習モデルは通常、静的データセットで訓練され、一度展開されると通常更新されません。しかし、時にモデルは間違いを comit し、トレーニングされていないドメインでは機能しないことがあります。これらの故障を克服するために、産業界では新しいデータを収集し、新旧のデータの両方を使用してモデルを再トレーニングすることが一般的です。完全なモデルの再トレーニングはコストがかかり、時間がかかります。このような場合、持続的学習の目標は、新しいデータが利用可能になったときにモデルが連続してトレーニングし、学ぶことを可能にすることです。
持続的学習方法によって特徴忘却や知識蓄積がどのように影響されるか調査されました。多くの研究では、表現(Davari et al. 2022; Zhang et al. 2022; Hu et al. 2022; Wang et al. 2023)への忘却耐性が観察されています。本稿では表現レベルでの学習および忘却ダイナミクスを注意深く再調査しました。
Stats
深層ニューラルネットワークは連続的なトレーニング中に表現で急速かつ劇的に情報を忘れる傾向がある。
モデルは新しいタスクごとに迅速かつ劇的に情報を忘れる。
アンサンブル基準は連続して学んだ最終的なモデルよりも大幅に良好な一般表現を提供する。
Quotes
"[...] in many commonly studied cases of catastrophic forgetting, the representations under naive fine-tuning approaches, undergo minimal forgetting, without losing critical task information" (Davari et al., 2022)
"there seems to be no catastrophic forgetting in terms of representations" (Zhang et al., 2022)
"common techniques for mitigating catastrophic forgetting [...] have little effect on improving [representations]" (Zhang et al., 2022)