Główne pojęcia
連続学習における過去の知識の忘却を軽減するために、暗黙的正則化と明示的正則化を組み合わせたアプローチを提案する。
Streszczenie
本論文は、深層学習モデルが連続学習を行う際に発生する「catastrophic forgetting」の問題に取り組んでいる。
具体的には以下の取り組みを行っている:
-
暗黙的正則化: 表現学習のための対比的表現学習(CRL)を補助タスクとして導入し、一般化可能な特徴を学習する。
-
明示的正則化: 分類器の出力空間を単位球面上に制限し、投影ヘッドの単位球面上の幾何構造と分類器の単位球面上の構造を整列させることで、弱い教師信号下での過剰適合を抑制する。
-
実験結果: 提案手法IMEX-Regは、既存の手法と比較して連続学習の性能を大幅に向上させ、自然および敵対的な攪乱に対するロバスト性も高いことを示している。また、タスクの最近性バイアスが小さく、よく較正された出力を生成することも確認されている。
Statystyki
連続学習の性能は、バッファサイズが小さい場合に大幅に低下する。
提案手法IMEX-Regは、バッファサイズが200の場合、Seq-CIFAR100で56.53%、Seq-TinyImageNetで31.41%の精度を達成し、既存手法を大きく上回る。
IMEX-Regは、PGD攻撃に対してより高いロバスト性を示す。
IMEX-Regは、自然攪乱に対してより高い精度を示す。
Cytaty
"連続学習(CL)は、深層ニューラルネットワークにとって長年の課題の1つであり、過去に獲得した知識の catastrophic forgetting が発生する問題がある。"
"人間は、変化する環境の中で知識を統合し、転移する驚くべき能力を持っているが、深層ニューラルネットワークはそのような良好な帰納バイアスを持っていない。"
"本研究では、暗黙的正則化と明示的正則化を組み合わせたIMEX-Regを提案し、低バッファ環境下での連続学習の一般化性能を大幅に向上させることができた。"