Choi, Y. J., Yoo, M. K., & Park, Y. R. (2023). リハーサルメモリなしでタスク固有トークンを用いて、逐次学習の破滅的忘却を軽減する.
深層学習モデルは、新しいタスクを学習する際に、以前のタスクに関する知識を忘れてしまう「破滅的忘却」という問題を抱えている。本研究では、過去のデータ(リハーサルメモリ)を使用せずに、破滅的忘却を軽減する新しい逐次学習モデルを開発することを目的とする。
本研究では、Vision Transformer (ViT) のアーキテクチャと蒸留技術を組み合わせた新しい手法を提案する。各タスクに固有のトークンを割り当て、タスクに基づいて注意機構が異なる動作をするようにすることで、タスク固有の埋め込みを生成する。さらに、リハーサルメモリがない場合でも、以前のタスクから圧縮された情報を効率的に組み込むために、蒸留技術を最適化する。
提案手法を、CIFAR-100 データセットを用いたタスク逐次学習シナリオで評価した結果、既存の非リハーサルベースの手法と比較して、最高の精度と最低の忘却率を達成した。
本研究で提案する手法は、過去のデータを保存することなく、既存の知識を保持しながら新しい知識を効果的に統合することで、破滅的忘却の問題を軽減する。この手法は、タスク逐次学習シナリオにおいて、従来の非リハーサルメモリベースのモデルよりも優れた性能を発揮する。
本研究は、過去のデータの保存に伴うセキュリティ上の課題に対処しながら、効果的に逐次学習を行うための堅牢なソリューションを提供する。また、ViT モデルファミリー内で逐次学習の可能性を広げるものである。
本研究では、すべてのタスクトークンを用いた知識蒸留を行うため、タスクの増加に伴い計算コストが増加するという課題がある。今後の研究では、計算コストを削減する方法を検討する必要がある。また、本モデルはタスク逐次学習用に最適化されているが、クラス逐次学習モデルにも適用可能である。ただし、各タスクを効果的に区別するための損失項が含まれていないため、今後の研究課題となる。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問