Core Concepts
新しいクラスの特徴を少しシフトすることで、古いクラスの特徴を記憶することができ、全体の認識精度を向上させる。
Abstract
本論文では、ビデオ クラス増分学習の問題に取り組むため、SNRO (Slightly Shift New Classes to Remember Old Classes)と呼ばれる新しい手法を提案している。
SNRO は主に2つの要素から構成される:
Examples Sparse (ES)
古いクラスの代表的なビデオから、より少ないフレーム数でメモリセットを構築する。
フレームの間引きと補間を行うことで、同じメモリ消費量でより多くの例を保存でき、モデルが忘れにくい低セマンティックな特徴に注目するようになる。
Early Break (EB)
各増分タスクの学習を早期に終了させる。
新しいクラスの高精度な学習を諦めることで、過度に新しいクラスの高セマンティックな特徴に依存するのを防ぐ。
実験の結果、SNRO は同じメモリ消費量の下で、従来手法よりも高い精度と低い忘却率を達成できることが示された。特に、UCF101、HMDB51、UESTC-MMEA-CL データセットでの評価で優れた性能を発揮した。
Stats
同じメモリ消費量(6MB)の下で、SNROはTCDよりも高い精度を達成した。
UCF101の5×10ステージでのCNN精度: SNRO 75.33% vs TCD 72.06%
HMDB51の5×5ステージでのCNN精度: SNRO 48.65% vs TCD 45.34%
UESTC-MMEA-CLの4×8ステージでのCNN精度: SNRO 82.38% vs TCD 78.23%
Quotes
"Examples Sparse firstly performs Sparse Extract on representative videos of old classes and saves those sparse frames, storing a larger memory set under the same memory consumption."
"Early Break is used to terminate training earlier during each incremental task, trying to give up the high performance for current new classes of the model which is usually accompanied by over-fit."