本論文では、効率的なオンラインCL用のリハーサルポリシーGRASPを提案している。
GRASPは以下の特徴を持つ:
最初は最も典型的(簡単)なサンプルを選択し、徐々に典型性の低い(難しい)サンプルを選択する。これにより、DNNの性能を最大化しつつ、計算コストや記憶容量の追加オーバーヘッドを最小限に抑えることができる。
17種類のリハーサルポリシーと比較して、ImageNetでより高い精度を達成する。また、均等なサンプリングと比べて、同等の性能を40%少ない更新回数で達成できる。
5つのテキスト分類データセットでも有効であることを示した。
GRASPは、クラスの不均衡や長尾分布にも対応可能である。
GRASPは、畳み込みニューラルネットワークだけでなく、ビジョントランスフォーマーにも適用可能である。
GRASPは、リハーサルベースのCL手法(SIESTA、DERpp、GDumb、IDBR)に統合でき、これらの手法の性能を向上させることができる。
Para Outro Idioma
do conteúdo original
arxiv.org
Principais Insights Extraídos De
by Md Yousuf Ha... às arxiv.org 05-02-2024
https://arxiv.org/pdf/2308.13646.pdfPerguntas Mais Profundas