Core Concepts
大規模部分ラベル付きデータストリームにおいて、制限された計算量下で効果的かつ効率的に学習する手法を提案する。
Abstract
本論文では、大規模な部分ラベル付きデータストリームにおいて、制限された計算量下で継続学習を行う新しい設定を提案する。従来の継続学習手法は、このような設定では大きな性能低下を示す。
提案手法DietCLは、ラベル付きデータとラベルなしデータを効果的に活用し、計算量を適切に配分することで、この課題に対処する。DietCLは、ImageNet10k、CLOC、CGLMなどの大規模データセットにおいて、従来手法を大幅に上回る性能を示す。
DietCLは、ラベル付きデータに対してはマスク付き分類損失を、ラベルなしデータに対してはMAEによる再構成損失を用いて学習する。さらに、過去のラベル付きデータをバッファに保持し、計算量の配分を適切に行うことで、現在の分布と過去の分布の両方を効果的に学習できる。
DietCLは、ラベル付き率、計算量、ストリームの長さなどの様々な設定において頑健な性能を示す。
Stats
1日あたり3.5億件の動画が投稿されるSnapchatのような大規模なデータストリームでは、10日間の学習では35億件の新しいデータが生成されてしまい、モデルが時代遅れになってしまう。
従来の継続学習手法は、このような制限された計算量下では大きな性能低下を示す。
Quotes
"Continual learning attempts to address such challenges, focusing on designing training algorithms that accommodate new data streams while preserving previously acquired knowledge."
"Nevertheless, the huge scale of data in most practical applications needs to be processed in real time. Such constraint imposes budget limitations on the continual learning algorithms."