Der Artikel befasst sich mit dem Problem des exemplarfreien inkrementellen Lernens (EFCIL), bei dem neue Klassifikationsaufgaben schrittweise in bereits trainierte Modelle integriert werden müssen, ohne auf Beispiele aus früheren Aufgaben zurückgreifen zu können.
Die Hauptherausforderungen sind, das Modell plastisch genug zu halten, um neue Aufgaben zu lernen, und gleichzeitig die Stabilität zu bewahren, um ein Vergessen früherer Aufgaben zu vermeiden. Der Artikel präsentiert einen Ansatz namens "Elastic Feature Consolidation" (EFC), der diese Herausforderungen adressiert:
EFC verwendet eine Empirische Merkmalsmatrix (EMM), um eine Pseudo-Metrik im Merkmalsraum zu induzieren. Diese Pseudo-Metrik wird genutzt, um die Drift in für vorherige Aufgaben wichtigen Richtungen zu regularisieren, während in anderen Richtungen mehr Plastizität erlaubt wird.
Um die Drift der Prototypen, die für das Rehearsal früherer Aufgaben verwendet werden, zu kompensieren, nutzt EFC die EMM, um die Prototypen-Updates zu gewichten.
Darüber hinaus führt EFC einen asymmetrischen Prototypen-Rehearsal-Verlust ein, der die Anpassung der Klassifikatoren für frühere Aufgaben an die sich verändernde Rückgratstruktur effektiv ausbalanciert.
Die Experimente zeigen, dass EFC den Stand der Technik sowohl in Warm-Start- als auch in herausfordernden Kalt-Start-Szenarien deutlich übertrifft.
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問