Der Beitrag befasst sich mit dem Problem des klasseninkrementellen Lernens (Class-Incremental Learning, CIL), bei dem ein Lernsystem kontinuierlich neue Klassen lernen muss, ohne das zuvor Erlernte zu vergessen. Trotz der starken Leistung von vortrainierten Modellen (Pre-Trained Models, PTMs) im CIL besteht weiterhin ein kritisches Problem: Das Erlernen neuer Klassen führt oft zum Überschreiben alter Klassen.
Um dieses Problem zu lösen, schlagen die Autoren EASE (ExpAndable Subspace Ensemble) vor. EASE trainiert für jede neue Aufgabe ein leichtgewichtiges Adapter-Modul, um aufgabenspezifische Subräume zu schaffen. Diese Adapter ermöglichen es, Entscheidungen über mehrere Subräume hinweg zu treffen, ohne dass alte Klassen vergessen werden.
Da sich die Daten im Laufe der Zeit weiterentwickeln, werden die alten Klassifikatoren inkompatibel mit den neuen Subräumen. Daher entwickeln die Autoren eine semantikgesteuerte Prototyp-Ergänzungsstrategie, die die neuen Merkmale der alten Klassen ohne die Verwendung von Instanzen der alten Klassen synthetisiert.
Umfangreiche Experimente auf sieben Benchmark-Datensätzen belegen die state-of-the-art-Leistung von EASE.
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Da-Wei Zhou,... a las arxiv.org 03-19-2024
https://arxiv.org/pdf/2403.12030.pdfConsultas más profundas