Der Beitrag befasst sich mit dem klasseninkrementellen Lernen (Class-Incremental Learning, CIL), bei dem ein Lernsystem kontinuierlich neue Klassen lernen muss, ohne das Vergessen bestehender Klassen. Trotz der starken Leistung von vortrainierten Modellen (Pre-Trained Models, PTMs) im CIL besteht weiterhin ein kritisches Problem: Das Erlernen neuer Klassen führt oft zum Überschreiben alter Klassen.
Um dieses Problem zu lösen, schlagen die Autoren ExpAndable Subspace Ensemble (EASE) vor. EASE erstellt für jede neue Aufgabe ein leichtgewichtiges Adapter-Modul, um aufgabenspezifische Teilräume zu schaffen. Diese Adapter spannen einen hochdimensionalen Merkmalsraum auf, der eine gemeinsame Entscheidungsfindung über mehrere Teilräume hinweg ermöglicht. Da sich die Daten weiterentwickeln, werden die alten Klassifikatoren inkompatibel mit den neuen Teilräumen. Daher entwickeln die Autoren eine semantikgesteuerte Prototyp-Ergänzungsstrategie, die die neuen Merkmale der alten Klassen ohne die Verwendung von Instanzen der alten Klasse synthetisiert.
Umfangreiche Experimente auf sieben Benchmark-Datensätzen belegen die state-of-the-art-Leistung von EASE.
Vers une autre langue
à partir du contenu source
arxiv.org
Questions plus approfondies