Der Artikel befasst sich mit dem Exemplar-freien Klassen-Inkrementellen Lernen (EFCIL), einer herausfordernden Einstellung des Kontinuierlichen Lernens, bei der kein Wiederholungsspeicher zur Verfügung steht. Methoden, die auf einem eingefrorenen Merkmalsextraktor basieren, haben in diesem Kontext aufgrund ihrer beeindruckenden Leistungen und geringeren Rechenkosten in letzter Zeit große Aufmerksamkeit erregt. Diese Methoden hängen jedoch stark von den Daten ab, die zum Trainieren des Merkmalsextraktors verwendet werden, und können Probleme haben, wenn während des ersten inkrementellen Schritts nur eine unzureichende Anzahl von Klassen zur Verfügung steht.
Um diese Einschränkung zu überwinden, schlagen die Autoren vor, ein vortrainiertes Text-zu-Bild Diffusions-Modell zu verwenden, um synthetische Bilder zukünftiger Klassen zu generieren und sie zum Trainieren des Merkmalsextraktors zu verwenden. Experimente auf den Standardbenchmarks CIFAR100 und ImageNet-Subset zeigen, dass der vorgeschlagene Ansatz verwendet werden kann, um state-of-the-art-Methoden für exemplar-freies Klassen-inkrementelles Lernen zu verbessern, insbesondere in den schwierigsten Einstellungen, in denen der erste inkrementelle Schritt nur wenige Klassen enthält. Darüber hinaus zeigen die Ergebnisse, dass die Verwendung von synthetischen Samples zukünftiger Klassen eine höhere Leistung erzielt als die Verwendung von Realdaten aus anderen Klassen, was den Weg für bessere und kostengünstigere Vortrainingsmethoden für das inkrementelle Lernen ebnet.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Quentin Jode... at arxiv.org 04-05-2024
https://arxiv.org/pdf/2404.03200.pdfDeeper Inquiries