In dieser Arbeit wird ein kontinuierliches Lernverfahren für Computervision vorgestellt, das auf der Feinabstimmung von Adaptern basiert.
Zunächst wird beobachtet, dass das inkrementelle Feintuning des geteilten Adapters einer Reihe anderer Methoden wie Prompt-Tuning und SSF-Tuning überlegen ist. Im Gegensatz zu früheren Ansätzen, die Parametereinschränkungen verwenden, um Vergessen zu vermeiden, zeigt die Analyse, dass solche Einschränkungen die Lernfähigkeit für neue Klassen behindern. Daher wird der Adapter ohne Parametereinschränkungen inkrementell feinabgestimmt, was zu einer höheren Lernkapazität des Rückgrats führt.
Darüber hinaus wird ein Verfahren zum Neutrainieren des Klassifikators vorgestellt, das die semantische Verschiebung der alten Prototypen schätzt und diese zum Neutrainieren des Klassifikators verwendet. Dadurch wird die Gesamtleistung weiter verbessert, ohne dass Bildproben gespeichert werden müssen.
Die Experimente auf fünf Benchmarks für kontinuierliches Lernen zeigen, dass der vorgeschlagene Ansatz den Stand der Technik übertrifft und bemerkenswerte Fähigkeiten zum kontinuierlichen Lernen demonstriert.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Yuwen Tan,Qi... at arxiv.org 04-01-2024
https://arxiv.org/pdf/2403.19979.pdfDeeper Inquiries