Eine biologisch plausible, aufmerksamkeitsbasierte Modulationsstrategie, die Klassifikationsmerkmale durch visuelle Salienz reguliert, um das Vergessen effektiv zu reduzieren.
Durch inkrementelles Feintuning des geteilten Adapters ohne Parametereinschränkungen kann die Lernkapazität des Rückgrats verbessert und die Leistung für neue Klassen erhöht werden. Zusätzlich wird durch Schätzung der semantischen Verschiebung und Neutrainieren des Klassifikators die Gesamtleistung weiter verbessert.
Der Einsatz von Sprachmodellen zur Generierung semantischer Ziele für den Klassifikator kann die Repräsentationsverschiebung verringern und den Wissenstransfer zwischen Aufgaben erleichtern, was die Leistung gängiger kontinuierlicher Lernmethoden deutlich verbessert.
AttriCLIP ist ein kontinuierliches Lernverfahren, das auf dem vortrainierten visuell-sprachlichen Modell CLIP basiert. Es lernt inkrementell neues Wissen, ohne die Modellparameter zu erhöhen oder zusätzlichen Speicher für Wiederholungsdaten zu benötigen.