Core Concepts
Ein neuartiger Ansatz für kontinuierliches Lernen, der die vortrainierten Modelle selbstständig durch Hinzufügen von Adapter-Modulen erweitert, um auf neue Aufgaben mit Verteilungsverschiebungen zu reagieren.
Abstract
Der Artikel präsentiert einen neuen Ansatz für kontinuierliches Lernen, SEMA genannt, der vortrainierte Modelle wie Vision Transformer (ViT) selbstständig erweitert, um auf neue Aufgaben mit Verteilungsverschiebungen zu reagieren.
Kernelemente sind:
Modulare Adapter, die aus einem funktionalen Adapter und einem Repräsentationsdeskriptor bestehen. Der Repräsentationsdeskriptor dient als Indikator für Verteilungsverschiebungen und löst bei Bedarf die Erweiterung des Modells aus.
Eine erweiterbare Gewichtungsrouting-Funktion, die die Ausgaben der verschiedenen Adapter-Module mischt.
Eine selbstständige Erweiterungsstrategie, die neue Adapter-Module nur dann hinzufügt, wenn signifikante Verteilungsverschiebungen erkannt werden, die von den bestehenden Modulen nicht mehr abgedeckt werden können.
Im Vergleich zu anderen ViT-basierten Finetuning-Methoden für kontinuierliches Lernen zeigt SEMA deutlich bessere Leistung auf verschiedenen Benchmarks ohne Rehearsal.
Stats
Der statistische Z-Score der mittleren Rekonstruktionsfehler der Repräsentationsdeskriptoren wird verwendet, um Expansionssignale zu generieren.
Die Erweiterung der Adapter-Module erfolgt nur, wenn der Z-Score einen vordefinierten Schwellenwert überschreitet.
Quotes
Keine relevanten Zitate identifiziert.