Główne pojęcia
Ein neuartiger Ansatz für kontinuierliches Lernen, der die vortrainierten Modelle selbstständig durch Hinzufügen von Adapter-Modulen erweitert, um auf neue Aufgaben mit Verteilungsverschiebungen zu reagieren.
Streszczenie
Der Artikel präsentiert einen neuen Ansatz für kontinuierliches Lernen, SEMA genannt, der vortrainierte Modelle wie Vision Transformer (ViT) selbstständig erweitert, um auf neue Aufgaben mit Verteilungsverschiebungen zu reagieren.
Kernelemente sind:
Modulare Adapter, die aus einem funktionalen Adapter und einem Repräsentationsdeskriptor bestehen. Der Repräsentationsdeskriptor dient als Indikator für Verteilungsverschiebungen und löst bei Bedarf die Erweiterung des Modells aus.
Eine erweiterbare Gewichtungsrouting-Funktion, die die Ausgaben der verschiedenen Adapter-Module mischt.
Eine selbstständige Erweiterungsstrategie, die neue Adapter-Module nur dann hinzufügt, wenn signifikante Verteilungsverschiebungen erkannt werden, die von den bestehenden Modulen nicht mehr abgedeckt werden können.
Im Vergleich zu anderen ViT-basierten Finetuning-Methoden für kontinuierliches Lernen zeigt SEMA deutlich bessere Leistung auf verschiedenen Benchmarks ohne Rehearsal.
Statystyki
Der statistische Z-Score der mittleren Rekonstruktionsfehler der Repräsentationsdeskriptoren wird verwendet, um Expansionssignale zu generieren.
Die Erweiterung der Adapter-Module erfolgt nur, wenn der Z-Score einen vordefinierten Schwellenwert überschreitet.
Cytaty
Keine relevanten Zitate identifiziert.