In dieser Arbeit wird eine neue Methode zur Erhaltung der Salienz-Repräsentation über verschiedene Aufgaben hinweg in exemplar-freien inkrementellen Lernszenarien vorgestellt. Die Kernidee ist, die Aufmerksamkeit des Modells auf relevante Regionen zu lenken und Salienz-Drift zu verhindern.
Die Methode, die wir "Task-Adaptive Saliency Supervision (TASS)" nennen, umfasst drei Komponenten:
Grenzgeführte mittlere Salienz-Drift-Regularisierung: Wir verwenden verwischte Grenzenkarten, um die Aufmerksamkeit des Modells auf relevante Vordergrundbereiche zu lenken und ein Abdriften in den Hintergrund zu verhindern.
Hilfssupervision für niedrige Ebenen: Wir fügen eine Aufgabe zur Vorhersage von Salienz- und Kantenkarten als zusätzliche Supervision hinzu, um stabile Merkmale über Aufgaben hinweg zu lernen.
Injektion von Salienz-Rauschen: Wir injizieren zufälliges Salienz-Rauschen in das Modell und zwingen es, dieses Rauschen zu entfernen, um die Robustheit der Salienz-Erhaltung zu erhöhen.
Die Experimente zeigen, dass TASS die Leistung bestehender exemplar-freier Methoden deutlich verbessert und den Stand der Technik auf mehreren Benchmarks übertrifft. Darüber hinaus kann TASS nahtlos in andere Methoden integriert werden, was zu weiteren Leistungssteigerungen führt.
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Xialei Liu,J... a las arxiv.org 03-28-2024
https://arxiv.org/pdf/2212.08251.pdfConsultas más profundas