核心概念
Durch Neugewichtung der Gradienten in den Fully Connected Layern kann das Problem der Inter-Phasen- und Intra-Phasen-Unausgewogenheit beim inkrementellen Klassenlernen effektiv gelöst werden. Zusätzlich wird eine verteilungsbewusste Wissensübertragung eingeführt, um das unausgewogene Vergessen zu mildern.
摘要
Die Studie befasst sich mit dem Problem des inkrementellen Klassenlernen (Class-Incremental Learning, CIL) in Szenarien mit unausgewogenen Daten. CIL zielt darauf ab, ein Modell kontinuierlich zu erweitern, um neue Klassen aus nicht-stationären Daten zu erkennen, während gleichzeitig das zuvor Gelernte beibehalten wird.
Die Hauptherausforderungen in CIL mit unausgewogenen Daten sind:
- Intra-Phasen-Unausgewogenheit: Starke Klassenungleichgewichte innerhalb einzelner Lernphasen
- Inter-Phasen-Unausgewogenheit: Disparitäten zwischen gespeicherten Exemplaren alter Aufgaben und neuen Klassendaten
Diese Dualität führt zu verzerrten Gradientenaktualisierungen und damit zu Über- bzw. Unteranpassung sowie katastrophalem Vergessen.
Die vorgeschlagene Methode adressiert dies, indem die Gradienten in den Fully Connected Layern neu gewichtet werden, um eine ausgewogene Optimierung und das Erlernen unvoreingenommener Klassifikatoren zu fördern. Zusätzlich wird eine verteilungsbewusste Wissensübertragung eingeführt, um das unausgewogene Vergessen zu mildern.
Die Studie gliedert sich wie folgt:
- Intra-Phasen-Unausgewogenheit: Adaptives Reweighting der Gradienten basierend auf kumulierten Gradienten
- Inter-Phasen-Unausgewogenheit:
a) Verteilungsbewusste Wissensübertragung, um Informationen aus der ursprünglichen Trainingsverteilung zu erhalten
b) Entkoppeltes Gradientenreweighting, um Stabilität und Plastizität zwischen alten und neuen Aufgaben auszubalancieren
Die vorgeschlagene Methode zeigt konsistente Verbesserungen gegenüber bestehenden Ansätzen in verschiedenen CIL-Benchmarks und erweist sich auch in Aufgaben zum Lernen von unausgewogenen Daten als effektiv.
統計資料
Die Anzahl der Trainingsdaten pro Klasse variiert stark, was zu einer Intra-Phasen-Unausgewogenheit führt.
Die Anzahl der Exemplare für gelernte Klassen ist deutlich geringer als die Anzahl der Trainingsdaten für neue Klassen, was eine Inter-Phasen-Unausgewogenheit verursacht.
Die durchschnittliche Gradientenmagnitude ist für kopfklassen deutlich höher als für Schwanzklassen, was zu einer verzerrten Optimierung führt.
引述
"Imbalanced CIL refers to the case where the number of training data varies a lot among different classes while the test data remain balanced."
"The larger gradient magnitudes can also induce biases in the norm of weight vectors as ||Wi+1 − Wi|| ∝ ||∇L(Wi)||, resulting in biased prediction towards instance-rich or newly learned classes under CIL."