Die Autoren untersuchen das Thema des kontinuierlichen Lernens von Mehrklassen-Klassifikationsmodellen (Multi-Label Class-Incremental Learning, MLCIL), bei dem nur die neuen Klassen während des Trainings etikettiert sind, während die vergangenen und zukünftigen Etiketten nicht verfügbar sind. Dies führt zu einer Zunahme von Fehlklassifikationen aufgrund von übermäßig hoher Konfidenz in den Mehrklassen-Vorhersagen, was das katastrophale Vergessen innerhalb des disjunkten Etikettenraums verschlimmert.
Um dieses Problem anzugehen, schlagen die Autoren einen Ansatz zur Selbstkalibrierung der Konfidenz (Confidence Self-Calibration, CSC) vor, der aus zwei Hauptkomponenten besteht:
Ein klasseninkrementelles Graph-Konvolutionsnetzwerk (CI-GCN): Dieses Netzwerk überbrückt die isolierten Etikettenräume, indem es lernbare, dynamisch erweiterte Beziehungsgraphen zwischen den Etiketten konstruiert.
Eine Max-Entropie-Regularisierung: Diese Regularisierung erleichtert die Selbstkalibrierung der Konfidenz, indem sie überkonfidente Ausgabeverteilungen bestraft.
Die Autoren zeigen, dass ihr Ansatz neue State-of-the-Art-Ergebnisse in MLCIL-Aufgaben auf den Datensätzen MS-COCO und PASCAL VOC erzielt und die Kalibrierung der Etikettenvertrauen durch ihre Methodik bestätigt wird.
In eine andere Sprache
aus dem Quellinhalt
arxiv.org
Wichtige Erkenntnisse aus
by Kaile Du,Yif... um arxiv.org 03-20-2024
https://arxiv.org/pdf/2403.12559.pdfTiefere Fragen