In dieser Arbeit wird eine detailliertere Analyse und ein Vergleich verschiedener exemplar-freier inkrementeller Lernmethoden (EFCIL) durchgeführt, im Gegensatz zu den bisher nur auf die Gesamtleistung fokussierenden Arbeiten. Neben der durchschnittlichen inkrementellen Genauigkeit werden zwei komplementäre Metriken, das Vergessen und die Starrheit, verwendet, um die EFCIL-Methoden aus der Perspektive von Stabilität und Plastizität zu bewerten.
Eine einfache, aber effektive EFCIL-Methode namens Rotation Augmented Distillation (RAD) wird vorgestellt. RAD erzielt konsistent eine der besten Gesamtleistungen unter verschiedenen EFCIL-Einstellungen. Die detaillierte Analyse zeigt, dass die Überlegenheit von RAD auf einer besseren ausgewogenen Leistung zwischen Plastizität und Stabilität beruht.
Darüber hinaus wird eine neue, herausfordernde EFCIL-Einstellung mit deutlich weniger Daten in den Anfangsaufgaben vorgeschlagen, um die Verzerrung durch ein starkes Anfangsmodell zu verringern. Auch unter dieser Einstellung erzielt RAD weiterhin eines der besten Ergebnisse unter den State-of-the-Art-Methoden.
Para Outro Idioma
do conteúdo original
arxiv.org
Principais Insights Extraídos De
by Xiuwei Chen,... às arxiv.org 03-19-2024
https://arxiv.org/pdf/2308.15236.pdfPerguntas Mais Profundas