Core Concepts
Eine neue Methode zur Schätzung der Wahrscheinlichkeit, dass ein Testbeispiel zu einer bestimmten Aufgabe gehört, basierend auf dem Likelihood-Verhältnis, übertrifft stark etablierte Baselines und zeigt fast keine katastrophale Vergessenseffekte.
Abstract
Der Artikel befasst sich mit dem herausfordernden Problem des inkrementellen Klassifizierungslernens (CIL), bei dem eine Reihe von Aufgaben sequenziell gelernt werden, ohne dass die Aufgaben-ID bei der Testzeit bekannt ist.
Der Hauptbeitrag ist eine neue Methode namens TPL (Task-id Prediction based on Likelihood Ratio), die die Aufgaben-ID-Vorhersagewahrscheinlichkeit P(t|x) für ein Testbeispiel x schätzt. TPL besteht aus zwei Teilen:
Ein neuer Ansatz zum Training jedes Aufgabenmodells, bei dem nicht nur die Klassen der aktuellen Aufgabe, sondern auch Replay-Daten früherer Aufgaben verwendet werden. Dies ermöglicht es dem Modell, nicht nur die neuen Aufgabendaten, sondern auch frühere Aufgabendaten zu berücksichtigen, was die genauere Berechnung von P(t|x) erleichtert.
Eine neuartige und fundierte Methode zur Schätzung von P(t|x) als Likelihood-Verhältnis zwischen der Verteilung der Daten der Aufgabe t und der Verteilung der Daten aller anderen Aufgaben als t. Dieser Ansatz nutzt die Tatsache, dass in CIL die Verteilung der Daten aller anderen Aufgaben als t geschätzt werden kann, im Gegensatz zu traditionellen Methoden der Anomalieerkennung, die auf eine unbekannte Verteilung der Nicht-Zielklassen angewiesen sind.
Die Experimente zeigen, dass TPL die Leistung starker CIL-Baselines deutlich übertrifft und fast keine katastrophalen Vergessenseffekte aufweist. Insbesondere wenn ein vortrainiertes Modell verwendet wird, hat TPL fast keine Vergessenseffekte.
Stats
Die Genauigkeit nach dem Erlernen der letzten Aufgabe (Last ACC) beträgt im Durchschnitt über alle Datensätze 76,21%.
Die durchschnittliche inkrementelle Genauigkeit (AIA) beträgt 83,23%.
Quotes
Keine relevanten Zitate identifiziert.