Die Auswahl geeigneter Hyperparameter ist für kontinuierliches Lernen (Continual Learning, CL) eine Herausforderung, da der Lernende nicht auf alle Daten gleichzeitig zugreifen kann. Diese Arbeit evaluiert verschiedene realistische Hyperparameter-Optimierungsverfahren (HPO) für CL und zeigt, dass alle ähnlich gut abschneiden. Daher empfehlen die Autoren die effizienteste Methode, die Hyperparameter nur anhand der ersten Aufgabe zu optimieren.
Die Konvergenz des kontinuierlichen Lernens für jede sequenzielle Aufgabe wurde bisher weniger untersucht. In dieser Arbeit analysieren wir die Konvergenz des kontinuierlichen Lernens mit Gradientenabstiegsverfahren und zeigen empirische Beweise dafür, dass das Training aktueller Aufgaben zu einer kumulativen Verschlechterung der vorherigen Aufgaben führt. Wir schlagen eine adaptive Methode für nichtkonvexes kontinuierliches Lernen (NCCL) vor, die die Schrittweiten sowohl für vorherige als auch für aktuelle Aufgaben mit den Gradienten anpasst und theoretisch begründet ist.
Eine einfache, aber flexible Optimierungsmethode namens C-Flat wird vorgestellt, die über die Minimierung der Nullordnungsschärfe hinausgeht und kontinuierliches Lernen verbessert.
Kontinuierliches Lernen ist ein wichtiger Bestandteil der Lösung für verschiedene praktische Probleme im Maschinellen Lernen, wie Modellbearbeitung, Personalisierung, On-Device-Lernen, schnelleres Nachtraining und Reinforcement Learning.
TPC (Drei-Phasen-Konsolidierung) ist ein einfacher aber effektiver Ansatz, um neue Klassen (und/oder Instanzen bekannter Klassen) kontinuierlich zu lernen, während das Vergessen von früherem Wissen kontrolliert wird.
Die Leistung von Continual-Learning-Algorithmen hängt stark von der Wahl der Hyperparameter ab. Die übliche Evaluierungsmethode, die die besten Hyperparameter für einen bestimmten Datensatz und Szenario sucht, führt zu einer Überschätzung der tatsächlichen Leistungsfähigkeit der Algorithmen. Eine realistische Evaluierung sollte zwei Phasen umfassen: eine Hyperparameter-Abstimmung auf einem Datensatz und eine anschließende Evaluierung auf einem anderen Datensatz mit den optimierten Hyperparametern.
Die Leistung von Continual-Learning-Algorithmen hängt stark von der Wahl der Hyperparameter ab. Die übliche Evaluierungsmethode, die die besten Hyperparameter für einen bestimmten Datensatz und Szenario sucht, führt zu einer Überschätzung der tatsächlichen Leistungsfähigkeit der Algorithmen. Eine realistische Evaluierung sollte zwei Phasen umfassen: eine Hyperparameter-Abstimmung auf einem Datensatz und eine anschließende Evaluierung auf einem anderen Datensatz im gleichen Szenario.
Die Kombination eines großen Sprachmodells und eines Bildgenerierungsmodells kann nützliche Vorahnungen darüber liefern, wie sich eine kontinuierliche Lernherausforderung im Laufe der Zeit entwickeln könnte.
Gradient Correlation Subspace Learning (GCSL) reduziert katastrophales Vergessen durch Subraumprojektion.
Ein einfacher, aber effektiver Zwei-Branchen-Rahmen zur Verbesserung des kontinuierlichen Lernens wird vorgeschlagen, um das Vergessen von Wissen zu vermeiden.