In dieser Arbeit wird das Problem des kontinuierlichen Lernens (CL) untersucht, bei dem das Ziel darin besteht, ein Modell auf einer Sequenz von Aufgaben zu lernen, wobei die Daten der vorherigen Aufgaben während des Lernens der aktuellen Aufgabendaten nicht mehr verfügbar sind. CL ist im Wesentlichen ein Balanceakt zwischen der Fähigkeit, auf der neuen Aufgabe zu lernen (d.h. Plastizität) und der Aufrechterhaltung der Leistung auf den zuvor erlernten Konzepten (d.h. Stabilität).
Um den Stabilitäts-Plastizitäts-Kompromiss anzugehen, schlagen die Autoren vor, die Modellparameter der vorherigen und aktuellen Aufgaben zu gewichten und zu mitteln. Dieses gewichtete Ensemble-Modell, das sie Continual Model Averaging (CoMA) nennen, erreicht durch die Nutzung der Plastizität eine hohe Genauigkeit auf der aktuellen Aufgabe, ohne sich zu weit von der vorherigen Gewichtskonfiguration zu entfernen, um die Stabilität zu gewährleisten.
Die Autoren schlagen auch eine verbesserte Variante von CoMA vor, namens Continual Fisher-weighted Model Averaging (CoFiMA), die jeden Parameter im Gewichtsensemble selektiv gewichtet, indem sie die Fisher-Information der Modellgewichte nutzt. Beide Varianten sind konzeptionell einfach, leicht zu implementieren und erzielen auf mehreren Standard-CL-Benchmarks Spitzenleistungen.
Egy másik nyelvre
a forrásanyagból
arxiv.org
Mélyebb kérdések