Kontinuierliches Lernen durch Hessian-bewusste niedrigrangige Gewichtsperturbation
Durch Modellierung des Parameterwechsels zwischen aufeinanderfolgenden Aufgaben mit einer niedrigrangigen Gewichtsmatrixtransformation kann das Modell effizient Wissen von früheren Aufgaben übertragen und gleichzeitig die Parameterwachstumsrate kontrollieren.