Das Ziel ist es, eine Vorhersagefunktion zu konstruieren, die die Leistung in extremen Regionen des Eingaberaums optimiert. Dafür wird ein Rahmenwerk auf Basis der multivariaten Regularitätstheorie entwickelt, das es ermöglicht, die asymptotische Leistung in extremen Regionen zu charakterisieren und zu optimieren.
Der Hauptbeitrag dieser Arbeit ist die Untersuchung der Konvergenz rekursiver regularisierter Lernalgorithmen in Reproduzierenden Kernhilbert-Räumen (RKHS) mit abhängigen und nicht-stationären Online-Datensätzen. Die Autoren führen den Begriff des zufälligen Tikhonov-Regularisierungspfades ein und zeigen, dass wenn der Regularisierungspfad in einem gewissen Sinne langsam zeitvariant ist, dann ist die Ausgabe des Algorithmus konsistent mit dem Regularisierungspfad im Mittelwert. Darüber hinaus, wenn die Datenströme auch die RKHS-Persistenz der Erregung erfüllen, dann ist die Ausgabe des Algorithmus konsistent mit der unbekannten Funktion im Mittelwert.