Core Concepts
Der Hauptbeitrag dieser Arbeit ist die Untersuchung der Konvergenz rekursiver regularisierter Lernalgorithmen in Reproduzierenden Kernhilbert-Räumen (RKHS) mit abhängigen und nicht-stationären Online-Datensätzen. Die Autoren führen den Begriff des zufälligen Tikhonov-Regularisierungspfades ein und zeigen, dass wenn der Regularisierungspfad in einem gewissen Sinne langsam zeitvariant ist, dann ist die Ausgabe des Algorithmus konsistent mit dem Regularisierungspfad im Mittelwert. Darüber hinaus, wenn die Datenströme auch die RKHS-Persistenz der Erregung erfüllen, dann ist die Ausgabe des Algorithmus konsistent mit der unbekannten Funktion im Mittelwert.
Abstract
Die Autoren untersuchen die Konvergenz rekursiver regularisierter Lernalgorithmen in Reproduzierenden Kernhilbert-Räumen (RKHS) mit abhängigen und nicht-stationären Online-Datensätzen.
Zunächst führen sie den Begriff des zufälligen Tikhonov-Regularisierungspfades ein, der mit dem zeitvariant-zufälligen Tikhonov-regularisierten Mittelwert-Quadrat-Fehler-Minimierungsproblem in RKHS zusammenhängt. Sie zeigen, dass die Lernprobleme mit abhängigen und nicht-stationären Daten in RKHS im Wesentlichen inverse Probleme mit zeitvariant-zufälligen Vorwärtsoperatoren sind, und der Prozess der Approximation der unbekannten Funktion durch zufällige Tikhonov-Regularisierungspfade ist genau die Regularisierungsmethode zur Lösung dieser zufälligen inversen Probleme.
Anschließend untersuchen sie die Beziehung zwischen der Ausgabe des Algorithmus und dem zufälligen Tikhonov-Regularisierungspfad. Sie zeigen, dass wenn der zufällige Tikhonov-Regularisierungspfad in einem gewissen Sinne langsam zeitvariant ist, dann konvergiert der mittlere quadratische Fehler zwischen der Ausgabe des Algorithmus und dem zufälligen Regularisierungspfad gegen Null, indem man die geeigneten Algorithmusgewinne und Regularisierungsparameter wählt.
Darüber hinaus führen die Autoren die RKHS-Persistenz der Erregungsbedingung ein, d.h. es gibt einen festen Zeitraum, so dass jeder Eigenwert der bedingten Erwartung der durch die Eingabedaten induzierten Operatoren über jeden festen Zeitraum eine gleichmäßig positive untere Schranke hat. Sie zeigen, dass wenn der zufällige Tikhonov-Regularisierungspfad langsam zeitvariant ist und der Datenstrom die RKHS-Persistenz der Erregungsbedingung erfüllt, dann ist die Ausgabe des Algorithmus konsistent mit der unbekannten Funktion im Mittelwert.
Für unabhängige und nicht identisch verteilte Datenströme zeigen die Autoren, dass der Algorithmus die mittlere quadratische Konsistenz erreicht, wenn die durch die Eingabedaten induzierten Randwahrscheinlichkeitsmaße langsam zeitvariant sind und das Durchschnittsmaß über jeden festen Zeitraum eine gleichmäßig strikt positive untere Schranke hat, ohne die Konvergenzannahme für die Randwahrscheinlichkeitsmaße und die Vorbedingung für die unbekannte Funktion.
Stats
Es gibt keine expliziten Statistiken oder Kennzahlen in diesem Artikel.
Quotes
Es gibt keine hervorstechenden Zitate in diesem Artikel.