Core Concepts
Wir präsentieren einen neuartigen Ansatz zum Lernen des Gedächtniskerns in verallgemeinerten Langevin-Gleichungen. Dieser Ansatz verwendet zunächst ein regularisiertes Prony-Verfahren, um Korrelationsfunktionen aus Trajektoriendaten zu schätzen, gefolgt von einer Regression über eine Sobolev-Norm-basierte Verlustfunktion mit RKHS-Regularisierung. Unser Verfahren garantiert eine verbesserte Leistung innerhalb eines exponentiell gewichteten L2-Raums, wobei der Schätzfehler des Gedächtniskerns durch den Fehler in den geschätzten Korrelationsfunktionen kontrolliert wird.
Abstract
In dieser Studie wird ein neuer Ansatz zum Lernen des Gedächtniskerns in verallgemeinerten Langevin-Gleichungen vorgestellt. Der Ansatz besteht aus zwei Hauptschritten:
Schätzung der Korrelationsfunktionen: Zunächst wird ein regularisiertes Prony-Verfahren verwendet, um Korrelationsfunktionen aus den Trajektoriendaten zu schätzen. Dieses Verfahren berücksichtigt die Annahme des exponentiellen Abklingens der Funktionen und fügt Regularisierungsschritte hinzu, um die Schätzgenauigkeit zu verbessern.
Schätzung des Gedächtniskerns: Anschließend wird eine Regression über eine Sobolev-Norm-basierte Verlustfunktion mit RKHS-Regularisierung durchgeführt, um den Gedächtniskern zu lernen. Diese Verlustfunktion bietet Garantien für die Leistung der Schätzung, die vom Fehler in den geschätzten Korrelationsfunktionen abhängt.
Der Vorteil dieses Ansatzes gegenüber anderen Regressionsschätzern, die auf L2-Verlustfunktionen basieren, sowie einem Schätzer, der aus der inversen Laplace-Transformation abgeleitet ist, wird in numerischen Beispielen demonstriert. Dabei zeigt sich, dass der vorgeschlagene Schätzer einen konsistenten Vorteil über verschiedene Gewichtungsparameter hinweg aufweist. Darüber hinaus werden Beispiele mit Kraft- und Driftbedingungen in der Gleichung präsentiert, die die Notwendigkeit der Verwendung von Ensemble-Trajektoriendaten bei nicht-stationären Lösungen zeigen.
Stats
Die Trajektorie v wird durch die folgende diskrete Gleichung generiert:
vl+1 = vl + Δt(F(vl) - Σl
j=0 γ(tl-j)vj + Rl)
Dabei ist Rl ein stationärer Gaußscher Prozess mit Mittelwert 0 und Autokorrelation γ(t-s).
Quotes
"Unser Verfahren garantiert eine verbesserte Leistung innerhalb eines exponentiell gewichteten L2-Raums, wobei der Schätzfehler des Gedächtniskerns durch den Fehler in den geschätzten Korrelationsfunktionen kontrolliert wird."