Der Artikel präsentiert Methoden zur Synthese distributiv robuster stabilisierender Neuralregler und Lyapunov-Zertifikate für Regelsysteme unter Modellungewissheit.
Zunächst wird eine distributiv robuste Formulierung der Lyapunov-Ableitung-Chance-Nebenbedingung eingeführt, um eine monotone Abnahme des Lyapunov-Zertifikats zu gewährleisten. Um die Komplexität des Wahrscheinlichkeitsmaßraums zu vermeiden, wird eine hinreichende Bedingung in Form deterministischer konvexer Nebenbedingungen identifiziert, die die distributiv robuste Lyapunov-Ableitung-Nebenbedingung erfüllt.
Diese Bedingung wird in eine Verlustfunktion für das Training eines neuronalen Netzwerk-Reglers integriert. Es wird gezeigt, dass das resultierende geschlossene Regelkreissystem mit hoher Wahrscheinlichkeit global asymptotisch stabil ist, selbst bei Modellungewissheiten außerhalb der Trainingsverteilung.
Die Effektivität und Effizienz der vorgeschlagenen Methodik wird anhand von Simulationsbeispielen demonstriert und mit einem ungewissheitsagnostischen Basisansatz sowie verschiedenen Reinforcement-Learning-Ansätzen verglichen.
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問