Der Artikel präsentiert Methoden zur Synthese distributiv robuster stabilisierender Neuralregler und Lyapunov-Zertifikate für Regelsysteme unter Modellungewissheit.
Zunächst wird eine distributiv robuste Formulierung der Lyapunov-Ableitung-Chance-Nebenbedingung eingeführt, um eine monotone Abnahme des Lyapunov-Zertifikats zu gewährleisten. Um die Komplexität des Wahrscheinlichkeitsmaßraums zu vermeiden, wird eine hinreichende Bedingung in Form deterministischer konvexer Nebenbedingungen identifiziert, die die distributiv robuste Lyapunov-Ableitung-Nebenbedingung erfüllt.
Diese Bedingung wird in eine Verlustfunktion für das Training eines neuronalen Netzwerk-Reglers integriert. Es wird gezeigt, dass das resultierende geschlossene Regelkreissystem mit hoher Wahrscheinlichkeit global asymptotisch stabil ist, selbst bei Modellungewissheiten außerhalb der Trainingsverteilung.
Die Effektivität und Effizienz der vorgeschlagenen Methodik wird anhand von Simulationsbeispielen demonstriert und mit einem ungewissheitsagnostischen Basisansatz sowie verschiedenen Reinforcement-Learning-Ansätzen verglichen.
toiselle kielelle
lähdeaineistosta
arxiv.org
Tärkeimmät oivallukset
by Kehan Long,J... klo arxiv.org 04-05-2024
https://arxiv.org/pdf/2404.03017.pdfSyvällisempiä Kysymyksiä