Der Artikel präsentiert Methoden zur Synthese distributiv robuster stabilisierender Neuralregler und Lyapunov-Zertifikate für Regelsysteme unter Modellungewissheit.
Zunächst wird eine distributiv robuste Formulierung der Lyapunov-Ableitung-Chance-Nebenbedingung eingeführt, um eine monotone Abnahme des Lyapunov-Zertifikats zu gewährleisten. Um die Komplexität des Wahrscheinlichkeitsmaßraums zu vermeiden, wird eine hinreichende Bedingung in Form deterministischer konvexer Nebenbedingungen identifiziert, die die distributiv robuste Lyapunov-Ableitung-Nebenbedingung erfüllt.
Diese Bedingung wird in eine Verlustfunktion für das Training eines neuronalen Netzwerk-Reglers integriert. Es wird gezeigt, dass das resultierende geschlossene Regelkreissystem mit hoher Wahrscheinlichkeit global asymptotisch stabil ist, selbst bei Modellungewissheiten außerhalb der Trainingsverteilung.
Die Effektivität und Effizienz der vorgeschlagenen Methodik wird anhand von Simulationsbeispielen demonstriert und mit einem ungewissheitsagnostischen Basisansatz sowie verschiedenen Reinforcement-Learning-Ansätzen verglichen.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Kehan Long,J... at arxiv.org 04-05-2024
https://arxiv.org/pdf/2404.03017.pdfDeeper Inquiries