Der Artikel präsentiert Methoden zur Synthese distributiv robuster stabilisierender Neuralregler und Lyapunov-Zertifikate für Regelsysteme unter Modellungewissheit.
Zunächst wird eine distributiv robuste Formulierung der Lyapunov-Ableitung-Chance-Nebenbedingung eingeführt, um eine monotone Abnahme des Lyapunov-Zertifikats zu gewährleisten. Um die Komplexität des Wahrscheinlichkeitsmaßraums zu vermeiden, wird eine hinreichende Bedingung in Form deterministischer konvexer Nebenbedingungen identifiziert, die die distributiv robuste Lyapunov-Ableitung-Nebenbedingung erfüllt.
Diese Bedingung wird in eine Verlustfunktion für das Training eines neuronalen Netzwerk-Reglers integriert. Es wird gezeigt, dass das resultierende geschlossene Regelkreissystem mit hoher Wahrscheinlichkeit global asymptotisch stabil ist, selbst bei Modellungewissheiten außerhalb der Trainingsverteilung.
Die Effektivität und Effizienz der vorgeschlagenen Methodik wird anhand von Simulationsbeispielen demonstriert und mit einem ungewissheitsagnostischen Basisansatz sowie verschiedenen Reinforcement-Learning-Ansätzen verglichen.
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Kehan Long,J... lúc arxiv.org 04-05-2024
https://arxiv.org/pdf/2404.03017.pdfYêu cầu sâu hơn