Die Arbeit untersucht das Problem, Steuerungsstrategien zu entwerfen, die hochrangige Spezifikationen, die durch Signaltemporale Logik (STL) beschrieben werden, in unbekannten, stochastischen Umgebungen erfüllen. Während viele bestehende Arbeiten auf die Optimierung der räumlichen Robustheit eines Systems konzentriert sind, geht diese Arbeit einen Schritt weiter und berücksichtigt auch die zeitliche Robustheit als kritisches Maß, um die Toleranz gegenüber Zeitungenauigkeiten in STL zu quantifizieren.
Zu diesem Zweck werden zwei relevante Steuerungsziele formuliert, um die zeitliche Robustheit der synthetisierten Strategien zu erhöhen:
Reinforcement Learning wird verwendet, um beide Steuerungssynthese-Probleme für unbekannte Systeme zu lösen. Insbesondere werden beide Steuerungsziele so approximiert, dass der Standard-Q-Learning-Algorithmus angewendet werden kann. Theoretische Grenzen in Bezug auf die Approximationen werden ebenfalls abgeleitet.
Die Fallstudien zeigen die Machbarkeit des Ansatzes und demonstrieren, dass die synthetisierten Strategien die zeitliche Robustheit des Systems effektiv verbessern können.
Ke Bahasa Lain
dari konten sumber
arxiv.org
Wawasan Utama Disaring Dari
by Siqi Wang,Sh... pada arxiv.org 03-26-2024
https://arxiv.org/pdf/2312.05764.pdfPertanyaan yang Lebih Dalam