Die Arbeit untersucht das Problem, Steuerungsstrategien zu entwerfen, die hochrangige Spezifikationen, die durch Signaltemporale Logik (STL) beschrieben werden, in unbekannten, stochastischen Umgebungen erfüllen. Während viele bestehende Arbeiten auf die Optimierung der räumlichen Robustheit eines Systems konzentriert sind, geht diese Arbeit einen Schritt weiter und berücksichtigt auch die zeitliche Robustheit als kritisches Maß, um die Toleranz gegenüber Zeitungenauigkeiten in STL zu quantifizieren.
Zu diesem Zweck werden zwei relevante Steuerungsziele formuliert, um die zeitliche Robustheit der synthetisierten Strategien zu erhöhen:
Reinforcement Learning wird verwendet, um beide Steuerungssynthese-Probleme für unbekannte Systeme zu lösen. Insbesondere werden beide Steuerungsziele so approximiert, dass der Standard-Q-Learning-Algorithmus angewendet werden kann. Theoretische Grenzen in Bezug auf die Approximationen werden ebenfalls abgeleitet.
Die Fallstudien zeigen die Machbarkeit des Ansatzes und demonstrieren, dass die synthetisierten Strategien die zeitliche Robustheit des Systems effektiv verbessern können.
Başka Bir Dile
kaynak içeriğinden
arxiv.org
Önemli Bilgiler Şuradan Elde Edildi
by Siqi Wang,Sh... : arxiv.org 03-26-2024
https://arxiv.org/pdf/2312.05764.pdfDaha Derin Sorular