Core Concepts
Das Ziel dieser Arbeit ist es, Steuerungsstrategien zu synthetisieren, die zeitliche Robustheit für Aufgaben mit Signaltemporaler Logik in unbekannten, stochastischen Umgebungen aufweisen. Dazu werden zwei relevante Steuerungsziele formuliert, um die zeitliche Robustheit der synthetisierten Strategien zu erhöhen.
Abstract
Die Arbeit untersucht das Problem, Steuerungsstrategien zu entwerfen, die hochrangige Spezifikationen, die durch Signaltemporale Logik (STL) beschrieben werden, in unbekannten, stochastischen Umgebungen erfüllen. Während viele bestehende Arbeiten auf die Optimierung der räumlichen Robustheit eines Systems konzentriert sind, geht diese Arbeit einen Schritt weiter und berücksichtigt auch die zeitliche Robustheit als kritisches Maß, um die Toleranz gegenüber Zeitungenauigkeiten in STL zu quantifizieren.
Zu diesem Zweck werden zwei relevante Steuerungsziele formuliert, um die zeitliche Robustheit der synthetisierten Strategien zu erhöhen:
Maximierung der Wahrscheinlichkeit, zeitlich robust für einen gegebenen Schwellenwert zu sein.
Maximierung der schlimmstmöglichen räumlichen Robustheit innerhalb einer begrenzten Zeitverschiebung.
Reinforcement Learning wird verwendet, um beide Steuerungssynthese-Probleme für unbekannte Systeme zu lösen. Insbesondere werden beide Steuerungsziele so approximiert, dass der Standard-Q-Learning-Algorithmus angewendet werden kann. Theoretische Grenzen in Bezug auf die Approximationen werden ebenfalls abgeleitet.
Die Fallstudien zeigen die Machbarkeit des Ansatzes und demonstrieren, dass die synthetisierten Strategien die zeitliche Robustheit des Systems effektiv verbessern können.
Stats
Keine relevanten Kennzahlen oder Zahlen im Text enthalten.
Quotes
Keine markanten Zitate im Text enthalten.