Der Artikel untersucht das Problem der optimalen Steuerungssynthese für Markov-Entscheidungsprozesse (MDPs), bei dem sowohl qualitative als auch quantitative Ziele berücksichtigt werden. Konkret wird gefordert, dass das System eine qualitative Überwachungsaufgabe in dem Sinne erfüllt, dass ein bestimmter Zielbereich mit Wahrscheinlichkeit eins unendlich oft besucht werden kann. Darüber hinaus wird zur Quantifizierung der Systemleistung das Konzept der Effizienz verwendet, das als Verhältnis zwischen Belohnung und Kosten definiert ist. Ziel ist es, eine Steuerungspolitik zu synthetisieren, die die Überwachungsaufgabe gewährleistet und gleichzeitig die Effizienz maximiert.
Die Autoren präsentieren einen effektiven Ansatz zur Synthese einer stationären Steuerungspolitik, die eine ϵ-Optimalität erreicht, indem sie Zustandsklassifizierungen von MDPs und Störungsanalyse in neuartiger Weise integrieren. Die Ergebnisse verallgemeinern bestehende Arbeiten zur effizienzoptimalen Steuerungssynthese für MDPs, indem qualitative Überwachungsaufgaben einbezogen werden. Eine Fallstudie zur Roboterwegeplanung wird präsentiert, um den vorgeschlagenen Algorithmus zu veranschaulichen.
In eine andere Sprache
aus dem Quellinhalt
arxiv.org
Wichtige Erkenntnisse aus
by Yu Chen,Xuan... um arxiv.org 03-28-2024
https://arxiv.org/pdf/2403.18632.pdfTiefere Fragen