本論文は、モデル不確実性を伴う制御システムに対して、分布頑健な制御ポリシーとリアプノフ証明書を学習する新しい手法を提案している。
主な内容は以下の通り:
分布頑健なリアプノフ微分条件を定式化し、その十分条件となる凸制約を導出する。これにより、サンプルデータに基づいて、分布頑健な制御ポリシーとリアプノフ関数のペアを学習できる。
学習したペアが閉ループシステムの大域的漸近安定性を高い確率で保証することを示す。具体的には、リアプノフ関数が分布頑健なδ-正確なリアプノフ関数となり、原点の大域的漸近安定性が高確率で成り立つことを証明する。
2つの制御問題のシミュレーション実験を通して、提案手法の有効性と効率性を確認する。提案手法は、不確実性を考慮しない従来手法や強化学習手法と比べて優れた性能を示す。
本手法は、モデル不確実性下での制御システムの安定性を高い確率で保証する新しいアプローチであり、実世界の制御問題への適用が期待される。
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Kehan Long,J... a las arxiv.org 04-05-2024
https://arxiv.org/pdf/2404.03017.pdfConsultas más profundas