이 논문은 모방 학습에서 전문가 제어기의 부드러움과 안정성이 중요한 역할을 한다는 것을 보여준다. 기존의 명시적 모델 예측 제어기는 비선형적이고 불연속적이어서 이러한 특성을 모방하기 어렵다.
저자들은 이를 해결하기 위해 로그 장벽 기반의 모델 예측 제어 기법을 제안한다. 이 방법은 제약 조건을 목적 함수에 포함시켜 부드러운 제어기를 생성한다. 저자들은 이론적으로 장벽 모델 예측 제어기가 일부 방향으로 최적의 오차-부드러움 트레이드오프를 달성한다는 것을 보여준다.
이를 위해 저자들은 볼록 Lipschitz 함수의 최적성 갭에 대한 새로운 하한을 증명했는데, 이는 최적화 분야에서 독립적인 관심사가 될 수 있다. 또한 실험을 통해 장벽 모델 예측 제어기가 무작위 smoothing 기법보다 우수함을 입증한다.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문