핵심 개념
분배 강건 확률론적 모델 예측 제어의 보수성과 후회를 분석하고, 이를 완전 정보 제어기와 비교한다.
초록
이 연구에서는 분배 강건 확률론적 모델 예측 제어(DR SMPC)의 보수성과 후회를 분석한다.
- 보수성 분석:
- 확률 분포를 알고 있는 경우와 모르는 경우의 결정론적 제약 강화 정도를 비교하여 보수성을 정량화한다.
- 후회 분석:
- 확률 분포를 알고 있는 경우와 모르는 경우의 성능 차이를 정량화하여 하위 최적성 갭과 후회를 분석한다.
- 상태와 입력 제약이 활성화되지 않는 경우, 상태 오차와 비용 함수 차이의 확률적 수렴 특성을 분석한다.
- 수치 시뮬레이션을 통해 보수성과 후회의 특성을 확인한다.
이를 통해 확률 분포 정보 부족으로 인한 SMPC의 하위 최적성을 분석하는 것이 이 연구의 핵심 기여점이다.
통계
확률 분포를 알고 있는 경우의 상태 제약 강화 계수: ψi = Φ−1
Px(1 - δi)
확률 분포를 모르는 경우의 상태 제약 강화 계수: ψi = √(1-δi)/δi
인용구
"확률 분포를 모르는 경우의 결정론적 제약 강화는 확률 분포를 알고 있는 경우의 최적 강화보다 더 보수적이다."
"확률 분포를 모르는 경우의 성능은 확률 분포를 알고 있는 경우에 비해 하위 최적적이다."