핵심 개념
분배 강건 확률론적 모델 예측 제어의 보수성과 후회를 분석하고, 이를 완전 정보 제어기와 비교한다.
초록
이 연구에서는 분배 강건 확률론적 모델 예측 제어(DR SMPC)의 보수성과 후회를 분석한다.
보수성 분석:
확률 분포를 알고 있는 경우와 모르는 경우의 결정론적 제약 강화 정도를 비교하여 보수성을 정량화한다.
후회 분석:
확률 분포를 알고 있는 경우와 모르는 경우의 성능 차이를 정량화하여 하위 최적성 갭과 후회를 분석한다.
상태와 입력 제약이 활성화되지 않는 경우, 상태 오차와 비용 함수 차이의 확률적 수렴 특성을 분석한다.
수치 시뮬레이션을 통해 보수성과 후회의 특성을 확인한다.
이를 통해 확률 분포 정보 부족으로 인한 SMPC의 하위 최적성을 분석하는 것이 이 연구의 핵심 기여점이다.
통계
확률 분포를 알고 있는 경우의 상태 제약 강화 계수: ψi = Φ−1
Px(1 - δi)
확률 분포를 모르는 경우의 상태 제약 강화 계수: ψi = √(1-δi)/δi
인용구
"확률 분포를 모르는 경우의 결정론적 제약 강화는 확률 분포를 알고 있는 경우의 최적 강화보다 더 보수적이다."
"확률 분포를 모르는 경우의 성능은 확률 분포를 알고 있는 경우에 비해 하위 최적적이다."