모델 기반 강화 학습에서 상상한 궤적의 신뢰성을 온라인으로 평가하고, 신뢰할 수 있는 경우 불필요한 재계획을 피하는 방법을 제안한다.
모델 기반 강화 학습에서 모델 학습 목적과 정책 최적화 목적 간의 불일치 문제를 해결하기 위한 다양한 접근법을 제시하고 이들의 장단점을 분석한다.
L1 적응 제어를 통해 모델 및 환경 불확실성에 강인한 모델 기반 강화 학습 알고리즘을 제안한다.