核心概念
준-쌍곡선 할인은 인간의 즉각적인 만족 선호를 모델링하는 데 효과적이지만, 이로 인해 최적 정책이 시간 불일치성을 보일 수 있다. 이를 해결하기 위해 마르코프 완전 균형(MPE)이라는 개념이 도입되었으며, 본 연구에서는 MPE를 찾는 최초의 모델 없는 강화 학습 알고리즘을 제안한다.
摘要
이 논문은 준-쌍곡선 할인을 이용한 강화 학습에 대해 다룬다. 전통적인 지수 할인이나 평균 보상 설정은 인간의 행동을 정확히 포착하지 못하는데, 준-쌍곡선 할인은 즉각적인 만족에 대한 편향을 모델링할 수 있다.
그러나 준-쌍곡선 할인에서는 최적 정책이 시간에 따라 달라질 수 있어, 나이브하거나 충동적인 미래 자아가 처음에 최적이었던 정책에서 벗어날 수 있다. 이를 방지하기 위해 마르코프 완전 균형(MPE) 개념이 도입되었다.
본 연구에서는 MPE를 찾는 최초의 모델 없는 강화 학습 알고리즘을 제안한다. 두 시간 척도 분석을 통해 알고리즘이 수렴하면 그 극한이 MPE임을 보였다. 또한 재고 관리 시스템 실험에서 다양한 MPE를 성공적으로 식별하였다.
统计
준-쌍곡선 할인에서는 최적 정책이 시간에 따라 달라질 수 있다.
나이브하거나 충동적인 미래 자아가 처음에 최적이었던 정책에서 벗어날 수 있다.
마르코프 완전 균형(MPE) 개념을 도입하여 이 문제를 해결할 수 있다.
본 연구에서는 MPE를 찾는 최초의 모델 없는 강화 학습 알고리즘을 제안하였다.
두 시간 척도 분석을 통해 알고리즘이 수렴하면 그 극한이 MPE임을 보였다.
재고 관리 시스템 실험에서 다양한 MPE를 성공적으로 식별하였다.
引用
"대부분의 사람들은 오늘 사과 하나를 받는 것을 내일 사과 두 개를 받는 것보다 선호하지만, 51일 후 사과 두 개를 받는 것을 50일 후 사과 하나를 받는 것보다 선호한다."
Richard Thaler