이 논문은 지연 실행 환경에서의 강화 학습 문제를 다룬다. 기존의 마르코프 의사결정 과정(MDP) 프레임워크는 에이전트의 결정이 즉시 실행된다고 가정하지만, 실제 로봇공학, 헬스케어, 자율 시스템 등의 응용 분야에서는 지연이 발생한다.
저자들은 이러한 지연 실행 환경을 모델링하는 새로운 프레임워크인 확률적 지연 실행 MDP(SED-MDP)를 제안한다. 이 프레임워크에서 저자들은 지연 값이 관찰되는 경우, 마르코프 정책만으로도 최적 성능을 달성할 수 있음을 증명한다.
이를 바탕으로 저자들은 DEZ 알고리즘을 제안한다. DEZ는 EfficientZero 알고리즘을 확장하여 지연 실행 환경에 적용한다. DEZ는 과거 행동과 지연 값을 큐로 관리하여 미래 상태를 예측하고, 이를 바탕으로 정책을 최적화한다.
실험 결과, DEZ는 기존 방법들에 비해 일정 및 확률적 지연 환경에서 모두 우수한 성능을 보였다. 이는 DEZ가 지연 실행 환경에서 효과적으로 대응할 수 있음을 보여준다.
In un'altra lingua
dal contenuto originale
arxiv.org
Approfondimenti chiave tratti da
by David Valens... alle arxiv.org 04-09-2024
https://arxiv.org/pdf/2404.05440.pdfDomande più approfondite