Core Concepts
본 연구는 희소 연결 대기열 네트워크에서 효율적이고 확장 가능한 부하 균형 정책을 학습하는 방법을 제안한다. 평균장 제어 이론과 강화 학습을 결합하여 이를 달성한다.
Abstract
본 논문은 대규모 분산 대기열 시스템에서 효율적이고 확장 가능한 부하 균형 정책을 학습하는 방법을 제안한다.
대기열 시스템을 희소 연결 그래프로 모델링하여 국지적 상호작용을 고려한다.
평균장 제어 이론을 활용하여 단일 에이전트 문제로 축소하고, 이에 대한 이론적 보장을 제공한다.
강화 학습 기법을 사용하여 제안된 평균장 제어 문제를 해결하고, 다양한 실제 네트워크 토폴로지에서 우수한 성능을 보인다.
핵심 내용은 다음과 같다:
희소 연결 대기열 네트워크를 그래프로 모델링하고, 이에 대한 평균장 제어 문제를 정의한다.
이론적 근거를 바탕으로 평균장 제어 문제를 단일 에이전트 강화 학습 문제로 변환한다.
강화 학습 기법을 활용하여 다양한 실제 네트워크 토폴로지에서 우수한 성능의 부하 균형 정책을 학습한다.
Stats
대기열 시스템의 총 도착률은 N*λ(t)이다.
각 대기열의 서비스 율은 α로 고정되어 있다.
에이전트는 자신의 대기열과 최대 d개의 이웃 대기열에 대한 정보만 접근할 수 있다.
Quotes
"Scalable load balancing algorithms are of great interest in cloud networks and data centers, necessitating the use of tractable techniques to compute optimal load balancing policies for good performance."
"However, most existing scalable techniques, especially asymptotically scaling methods based on mean field theory, have not been able to model large queueing networks with strong locality."