核心概念
그래프 신경망 기반 다중 에이전트 강화 학습 방법인 MAGEC를 통해 에이전트 감소, 부분적 관측성, 제한적 또는 방해받는 통신 환경에서도 전역 목표를 위한 분산 협업이 가능하다.
摘要
이 연구는 그래프 신경망(GNN) 기반 다중 에이전트 강화 학습(MARL) 방법인 MAGEC를 제안한다. MAGEC는 다중 에이전트 근접 정책 최적화(MAPPO)를 사용하여 학습되며, 에이전트 감소, 부분적 관측성, 제한적 또는 방해받는 통신 환경에서도 전역 목표를 위한 분산 협업을 가능하게 한다.
MAGEC의 핵심 구성요소는 다음과 같다:
- 노드와 엣지 특징을 모두 고려하는 GNN 기반 그래프 임베딩
- 이웃 점수 매기기 메커니즘을 통한 이산적 경로 탐색
- 지연된 보상과 희소 행동을 처리하기 위한 MAPPO 알고리즘의 개선
MAGEC는 다중 로봇 순찰 시나리오에 적용되었으며, ROS 2 기반 시뮬레이터에서 평가되었다. 실험 결과, MAGEC는 에이전트 감소와 통신 방해가 있는 경우에도 기존 방법들을 능가하는 성능을 보였다. 또한 이러한 방해 요인이 없는 경우에도 경쟁력 있는 결과를 제공했다.
統計資料
에이전트 감소와 통신 방해가 없는 경우, MAGEC의 평균 유휴 시간이 기존 방법들보다 낮았다.
에이전트 감소와 10% 통신 성공률이 있는 경우, MAGEC의 평균 유휴 시간이 기존 방법들보다 크게 낮았다.
MAGEC는 통신 성공률이 0%인 경우를 제외하고, 다양한 통신 환경에서 강력한 성능을 보였다.
引述
"기존 다중 에이전트 협업 기술은 종종 취약하고 에이전트 감소, 통신 방해 등의 이상 상황에 취약하다."
"MAGEC는 에이전트 감소, 부분적 관측성, 제한적 또는 방해받는 통신 환경에서도 전역 목표를 위한 분산 협업을 가능하게 한다."