Core Concepts
다양한 데이터 분포에서 최소의 샘플로 최적의 모델을 학습하는 것이 핵심 목표이다.
Abstract
이 논문은 다중 분포 학습 문제를 다룬다. 다중 분포 학습은 사회적 고려사항, 공정성, 복지, 다중 에이전트 간 트레이드오프 등으로 인해 등장한 학습 패러다임이다. 이러한 설정에서 학습자는 n개의 사전 정의된 데이터 분포에 대해 기대 손실을 균일하게 최소화하는 것을 목표로 한다.
이 논문에서는 이러한 다중 분포 학습 문제의 최적 샘플 복잡도를 확립하고, 이를 달성하는 알고리즘을 제시한다. 특히 제안된 알고리즘의 샘플 복잡도는 단일 분포 학습의 샘플 복잡도에 비해 n log(n)/ε2의 추가적인 요인만 증가한다. 이는 기존 연구 결과보다 n 또는 log(n)/ε3 배 개선된 것이다.
제안 알고리즘은 온디맨드 샘플링을 통해 데이터 분포에서 필요한 만큼의 샘플을 학습한다. 알고리즘 설계와 분석은 스토캐스틱 제로섬 게임에 대한 온라인 학습 기법의 확장을 통해 가능했다.
Stats
단일 분포 학습 대비 추가적인 샘플 복잡도: n log(n)/ε2
기존 연구 대비 샘플 복잡도 개선 요인: n 또는 log(n)/ε3