Khái niệm cốt lõi
보조 분포 방법(ADM)을 사용하여 감독 학습 시나리오에서 새로운 기대 일반화 오차 상한을 도출하였다. 이 상한은 α-Jensen-Shannon 정보 및 α-Rényi 정보를 활용하며, 기존 상한보다 더 엄밀하고 유한할 수 있다.
Tóm tắt
이 논문에서는 기계 학습 모델의 일반화 성능을 이해하는 데 필수적인 일반화 오차 상한을 도출하는 새로운 방법인 보조 분포 방법(ADM)을 제안한다.
ADM을 사용하여 다음과 같은 새로운 기대 일반화 오차 상한을 도출하였다:
- α-Jensen-Shannon 정보를 활용한 상한: 이 상한은 유한하며, 기존 상한보다 더 엄밀할 수 있다.
- α-Rényi 정보(0 < α < 1)를 활용한 상한: 이 상한은 결정론적 학습 알고리즘에서도 유한할 수 있으며, 기존 상한과 동일한 수렴 속도를 가진다.
또한 ADM을 활용하여 다음과 같은 결과를 도출하였다:
- 정규화된 경험적 위험 최소화 학습 알고리즘의 초과 위험에 대한 상한
- 훈련 데이터와 테스트 데이터의 분포 불일치 시나리오에서의 일반화 오차 상한
이러한 새로운 상한은 기존 상한보다 더 엄밀하고 유한할 수 있다.
Thống kê
데이터 샘플과 가설 사이의 KL divergence는 일반화 오차 상한을 결정하는 핵심 요소이다.
보조 분포를 적절히 선택하면 α-Jensen-Shannon 정보 및 α-Rényi 정보를 활용한 더 엄밀한 상한을 도출할 수 있다.
결정론적 학습 알고리즘의 경우 α-Rényi 정보(0 < α < 1)를 활용한 상한이 유한할 수 있다.
Trích dẫn
"우리의 새로운 상한은 기존 상한보다 더 엄밀하고 유한할 수 있다."
"보조 분포 방법(ADM)을 사용하여 새로운 기대 일반화 오차 상한을 도출하였다."
"α-Jensen-Shannon 정보 및 α-Rényi 정보를 활용한 상한은 기존 상한보다 더 엄밀할 수 있다."