핵심 개념
입력 차원이 증가함에 따라 ReLU 신경망의 과적합 유형이 온화한 과적합에서 양호한 과적합으로 전환된다.
초록
이 논문은 ReLU 신경망의 과적합 유형을 분석한다.
1차원 데이터에서는 온화한 과적합이 발생하며, 이는 신경망이 KKT 조건을 만족하거나 국소 최소점에 수렴할 때 성립한다. 이때 테스트 오류는 잡음 수준 p에 대해 선형적으로 증가한다.
반면 고차원 데이터에서는 양호한 과적합이 발생한다. 신경망이 최대 마진 문제의 해에 수렴하거나, 특정 가정 하에서 KKT 조건을 만족하는 경우, 테스트 오류가 지수적으로 0으로 수렴한다.
중간 차원에서는 온화한 과적합에서 양호한 과적합으로의 점진적인 전환이 관찰된다. 이는 이론적 결과를 넘어서는 것으로, 입력 차원과 샘플 수의 비율이 과적합 유형에 중요한 역할을 함을 보여준다.
또한 편향 항이 없는 신경망의 경우 재앙적 과적합이 발생할 수 있음을 보였다. 이는 편향 항이 양호한 과적합을 위해 필수적임을 시사한다.
통계
p(1-p)은 음성 표본의 비율을 나타내며, 이는 테스트 오류의 하한을 결정한다.
d는 입력 차원이며, 차원이 증가할수록 테스트 오류가 지수적으로 감소한다.
n은 뉴런의 수이며, 이는 과적합 유형에 큰 영향을 미치지 않는 것으로 관찰되었다.
인용구
"입력 차원이 중요한 역할을 한다는 것을 보여준다."
"편향 항이 양호한 과적합을 위해 필수적임을 시사한다."