이 논문은 ReLU 신경망의 과적합 유형을 분석한다.
1차원 데이터에서는 온화한 과적합이 발생하며, 이는 신경망이 KKT 조건을 만족하거나 국소 최소점에 수렴할 때 성립한다. 이때 테스트 오류는 잡음 수준 p에 대해 선형적으로 증가한다.
반면 고차원 데이터에서는 양호한 과적합이 발생한다. 신경망이 최대 마진 문제의 해에 수렴하거나, 특정 가정 하에서 KKT 조건을 만족하는 경우, 테스트 오류가 지수적으로 0으로 수렴한다.
중간 차원에서는 온화한 과적합에서 양호한 과적합으로의 점진적인 전환이 관찰된다. 이는 이론적 결과를 넘어서는 것으로, 입력 차원과 샘플 수의 비율이 과적합 유형에 중요한 역할을 함을 보여준다.
또한 편향 항이 없는 신경망의 경우 재앙적 과적합이 발생할 수 있음을 보였다. 이는 편향 항이 양호한 과적합을 위해 필수적임을 시사한다.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Guy Kornowsk... at arxiv.org 03-22-2024
https://arxiv.org/pdf/2305.15141.pdfDeeper Inquiries