이 연구는 모델 붕괴 현상을 이론적으로 분석하고 실험적으로 검증했다.
선행 연구에서는 모델이 자신이 생성한 데이터로 학습하면 성능이 점점 나빠지는 모델 붕괴 현상이 발생한다고 보고했다. 그러나 이 연구에서는 데이터를 축적하면 모델 붕괴를 방지할 수 있다는 것을 보였다.
이론적 분석에서는 선형 회귀 모델을 대상으로 데이터를 대체하는 경우와 축적하는 경우를 비교했다. 데이터를 대체하면 테스트 오차가 선형적으로 증가하지만, 데이터를 축적하면 테스트 오차가 유한한 상한값으로 수렴한다는 것을 증명했다.
실험에서는 언어 모델, 분자 생성 모델, 이미지 생성 모델 등 다양한 생성 모델을 대상으로 데이터 대체와 축적 실험을 진행했다. 모든 경우에서 데이터를 대체하면 모델 성능이 점점 나빠지지만, 데이터를 축적하면 모델 성능이 유지되는 것을 확인했다.
이 연구 결과는 향후 웹 규모의 데이터로 생성 모델을 학습할 때 데이터 축적이 모델 붕괴를 방지하는 데 도움이 될 수 있음을 시사한다.
Til et annet språk
fra kildeinnhold
arxiv.org
Viktige innsikter hentet fra
by Matthias Ger... klokken arxiv.org 04-03-2024
https://arxiv.org/pdf/2404.01413.pdfDypere Spørsmål