이 논문은 생성 모델 학습 시 합성 데이터를 활용하는 경우의 문제점과 해결책을 다룹니다.
먼저 저자들은 생성 모델을 자기 소비 방식으로 학습하면 모델 붕괴가 발생할 수 있음을 지적합니다. 이는 생성 모델이 자신의 출력을 다시 학습 데이터로 사용하면서 발생하는 문제입니다.
저자들은 이 문제를 해결하기 위해 자기 수정 함수를 제안합니다. 이 함수는 생성 모델이 출력한 합성 데이터를 실제 데이터 분포에 더 가깝게 보정합니다. 저자들은 이론적으로 이 자기 수정 과정이 자기 소비 루프의 안정성을 지수적으로 향상시킨다는 것을 증명합니다.
실험 결과에서도 자기 수정 기능을 적용한 모델이 그렇지 않은 모델에 비해 더 안정적이고 우수한 성능을 보였습니다. 특히 합성 데이터 비율이 높은 경우에도 자기 수정 기능이 모델 붕괴를 방지하는 데 효과적이었습니다.
저자들은 이 자기 수정 기능을 물리 시뮬레이터 기반의 모방 모델로 구현하였으며, 이를 통해 인간 동작 합성 과제에서 우수한 성능을 달성하였습니다.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Nate Gillman... at arxiv.org 04-08-2024
https://arxiv.org/pdf/2402.07087.pdfDeeper Inquiries