이 논문은 자기 플레이를 통한 언어 모델 정렬 과정에서 다양한 정규화 기법의 효과를 탐구하였다.
먼저, 기존 SPIN 방법에 KL 정규화 항을 추가한 α-SPIN 프레임워크를 제안하였다. 이를 통해 모델이 기준 모델에 근접하게 학습되도록 하였다.
또한 과거 모델들의 평균을 이용하여 부정적 답변을 생성하는 가상 플레이 접근법을 도입하였다. 이는 모델의 성능 변동을 완화하고 안정적인 학습을 가능하게 한다.
실험 결과, KL 정규화와 가상 플레이 접근법이 MT-Bench와 Hugging Face Open LLM Leaderboard 등의 벤치마크에서 모델 성능 향상에 도움이 되는 것으로 나타났다. 특히 가상 플레이는 3차 반복부터 SPIN 및 변형 모델들의 성능을 개선하는 것으로 확인되었다.
Vers une autre langue
à partir du contenu source
arxiv.org
Questions plus approfondies