Core Concepts
대규모 언어 모델의 일관성 정렬을 통해 지시 따르기 능력을 향상시킬 수 있다.
Abstract
이 논문은 대규모 언어 모델의 견고성 향상을 위한 새로운 훈련 프레임워크를 제안한다.
첫 번째 단계에서는 지시문 증강 감독 미세 조정(SFT(IA))을 수행하여 모델의 지시 따르기 일반화 능력을 향상시킨다.
두 번째 단계에서는 일관성 정렬 훈련(CAT)을 통해 모델이 유사한 응답 간의 미묘한 차이를 인식하고 사람의 기대에 더 잘 부합하는 응답을 생성하도록 한다.
이 훈련 과정은 외부 인간 선호 리소스를 참조하지 않고 첫 번째 단계에서 훈련된 모델에서 추론된 자체 보상을 통해 수행된다.
실험 결과, 제안된 훈련 프레임워크를 통해 Vicuna와 Llama 2 모델의 지시 따르기 능력이 크게 향상되었음을 확인할 수 있다.
Stats
지시문 증강 감독 미세 조정(SFT(IA)) 단계에서는 원래 지시문을 여러 가지로 바꾸어 모델의 일반화 능력을 높였다.
일관성 정렬 훈련(CAT) 단계에서는 모델 자체의 보상을 활용하여 유사한 응답 간의 미묘한 차이를 학습하도록 하였다.
Quotes
"최근 문헌은 이러한 일관성 문제를 탐색했지만, 체계적인 분석과 해결책은 여전히 부족하다."
"우리는 정량적으로 일관성 문제를 정의하고 지시문 증강 감독 미세 조정과 일관성 정렬 훈련으로 구성된 두 단계 훈련 프레임워크를 제안한다."