Główne pojęcia
대형 언어 모델의 일관성 문제를 정량적으로 정의하고, 지침 증강 감독 미세 조정과 일관성 정렬 학습이라는 2단계 학습 프레임워크를 제안하여 모델의 견고성을 향상시킨다.
Streszczenie
이 논문은 대형 언어 모델(LLM)의 견고성 문제를 다룹니다. LLM은 사용자 지침을 따르고 유용한 응답을 생성하는 데 큰 성공을 거두었지만, 여전히 일관성이 부족한 문제가 있습니다.
논문에서는 먼저 일관성 문제를 정량적으로 정의하고 분석합니다. 현재 LLM의 일관성 수준을 측정하기 위해 일관성 비율(CR) 및 최대 일관성 비율(MCR)이라는 두 가지 지표를 제안합니다.
이어서 두 단계의 학습 프레임워크를 제안합니다:
- 지침 증강 감독 미세 조정(SFT(IA)): 유사한 지침 증강을 통해 모델이 지침을 따르는 일반화 능력을 향상시킵니다.
- 일관성 정렬 학습(CAT): 모델이 유사한 응답 간의 미묘한 차이를 이해하고 인간의 기대에 더 잘 부합하는 응답을 생성할 수 있도록 합니다. 이 단계에서는 모델 자체의 보상을 활용하여 선호도를 직접 최적화합니다.
실험 결과, 제안한 프레임워크를 통해 Vicuna 및 LLama2 모델의 일관성과 ROUGE 점수가 크게 향상되었습니다. 특히 Vicuna-13B + SFT(IA) + CAT 모델이 GPT-4를 능가하는 성능을 보였습니다.
Statystyki
대형 언어 모델의 일관성 비율(CR)은 0.8303으로 나타났다.
대형 언어 모델의 최대 일관성 비율(MCR)은 0.8693으로 나타났다.
Cytaty
"LLMs는 사용자 지침을 따르고 유용한 응답을 생성하는 데 큰 성공을 거두었지만, 여전히 일관성이 부족한 문제가 있습니다."
"우리는 먼저 일관성 문제를 정량적으로 정의하고 분석합니다."
"우리는 두 단계의 학습 프레임워크를 제안합니다: 지침 증강 감독 미세 조정(SFT(IA))과 일관성 정렬 학습(CAT)."