이 논문은 대형 언어 모델(LLM)의 견고성 문제를 다룹니다. LLM은 사용자 지침을 따르고 유용한 응답을 생성하는 데 큰 성공을 거두었지만, 여전히 일관성이 부족한 문제가 있습니다.
논문에서는 먼저 일관성 문제를 정량적으로 정의하고 분석합니다. 현재 LLM의 일관성 수준을 측정하기 위해 일관성 비율(CR) 및 최대 일관성 비율(MCR)이라는 두 가지 지표를 제안합니다.
이어서 두 단계의 학습 프레임워크를 제안합니다:
실험 결과, 제안한 프레임워크를 통해 Vicuna 및 LLama2 모델의 일관성과 ROUGE 점수가 크게 향상되었습니다. 특히 Vicuna-13B + SFT(IA) + CAT 모델이 GPT-4를 능가하는 성능을 보였습니다.
Başka Bir Dile
kaynak içeriğinden
arxiv.org
Önemli Bilgiler Şuradan Elde Edildi
by Zhao Yukun,Y... : arxiv.org 03-22-2024
https://arxiv.org/pdf/2403.14221.pdfDaha Derin Sorular