Core Concepts
대형 언어 모델의 자신감 표현 능력을 향상시키기 위해 과거 경험을 학습하는 방법을 제안한다.
Abstract
이 논문은 대형 언어 모델(LLM)의 자신감 표현 능력을 향상시키는 방법인 "과거 경험 학습(LePe)"을 제안한다. LLM은 다양한 작업에서 뛰어난 성능을 보이지만, 생성된 답변에 대한 신뢰도를 정확하게 표현하지 못하는 문제가 있다. 이를 해결하기 위해 저자들은 인지 진단 접근법에서 영감을 얻어 LePe 방법을 고안했다.
LePe는 크게 3단계로 구성된다:
테스트 단계: LLM의 고유한 자신감 수준을 평가하기 위해 다양한 질문에 대한 LLM의 응답을 기록한다.
학습 단계: 테스트 단계에서 수집한 응답 기록을 바탕으로 LLM이 자신감을 적절히 표현하도록 학습시킨다.
예측 단계: 새로운 질문에 대해 LLM이 자신감을 표현하는 능력을 검증한다.
또한 저자들은 LLM의 진정한 응답을 정확하게 포착하기 위해 질문 변형과 하이브리드 샘플링 전략을 사용하는 파이프라인을 설계했다.
실험 결과, LePe를 적용한 LLM은 자신감 표현 능력이 향상되어 응답의 정확도와 자신감 수준 간의 상관관계가 높아졌다. 또한 LePe는 다양한 도메인의 데이터에서도 효과적으로 작동하는 것으로 나타났다.
Stats
정답률이 65%인 경우, CuteGPT-13B 모델의 자신감 수준이 80-100%일 때 실제 정답률은 89.19%이다.
LLaMA2-Chat-13B 모델의 CommonsenseQA 데이터셋에 대한 정답률과 자신감 수준의 상관계수는 0.98이다.
Quotes
"LLM은 다양한 작업에서 뛰어난 성능을 보이지만, 생성된 답변에 대한 신뢰도를 정확하게 표현하지 못하는 문제가 있다."
"LePe는 LLM이 자신감을 적절히 표현하도록 학습시키는 방법이다."