Kernekoncepter
대형 언어 모델에게 자신의 지식 한계를 인정하고 모르겠다고 표현하는 능력을 가르치는 새로운 접근법을 제안한다.
Resumé
이 논문은 대형 언어 모델(LLM)의 주요 문제점인 허구적 사실 생성(hallucination)을 해결하기 위한 새로운 접근법을 제안한다. 저자들은 LLM의 사전 학습된 지식과 지시 학습 데이터 간의 지식 격차가 허구적 사실 생성의 주요 원인이라고 지적한다. 기존 지시 학습 방식은 모델에게 질문에 대한 답변을 강요하지만, 이는 모델이 자신의 지식 한계를 인정하지 못하게 만든다.
이에 저자들은 "거절 인지 지시 학습(R-Tuning)"이라는 새로운 방법을 제안한다. R-Tuning은 두 단계로 구성된다. 첫째, 모델의 사전 학습된 지식과 지시 학습 데이터 간의 지식 격차를 측정하여 불확실한 질문을 식별한다. 둘째, 확실한 질문과 불확실한 질문을 구분하여 "확실합니다" 또는 "모르겠습니다"와 같은 표현을 추가한 데이터셋을 구축하여 모델을 학습시킨다.
실험 결과, R-Tuning은 기존 방식에 비해 정확도와 정밀도 측면에서 우수한 성능을 보였다. 또한 R-Tuning은 특정 과제에 국한되지 않고 다양한 과제에서 일반화된 거절 능력을 보여주었다. 이는 거절 능력이 메타 기술로 작용하며, 다중 과제 학습을 통해 향상될 수 있음을 시사한다.
추가 분석을 통해 저자들은 R-Tuning이 불확실성 학습을 통해 모델의 정확도와 불확실성 추정 능력을 향상시킨다는 점을 발견했다. 이는 모델 학습 과정에서 불확실성을 고려하는 것이 중요함을 보여준다.
Statistik
모델이 확실한 질문에 대해 93.23%의 정확도를 보였지만, 불확실한 질문에 대해서는 69.41%의 정확도를 보였다.
모델이 확실한 질문에 대해 평균 perplexity 57.92를 보였지만, 불확실한 질문에 대해서는 평균 perplexity 63.08을 보였다.
모델이 확실한 질문에 대해 평균 entropy 0.426을 보였지만, 불확실한 질문에 대해서는 평균 entropy 0.709를 보였다.
Citater
"모델에게 자신의 지식 한계를 인정하고 모르겠다고 표현하는 능력을 가르치는 것이 중요하다."
"R-Tuning은 모델의 정확도와 불확실성 추정 능력을 향상시킨다."