核心概念
대규모 언어 모델은 사실과 부합하지 않거나 입력 문맥과 일치하지 않는 출력을 생성하는 경향이 있다. 이 논문은 다양한 벤치마크를 통해 각 모델의 환각 경향을 정량적으로 측정하고 비교하는 환각 리더보드를 소개한다.
要約
이 논문은 대규모 언어 모델(LLM)의 환각 경향을 체계적으로 측정하고 비교하기 위한 환각 리더보드를 소개한다.
-
환각의 두 가지 유형:
- 사실성 환각: 모델이 생성한 내용이 사실과 부합하지 않는 경우
- 충실성 환각: 모델의 출력이 주어진 정보 소스와 일치하지 않는 경우
-
다양한 벤치마크 과제를 통해 LLM의 환각 경향 평가:
- 폐쇄형 오픈 도메인 질문 답변, 요약, 읽기 이해, 지시 따르기, 사실 확인, 환각 탐지 등
-
20개의 LLM을 대상으로 평가를 수행하며, 각 모델은 별도의 학습 없이 제한된 문맥 예시를 통해 평가된다.
-
결과 분석:
- 모델 크기와 유형에 따른 환각 경향의 차이 관찰
- 지시 학습이 충실성 향상에 기여하지만 사실성 향상으로 이어지지 않는 경향 확인
- 모델 크기 증가가 사실성 향상에 기여하는 경향 확인
-
이 리더보드는 연구자와 실무자가 신뢰할 수 있는 모델을 선택하고 LLM의 환각 문제를 해결하는 데 도움이 될 것으로 기대된다.
統計
대규모 언어 모델은 사실과 부합하지 않거나 입력 문맥과 일치하지 않는 출력을 생성하는 경향이 있다.
환각 리더보드는 다양한 벤치마크 과제를 통해 20개의 LLM의 환각 경향을 평가한다.
모델 크기와 유형에 따라 환각 경향에 차이가 있음이 관찰되었다.
지시 학습은 충실성 향상에 기여하지만 사실성 향상으로 이어지지 않는 경향이 있다.
모델 크기 증가는 사실성 향상에 기여하는 경향이 있다.
引用
"Large Language Models (LLMs) have transformed the Natural Language Processing (NLP) landscape with their remarkable ability to understand and generate human-like text. However, these models are prone to "hallucinations" — outputs that do not align with factual reality or the input context."
"To systematically quantify the impact of hallucinations in several downstream tasks, we present the Hallucinations Leaderboard, a platform for evaluating the hallucination tendencies of LLMs."
"Our results show variances across models and tasks, offering insights into the strengths and weaknesses of different LLMs in handling hallucinations."