Основные понятия
대규모 언어 모델을 활용하여 제로 및 소량 학습 기반의 환각 탐지 분류기를 개발하였으며, 이를 SemEval-2024 Task 6에 적용하여 경쟁적인 성과를 달성하였다.
Аннотация
이 논문은 SemEval-2024 Task 6에 참여한 SHROOM-INDElab 팀의 접근 방식을 설명한다. 이들은 대규모 언어 모델(LLM)을 활용하여 환각 탐지를 위한 분류기를 개발하였다.
- 제로 및 소량 학습 접근법을 사용하였다. 제로 학습 단계에서는 작업, 역할, 개념 정의를 활용하여 LLM에게 직접 분류를 수행하도록 하였다. 소량 학습 단계에서는 제로 학습 단계에서 생성된 예시를 활용하여 분류기를 학습시켰다.
- 온도 샘플링과 다수결 투표를 통해 분류 결과와 환각 확률을 산출하였다.
- 예시 선택 시 분류 결과의 다양성과 일관성을 고려하는 방식을 사용하였다.
- 실험 결과, 제안 시스템은 모델 비인지 및 모델 인지 트랙에서 각각 4위와 6위의 성과를 달성하였다. 또한 사람 평가와의 일치도가 높은 것으로 나타났다.
- 추가 실험을 통해 하이퍼파라미터 및 구성 요소의 영향을 분석하였다. 특히 환각 개념 정의의 중요성이 확인되었다.
향후 연구에서는 이 접근법을 제로 및 소량 학습 기반 체인 사고 분류기의 자연어 추론 평가에 적용할 계획이다.
Статистика
대규모 언어 모델을 활용하여 환각 탐지 분류기를 구축하였다.
제로 학습 접근법이 소량 학습 접근법보다 더 나은 정확도를 보였다.
모델 비인지 트랙에서 4위, 모델 인지 트랙에서 6위의 성과를 달성하였다.
사람 평가와의 일치도(Spearman's ρ)는 0.697로 중간 수준 이상의 상관관계를 보였다.
Цитаты
"Prompt engineering of large language models (LLMs) (Liu et al., 2023) has recently emerged as a viable approach to the automation of a wide range of natural language processing tasks."
"Recent work (Allen, 2023) has focused on the development of zero-shot chain-of-thought (Wei et al., 2022; Kojima et al., 2022) classifiers, where hallucination in generated rationales is a concern."
"The use of role play with LLMs is described by (Shanahan et al., 2023) and its use in the context of zero-shot reasoning is described in (Kong et al., 2023)."