Concepts de base
본 논문에서는 대규모 언어 모델(LLM)의 블랙박스 특성에도 불구하고 출력의 신뢰도를 엄격하게 보장하는 새로운 불확실성 정량화 방법론인 ConU를 제시합니다.
Résumé
ConU: 올바른 답변 커버리지 보장을 통한 대규모 언어 모델의 형식적 불확실성
본 연구 논문에서는 대규모 언어 모델(LLM)에서의 불확실성 정량화(UQ) 문제를 다루고, 특히 최신 LLM의 블랙박스 특성으로 인해 심화되는 문제에 주목합니다. 저자들은 개방형 자연어 생성(NLG) 작업에서 블랙박스 LLM에 적용 가능한 형식적 예측(CP) 기법을 소개합니다. CP는 어떠한 불확실성 개념도 엄격한 예측 집합으로 변환할 수 있는 강력한 방법론입니다.
본 연구의 주요 목표는 블랙박스 LLM에서 생성된 텍스트의 신뢰도를 정량화하고, 사용자가 지정한 오류율 이하로 정답 포함을 보장하는 예측 집합을 생성하는 것입니다.
자가 일관성 기반 불확실성 측정: LLM의 출력 공간에서 동일한 프롬프트에 대해 생성된 여러 답변의 의미적 다양성을 분석하여 불확실성을 측정합니다.
샘플링된 답변들을 의미적 클러스터링을 통해 그룹화하고, 각 클러스터의 발생 빈도와 클러스터 간의 일관성을 결합하여 불확실성 점수를 계산합니다.
형식적 불확실성 기준: 불확실성 점수를 기반으로 정답과 밀접하게 연관된 불확실성 조건을 정의하고, 이를 활용하여 형식적 불확실성 기준을 개발합니다.
소량의 독립적이고 동일하게 분포된(i.i.d.) 검증 데이터를 사용하여 불확실성 기준을 도출합니다.
예측 집합 생성: 테스트 샘플에 대해 불확실성 기준을 충족하는 답변들을 선택하여 예측 집합을 구성합니다.
이 예측 집합은 사용자가 지정한 오류율 이하로 정답을 포함하도록 보장됩니다.