Core Concepts
대형 언어 모델의 사전 학습 버전과 미세 조정된 버전 간의 우도 비율은 효과적인 Out-of-distribution 탐지 기준으로 활용될 수 있다.
Abstract
이 논문은 대형 언어 모델(LLM)의 사전 학습 버전과 미세 조정된 버전 간의 우도 비율을 Out-of-distribution(OOD) 탐지를 위한 기준으로 제안한다.
핵심 내용은 다음과 같다:
사전 학습된 LLM은 광범위한 데이터로 인해 OOD 데이터에 대한 사전 지식을 가지고 있다.
이 LLM을 특정 도메인의 데이터로 미세 조정하면 in-distribution과 OOD의 차이를 구분할 수 있는 충분한 지식을 가지게 된다.
사전 학습 LLM과 미세 조정된 LLM 간의 우도 비율을 OOD 탐지 기준으로 활용하면 효과적이다.
이 방법은 현재 널리 사용되는 LLM과 미세 조정된 모델을 활용할 수 있어 추가 학습 없이 구현할 수 있다.
다양한 실험 결과를 통해 이 방법의 효과성을 입증했다.
Stats
대형 언어 모델은 7조 개의 토큰으로 학습되었다.
미세 조정된 모델은 특정 도메인의 데이터로 학습되었다.
Quotes
"사전 학습된 LLM은 광범위한 데이터로 인해 OOD 데이터에 대한 사전 지식을 가지고 있다."
"이 LLM을 특정 도메인의 데이터로 미세 조정하면 in-distribution과 OOD의 차이를 구분할 수 있는 충분한 지식을 가지게 된다."