Core Concepts
대규모 언어 모델의 잠재적 지식을 신뢰성 있게 추정하기 위해 문맥 학습 기반 접근법을 제안하고, 이를 기존 프롬프트 기반 방식과 비교 분석한다.
Abstract
이 연구는 대규모 언어 모델(LLM)에 내재된 잠재적 지식을 추정하는 새로운 접근법을 제안한다. 기존의 프롬프트 기반 방식이 가진 신뢰성 문제를 해결하기 위해 문맥 학습(ICL) 기능을 활용한다. 제안하는 ICL 기반 잠재 지식 추정기(IC-LKE)는 개념적으로 단순하고 적용이 용이하며, 기존 방식보다 LLM에 내재된 지식을 더 잘 포착할 수 있다.
IC-LKE의 성능을 높이기 위해 다양한 설계 선택사항의 영향을 분석한다. 예를 들어 문맥 예시의 개수, 알 수 없거나 잘못된 예시의 영향 등을 살펴본다. 이를 통해 효율적인 ICL 기반 지식 추정기(EIC-LKE)를 제안한다.
제안한 IC-LKE와 EIC-LKE를 사용하여 OPT, Pythia, Llama(2), Mistral, Gemma 등 다양한 오픈소스 LLM의 사실 지식을 대규모로 평가한다. 모델 군집 간, 모델 크기 간, 그리고 기본 모델과 fine-tuned 모델 간 지식 차이를 관찰한다.
Stats
대규모 언어 모델은 일부 관계에 대해 일관되게 더 많은 지식을 가지고 있다.
더 큰 모델일수록 더 많은 지식을 내재하고 있지만, 동일한 데이터로 학습한 모델들 간에도 구체적인 사실 지식에는 차이가 있다.
Fine-tuning은 모델의 잠재적 지식 수준을 감소시킨다.
Quotes
"우리는 대규모 언어 모델(LLM)에 내재된 잠재적 지식을 추정하기 위한 접근법을 제안한다. 우리는 LLM의 문맥 학습(ICL) 능력을 활용하여 지식 베이스에 저장된 사실을 알아내는 정도를 추정한다."
"제안하는 지식 추정기는 신뢰성 문제가 있는 이전 프롬프트 기반 방식에 비해 개념적으로 더 단순하고 적용이 용이하며, LLM에 내재된 지식을 더 잘 포착할 수 있음을 보여준다."