Core Concepts
대규모 언어 모델(LLM)의 지식을 지속적으로 업데이트하고 수정하는 효과적이고 효율적인 방법인 검색 기반 연속 프롬프트 학습 기법을 제안한다.
Abstract
이 논문은 대규모 언어 모델(LLM)의 지식을 지속적으로 업데이트하고 수정하는 효과적이고 효율적인 방법인 RECIPE(RetriEval-augmented ContInuous Prompt lEarning) 프레임워크를 소개한다.
RECIPE의 주요 기술은 다음과 같다:
지식 표현을 연속 프롬프트로 변환하여 LLM의 응답을 효율적으로 수정한다.
동적 프롬프트 검색을 위한 Knowledge Sentinel(KS) 모듈을 도입하여 각 쿼리에 적합한 유사도 임계값을 동적으로 계산한다.
프롬프트 인코더와 검색기를 함께 학습하여 편집 특성(신뢰성, 일반성, 지역성)을 달성한다.
실험 결과, RECIPE는 다양한 LLM 및 편집 데이터셋에서 우수한 편집 성능을 보였으며, 편집 및 추론 속도 면에서도 큰 이점을 보였다.
Stats
대규모 언어 모델의 지식은 시간이 지남에 따라 오래되거나 잘못될 수 있다.
기존 편집 방법은 단일 또는 일괄 편집에 초점을 맞추었지만, 지속적인 편집 시나리오에서는 지식 망각과 모델 성능 저하 문제가 발생한다.
검색 기반 방법은 이러한 문제를 완화할 수 있지만, 검색된 지식을 모델에 통합하는 과정이 복잡하고 비효율적이다.
Quotes
"대규모 언어 모델(LLMs)은 NLP의 핵심 기술이 되었지만, 일단 학습되면 모델에 포함된 지식이 정적이 된다."
"모델 편집 기술은 LLMs의 출력을 최신화하고 정확성을 높이는 데 도움이 된다."