Core Concepts
대규모 언어 모델의 내부 지식을 효율적으로 업데이트하기 위해 주제 단어 임베딩을 변경하는 SWEA⊕OS 기법을 제안한다.
Abstract
이 논문은 대규모 언어 모델(LLM)의 내부 지식을 효율적으로 업데이트하는 SWEA⊕OS 기법을 제안한다.
SWEA⊕OS는 두 단계로 구성된다:
융합 단계: 최적화 후 억제(OS) 융합 방법을 사용하여 편집 임베딩을 계산한다. 이 방법은 먼저 편집 대상에 대한 학습 가능한 임베딩 벡터를 최적화한 후 주제의 지식 임베딩 차원(KED)을 억제하여 최종 편집 임베딩을 얻는다.
추론 단계: SWEA 프레임워크에서 입력 임베딩에 매칭된 편집 임베딩을 추가하여 최종 입력 임베딩을 얻는다.
SWEA⊕OS는 기존 방법보다 효율적이고 신뢰성 있는 편집 성능을 보여준다. COUNTERFACT와 zsRE 데이터셋에서 전반적으로 최고 수준의 성능을 달성했으며, 더 복잡한 RippleEdits 벤치마크에서도 최고 수준의 추론 능력을 보여주었다.
Stats
SWEA⊕OS는 기존 방법보다 GPT-J에서 47.8%, Llama-2에서 17.6% 더 적은 시간이 소요되었다.
SWEA⊕OS의 추론 시간은 원본 모델보다 약간 증가했지만 밀리초 단위로 여전히 허용 가능한 수준이다.
Quotes
"SWEA⊕OS는 기존 방법보다 효율적이고 신뢰성 있는 편집 성능을 보여준다."
"SWEA⊕OS는 COUNTERFACT와 zsRE 데이터셋에서 전반적으로 최고 수준의 성능을 달성했으며, 더 복잡한 RippleEdits 벤치마크에서도 최고 수준의 추론 능력을 보여주었다."