核心概念
대규모 언어 모델의 지식 편집 과정에서 발생하는 성능 저하 현상은 편집 대상의 다양성, 토큰 길이, 편집 레이어의 L1-norm 폭증과 관련이 있으며, 이를 해결하기 위해 제안된 D4S 기법은 이전 지식을 효율적으로 유지하고 매개변수 레이어의 폭발적인 증가를 조절하여 모델 손상을 최소화하면서 여러 번의 효과적인 편집을 가능하게 한다.
摘要
수정 후 모델 성능 저하 현상 분석 및 D4S 기법을 통한 성능 향상
본 연구는 대규모 언어 모델(LLM)에서 지식 편집 기술 적용 후 발생하는 성능 저하 현상의 원인을 분석하고, 이를 해결하기 위한 최적화 방법을 제시하는 것을 목표로 한다.
전반적인 성능 평가
다양한 지식 편집 데이터셋(zsRE, ELKEN, 20Q, CKD)과 평가 데이터셋(AI2 Reasoning Challenge, HellaSwag, MMLU, TruthfulQA, WinoGrande, GSM-8K)을 사용하여 지식 편집 후 모델의 성능을 평가한 결과, 편집 대상의 형태에 따라 성능 저하 정도가 다르게 나타나는 것을 확인했다. 특히, 편집 대상이 0/1 레이블 형태인 20Q 데이터셋의 경우 다른 데이터셋에 비해 성능 저하가 적게 나타났다.
MQD 데이터셋 구축 및 편집 목표의 영향 분석
다양한 유형의 질문(참/거짓, 객관식, 직접 생성)과 이에 대응하는 편집 목표(yes/no, a/b/c/d, 엔티티/이벤트)로 구성된 MQD 데이터셋을 구축하여 실험을 진행했다. 그 결과, 편집 목표의 perplexity(PPL) 값이 높을수록, 즉 편집 대상의 다양성이 높고 토큰 길이가 길수록 편집된 모델의 성능 저하가 심각해지는 것을 확인했다.