이 논문은 대규모 언어 모델의 잘못된 정보와 지식 부족 문제를 해결하기 위한 새로운 모델 편집 기법인 SCEN(Scalable Model Editing via Customized Expert Networks)을 소개한다.
SCEN은 두 단계의 연속 학습 패러다임으로 구성된다:
첫 번째 단계에서는 각 편집 샘플에 대한 맞춤형 전문가 네트워크를 학습한다. 이를 통해 서로 다른 샘플 간의 간섭을 방지하고 편집의 신뢰성을 보장한다.
두 번째 단계에서는 각 전문가 네트워크에 대응하는 인덱싱 뉴런을 동적으로 추가하고 학습한다. 이를 통해 편집 과정에서 해당 전문가를 정확하게 활성화할 수 있다.
실험 결과, SCEN은 기존 모델 편집 방법들에 비해 질문-답변 및 잘못된 정보 완화 과제에서 우수한 성능을 보였다. 또한 SCEN은 원본 모델의 지식을 보존하면서도 새로운 정보를 효과적으로 통합할 수 있다.
이 연구는 대규모 언어 모델의 지식 저장 메커니즘에 대한 깊이 있는 탐구를 수행했으며, 이를 통해 언어 모델의 해석 가능성을 높이는 데 기여했다.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문