본 논문에서는 최근 각광받는 대규모 언어 모델(LLM)의 지식 업데이트 기법인 모델 편집의 효과와 잠재적 문제점을 실험적으로 분석하고, 기존 방법들이 모델의 일반적인 성능 저하를 피할 수 없음을 보여줍니다. 특히, 편집 횟수가 증가함에 따라 모델의 지식 구조가 파괴되어 심각한 성능 저하를 야기할 수 있으며, 안전성 또한 저하될 수 있음을 강조합니다.
대규모 언어 모델(LLM)의 단방향 지식 편집은 역방향으로 지식을 회상하는 능력이 부족하여 새로운 지식을 완전히 이해하기보다는 암기하는 경향을 보인다.
대규모 언어 모델(LLM)의 최신 지식 유지를 위한 모델 편집 기법인 SAUL은 문장 연결 및 무작위 사실 증강을 통해 생성 정규화를 수행하여 기존 방법 대비 높은 편집 성능과 생성 품질을 동시에 달성한다.