Core Concepts
LLM의 지식을 편집하여 코드 생성 작업의 성능을 향상시킬 수 있다.
Abstract
이 논문은 코드 생성 작업을 위한 LLM 모델 편집 기법인 MENT를 제안한다. MENT는 효과적이고 효율적이며 신뢰할 수 있는 접근 방식이다. 이 기법은 1개 또는 2개의 뉴런을 패칭하여 신경망 모델을 수정할 수 있다. 생성 모델의 뉴런 수준 모델 편집에 대한 선구적인 연구로서, 편집 프로세스를 공식화하고 관련 개념을 소개한다. 또한 일반화 능력을 평가하기 위한 새로운 지표를 도입하고 추가 연구를 위한 벤치마크를 구축했다. 제안된 접근 방식은 API 시퀀스 추천, 라인 수준 코드 생성, 의사 코드-코드 변환 등 3가지 코딩 작업에서 평가되었다. 실험 결과, MENT는 효과와 효율 측면에서 기존 최신 기법을 크게 능가하는 것으로 나타났다. 또한 MENT를 통해 LLM의 추론 능력을 설명할 수 있음을 보였다. LLM의 지식을 편집하면 API 호출 체인에 직간접적으로 의존하는 행동이 그에 따라 변경된다. 이는 LLM 수정의 중요성을 설명한다.
Stats
제안된 접근 방식 MENT는 코드 생성 작업에서 기존 최신 기법 대비 효과와 효율 측면에서 크게 향상된 성능을 보였다.
MENT는 LLM 오류를 해결하기 위해 평균 1-2개의 뉴런만 패칭하면 되는 반면, 기존 기법 KN은 평균 5개 이상의 뉴런을 패칭해야 한다.
MENT의 스킵 액션 비율은 약 5-11%인 반면, KN은 80-97%로 매우 높다.
Quotes
"LLM의 지식을 편집하면 API 호출 체인에 직간접적으로 의존하는 행동이 그에 따라 변경된다. 이는 LLM 수정의 중요성을 설명한다."
"MENT는 효과적이고 효율적이며 신뢰할 수 있는 접근 방식이다. 이 기법은 1개 또는 2개의 뉴런을 패칭하여 신경망 모델을 수정할 수 있다."