이 연구는 최신 대규모 언어 모델인 Llama-3을 대상으로 한 모델 편집 분석을 제시한다. ROME, MEMIT, EMMET과 같은 인기 있는 모델 편집 기법의 효과를 탐구한다. 가장 효과적인 편집 레이어를 식별하기 위해 최대 4096개의 편집을 포함하는 세 가지 전략(순차 편집, 배치 편집, 순차-배치 편집)을 평가한다. 연구 결과, 편집 배치 크기를 늘리는 것이 항상 더 나은 성능을 보이지는 않으며, 오히려 순차적 모델 편집이 모델 편집 방법의 확장에 중요한 요소임을 보여준다. 이는 현재 모델 편집 방법이 더 큰 편집 배치 크기를 추구하는 것에 대한 잠재적 한계를 시사하며, 배치 크기 최적화와 모델 편집 성능 향상에 대한 향후 연구의 필요성을 제기한다.
לשפה אחרת
מתוכן המקור
arxiv.org
תובנות מפתח מזוקקות מ:
by Junsang Yoon... ב- arxiv.org 05-02-2024
https://arxiv.org/pdf/2405.00664.pdfשאלות מעמיקות