이 연구는 최신 대규모 언어 모델인 Llama-3을 대상으로 한 모델 편집 분석을 제시한다. ROME, MEMIT, EMMET과 같은 인기 있는 모델 편집 기법의 효과를 탐구한다. 가장 효과적인 편집 레이어를 식별하기 위해 최대 4096개의 편집을 포함하는 세 가지 전략(순차 편집, 배치 편집, 순차-배치 편집)을 평가한다. 연구 결과, 편집 배치 크기를 늘리는 것이 항상 더 나은 성능을 보이지는 않으며, 오히려 순차적 모델 편집이 모델 편집 방법의 확장에 중요한 요소임을 보여준다. 이는 현재 모델 편집 방법이 더 큰 편집 배치 크기를 추구하는 것에 대한 잠재적 한계를 시사하며, 배치 크기 최적화와 모델 편집 성능 향상에 대한 향후 연구의 필요성을 제기한다.
إلى لغة أخرى
من محتوى المصدر
arxiv.org
الرؤى الأساسية المستخلصة من
by Junsang Yoon... في arxiv.org 05-02-2024
https://arxiv.org/pdf/2405.00664.pdfاستفسارات أعمق