이 논문은 ROME과 MEMIT이라는 두 가지 주요 모델 편집 방법을 통합하는 개념적 프레임워크를 제시한다.
ROME과 MEMIT은 모두 보존-기억화 목적함수를 최적화한다. 이 목적함수는 선택된 입력 벡터의 표현을 보존하면서 새로운 사실을 모델에 주입하는 것을 목표로 한다. ROME은 등식 제약을 사용하여 기억화를 수행하는 반면, MEMIT은 최소 제곱 목적함수를 사용한다. 이를 통해 MEMIT은 일괄 편집을 위한 폐쇄형 해를 얻을 수 있다.
또한 MEMIT은 편집 분포 알고리즘을 통해 다중 레이어 편집을 수행한다. 이 논문에서는 편집 분포 알고리즘을 목적함수와 분리하여 다룬다. 실험 결과, MEMIT의 편집 분포 알고리즘은 GPT2-XL과 GPT-J에서 성능 향상을 가져오지만 Llama-2-7b에서는 오히려 성능을 저하시킨다. 이를 통해 편집 분포 알고리즘에 대한 추가 연구의 필요성을 강조한다.
마지막으로 이 논문은 EMMET(Equality-constrained Mass Model Editing algorithm for Transformers)을 소개한다. EMMET은 등식 제약 하에서 일괄 편집을 수행하는 새로운 알고리즘으로, ROME과 MEMIT을 통합하는 역할을 한다. EMMET은 256개의 배치 크기까지 MEMIT과 유사한 성능을 보이지만, 그 이상의 배치 크기에서는 성능이 저하된다. 이는 등식 제약이 너무 강해 많은 (충돌 가능성이 있는) 사실을 동시에 편집하기 어렵기 때문으로 보인다.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Akshat Gupta... at arxiv.org 03-22-2024
https://arxiv.org/pdf/2403.14236.pdfDeeper Inquiries