이 논문은 대규모 언어 모델(LLM)의 행동을 빠르게 수정하는 강력하고 확장 가능한 편집 기술인 EREN을 제안한다.
주요 내용은 다음과 같다:
LLM이 관련 문맥 지식을 우선하고 관련 없는 문맥에 강인할 수 있도록 하는 프롬프팅 방법을 발견했다.
EREN은 편집 내용을 자연어 텍스트로 저장하는 노트북 메모리를 사용하여 편집을 확장할 수 있다. 입력에 대한 관련성을 판단하여 관련 편집만 활용한다.
기존 방법보다 월등한 성능을 보였으며, 다수의 편집을 순차적으로 적용할 수 있고 관련 없는 편집에도 강인하다.
더 어려운 in-scope 및 out-of-scope 예제를 포함하는 새로운 벤치마크 데이터셋을 제공한다.
לשפה אחרת
מתוכן המקור
arxiv.org
תובנות מפתח מזוקקות מ:
by Yingfa Chen,... ב- arxiv.org 03-27-2024
https://arxiv.org/pdf/2403.17431.pdfשאלות מעמיקות