核心概念
장문 생성 설정에서 모델 편집의 효과와 영향을 측정하는 새로운 평가 프로토콜을 소개합니다.
摘要
이 논문에서는 장문 생성 설정에서 모델 편집의 효과와 영향을 측정하기 위한 새로운 평가 프로토콜인 LEME(Long-form Evaluation of Model Editing)를 소개합니다. 이 프로토콜은 기계 평가 설문과 인간 평가와 잘 상관되는 분류기로 구성됩니다.
주요 발견은 다음과 같습니다:
- ROME과 MEMIT은 일관성 있는 편집을 수행하지만 사실적 이탈이 심각합니다.
- 단기 평가와 장기 평가 사이에는 거의 상관관계가 없습니다.
- 편집 일관성과 사실적 일관성 사이에는 상관관계가 없습니다.
- 새로운 사실 주입이 기존 사실 업데이트보다 더 쉽지만 다른 관련 사실과의 일관성을 유지하기 어렵습니다.
또한 논문에서는 장문 생성 설정에서 발생할 수 있는 일반적인 실패 모드를 식별하고 분석합니다.
統計資料
편집 후에도 여전히 사실과 일치하지 않는 문장이 많습니다.
편집 후에도 문단 간 모순이 발생하는 경우가 많습니다.
편집 후에도 문단 내 모순이 발생하는 경우가 많습니다.
引述
"현재 모델 편집 방법은 단기 평가 방법으로는 측정되지 않는 많은 격차가 있습니다."
"사실적 이탈은 바람직한 특성일 수 있지만, 편집과 사실적 일관성 사이의 균형을 측정할 수 있는 평가 방법이 필요합니다."
"일관성은 고품질 모델 편집 방법에서 찾아야 할 중요한 일반적 특성입니다."