Khái niệm cốt lõi
기존의 Locate-then-edit 지식 편집 방법은 얕은 MLP 레이어만 수정하여 멀티홉 사실 회상 작업에서 성능이 저하되는데, 본 논문에서는 얕은 레이어와 심층 레이어 모두를 편집하는 IFMET을 제안하여 이 문제를 해결하고 멀티홉 사실 회상 작업의 성능을 향상시킵니다.
Tóm tắt
지식 편집 하에서 멀티홉 사실 회상을 위한 Locate-then-edit: 심층 MLP 레이어 편집의 중요성
본 연구 논문에서는 대규모 언어 모델 (LLM) 에서 지식 편집 (KE) 을 수행할 때 멀티홉 사실 회상 작업의 성능을 향상시키는 것을 목표로 합니다. 특히, 기존 Locate-then-edit 방법들이 얕은 MLP 레이어만 수정하여 멀티홉 추론에 필요한 심층적인 지식 업데이트를 수행하지 못하는 한계점을 개선하고자 합니다.
본 논문에서는 얕은 MLP 레이어와 심층 MLP 레이어 모두를 편집하는 새로운 Locate-then-edit KE 접근 방식인 IFMET (Interpretability-Guided Furtherance Model Editing in a Transformer) 을 제안합니다. IFMET은 크게 두 가지 단계로 구성됩니다.
보조 집합 구성: 기존 편집 사례에 대한 보조 사실을 추가하여 멀티홉 추론에 필요한 정보를 풍부하게 합니다. 예를 들어, (스페인, 수도, 마드리드 → 하트포드) 와 같은 편집 사례가 주어지면, (바르셀로나, 국가, 스페인) 과 같은 보조 사실을 추가하여 멀티홉 질문 (예: "파블로 피카소의 국적 국가의 수도는 무엇입니까?") 에 대한 추론을 가능하게 합니다.
심층 MLP 레이어 편집: 보조 집합을 활용하여 구성된 멀티홉 편집 프롬프트를 사용하여 심층 MLP 레이어의 지식을 수정합니다. 이를 통해 얕은 레이어뿐만 아니라 멀티홉 추론에 사용되는 심층 레이어까지 새로운 지식이 전파되도록 합니다.