이 논문은 음성 인식 모델의 지속적 학습을 위한 새로운 접근법인 순차적 모델 편집을 제안한다. 기존의 미세 조정 기법은 이전 도메인의 성능 저하 문제(catastrophic forgetting)를 겪는다. 이를 해결하기 위해 제안된 지속적 학습 기법들은 추가 매개변수 또는 이전 도메인 데이터에 의존한다.
저자들은 이전 데이터셋에 대한 접근이나 추가 매개변수 없이도 새로운 도메인을 지속적으로 학습할 수 있는 순차적 모델 편집 기법을 제안한다. 이 기법은 기존 모델 파라미터와 새로운 도메인에 대한 태스크 벡터를 단순한 산술 연산으로 결합하여 새로운 모델을 생성한다.
실험 결과, 제안 기법은 미세 조정 기준 대비 최대 15%의 단어 오류율 감소를 달성하였고, 다른 지속적 학습 기법들에 비해 우수한 성능을 보였다. 특히 태스크 벡터 병합 시 추가적인 처리 과정을 거치는 TIES-Merging 기법이 가장 좋은 성능을 나타냈다. 이는 모델 편집 기법이 다수의 새로운 도메인을 순차적으로 학습하는 데 효과적임을 보여준다.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문