대규모 언어 모델의 지침 기반 지속적 학습을 위한 데이터 효율적인 접근법
대규모 언어 모델(LLM)은 지침 미세 조정을 통해 다양한 하위 작업에 효과적으로 최적화될 수 있다. 그러나 실제 응용 프로그램에서 환경이 지속적으로 변화함에 따라 LLM은 재앙적 망각 없이 작업별 지속적인 적응이 필요하다. 이를 위해 우리는 지침 기반 지속적 학습(InsCL)이라는 새로운 패러다임을 제안한다. InsCL은 작업 유사성을 기반으로 이전 데이터를 동적으로 재생하고, 지침 정보 메트릭(InsInfo)을 활용하여 고품질 데이터를 선별적으로 재생한다.