다중 모델 대규모 언어 모델은 새로운 지식을 습득하고 기존 기술을 유지하는 데 어려움을 겪고 있다. 이를 해결하기 위해 지속적인 지침 미세 조정 벤치마크 CoIN을 제안하고, 의도 따르기와 일반 지식이라는 두 가지 측면에서 모델의 성능을 평가한다. 또한 MoELoRA 방법을 통해 이러한 문제를 완화할 수 있음을 보여준다.