다중 모달 대형 언어 모델에서 발생하는 과제 간 간섭 문제를 해결하기 위해 LoRA-MoE라는 새로운 프레임워크를 제안한다. LoRA-MoE는 Mixture-of-Experts와 LoRA 기법을 결합하여 각 과제에 특화된 학습 경로를 제공함으로써 간섭 문제를 완화한다.