LoRA(Low-Rank Adaptation)는 대규모 사전 학습 모델을 효과적으로 미세 조정하는 핵심 기술이지만, 개별 LoRA 간의 효과적인 조합은 여전히 과제로 남아있다. 본 연구에서는 MOLE(Mixture of LoRA Experts)를 제안하여, 각 LoRA 전문가의 특성을 보존하면서도 성능을 향상시키는 동적이고 효율적인 LoRA 조합 방법을 제시한다.