이 논문은 대규모 언어 모델(LLM)의 효율적인 미세 조정 방법인 MiLoRA를 제안한다. 기존의 LoRA 기반 접근법은 가우시안 분포와 0으로 초기화된 저차원 행렬을 사용하여 원래의 가중치 행렬을 고정한 채 학습을 진행한다. 그러나 이는 사전 학습된 하위 공간과 간섭될 수 있다.
MiLoRA는 가중치 행렬의 주요 특이 성분은 고정하고 마이너 특이 성분만 업데이트한다. 주요 특이 성분은 중요한 지식을, 마이너 특이 성분은 잡음이나 꼬리 정보를 담고 있다고 가정한다. 따라서 마이너 성분만 업데이트하면 사전 학습된 지식을 잘 보존하면서도 미세 조정 데이터에 효과적으로 학습할 수 있다.
실험 결과, MiLoRA는 상식 추론, 수학 추론, 지시 따르기, 비주얼 지시 따르기 벤치마크에서 기존 방법들을 일관되게 능가하는 성능을 보였다.
לשפה אחרת
מתוכן המקור
arxiv.org
תובנות מפתח מזוקקות מ:
by Hanqing Wang... ב- arxiv.org 09-19-2024
https://arxiv.org/pdf/2406.09044.pdfשאלות מעמיקות