이 연구에서는 LoRA-SP(Streamlined Partial Parameter Adaptation)라는 새로운 접근법을 제안한다. LoRA-SP는 Low-Rank Adaptation(LoRA) 프레임워크 내에서 무작위 반선택적 매개변수 동결 기법을 활용하여 대규모 언어 모델(LLM)의 미세 조정 시 계산 및 메모리 요구사항을 크게 줄인다.
LoRA-SP는 모델 매개변수의 절반만 업데이트하고 나머지는 동결하는 방식으로 작동한다. 이를 통해 성능 저하 없이 계산 및 메모리 효율성을 크게 향상시킬 수 있다. 또한 LoRA-SP는 가중치 양자화와 선택적 활성화 재계산 기법을 통해 메모리 사용을 추가로 최적화한다.
실험 결과, LoRA-SP는 RoBERTa, T5, LLaMA 등 다양한 모델과 과제에서 기존 완전 미세 조정 및 LoRA 대비 훨씬 적은 매개변수로도 경쟁력 있는 성능을 달성했다. 이는 LoRA-SP가 대규모 언어 모델의 효율적인 적응을 가능하게 하는 혁신적인 접근법임을 보여준다.
Başka Bir Dile
kaynak içeriğinden
arxiv.org
Önemli Bilgiler Şuradan Elde Edildi
by Yichao Wu,Ya... : arxiv.org 03-15-2024
https://arxiv.org/pdf/2403.08822.pdfDaha Derin Sorular