제한된 데이터 환경에서 사전 훈련된 대규모 언어 모델(LLM)을 효과적으로 미세 조정하기 위한 다양한 전이 학습 방법과 실용적인 가이드라인을 제시합니다.
소규모 언어 모델을 미세 조정하여 "모른다"라고 답변하도록 유도하고, 정보 검색 증강 생성 (RAG) 기술과 결합하여 대규모 언어 모델의 환각 현상을 효과적으로 줄일 수 있다.
Addax는 0차 그래디언트와 1차 그래디언트를 선택적으로 결합하여 메모리 효율성을 높이면서도 빠른 수렴 속도와 높은 성능을 달성하는 새로운 언어 모델 미세 조정 최적화 알고리즘입니다.
언어 모델 미세 조정 시 메모리 요구사항이 높아지는 문제를 해결하기 위해 제로 차수 최적화 방법에 분산 감소 기법을 결합한 새로운 알고리즘 MeZO-SVRG를 제안한다. MeZO-SVRG는 전체 배치와 미니 배치 정보를 활용하여 안정적이고 빠른 수렴 성능을 보인다.