이 논문은 대규모 사전 학습된 언어 모델을 효율적으로 맞춤화하는 프록시 튜닝 기법을 소개한다.
프록시 튜닝은 대규모 언어 모델의 내부 가중치에 직접 접근하지 않고도 작은 모델을 통해 모델을 맞춤화할 수 있다. 작은 모델을 "전문가"로 튜닝하고, 이를 "반전문가"와 대비시켜 대규모 모델의 출력 로짓에 적용함으로써 대규모 모델을 효율적으로 맞춤화할 수 있다.
실험 결과, 프록시 튜닝을 통해 대규모 LLAMA2 모델의 성능을 직접 튜닝한 모델과 거의 동등한 수준까지 끌어올릴 수 있었다. 특히 지식, 추론, 안전성 벤치마크에서 우수한 성과를 보였다.
프록시 튜닝은 도메인 적응, 태스크 파인튜닝 등 다양한 응용 분야에서 효과적이었다. 코드 생성 작업에서는 대규모 모델의 성능을 직접 튜닝한 모델보다 높일 수 있었다.
프록시 튜닝은 토큰 수준에서 모델의 행동을 해석할 수 있게 해주며, 튜닝 강도를 조절할 수 있는 하이퍼파라미터를 도입하여 다양한 요구사항을 충족시킬 수 있다.
마지막으로 GPT-3.5와 같은 블랙박스 모델에도 프록시 튜닝을 적용하여 최신 이벤트에 대한 지식을 향상시킬 수 있음을 보였다.
Til et annet språk
fra kildeinnhold
arxiv.org
Viktige innsikter hentet fra
by Alisa Liu,Xi... klokken arxiv.org 04-02-2024
https://arxiv.org/pdf/2401.08565.pdfDypere Spørsmål