이 논문은 대규모 언어 모델(LLM)의 효율적인 미세 조정을 위한 L-Tuning이라는 새로운 접근법을 소개합니다.
기존의 프롬프트 튜닝이나 접두사 튜닝 방식은 임의의 토큰을 사용하여 학습하므로 학습 시간이 오래 걸리고 다양한 클래스 레이블에 걸쳐 일반화된 토큰을 사용하게 됩니다. 이러한 문제를 해결하기 위해 L-Tuning은 사전 학습된 LLM을 통해 처리된 레이블 토큰을 활용합니다.
L-Tuning은 두 가지 방식으로 구현됩니다:
L-Tuning for Prefix: 레이블 토큰의 숨겨진 표현을 직접 활용하여 접두사 임베딩을 생성합니다. 이를 통해 레이블 의미 정보를 효과적으로 활용할 수 있습니다.
L-Tuning for Prompt: 레이블 토큰을 통해 고유한 레이블 임베딩을 생성하고, 이를 텍스트 임베딩과 결합하여 분류에 활용합니다. 이를 통해 레이블과 텍스트 간의 더 세밀한 관계를 포착할 수 있습니다.
실험 결과, L-Tuning은 기존 방식에 비해 분류 정확도와 학습 효율성이 크게 향상되었습니다. 특히 대규모 언어 모델(LLM)에서 그 효과가 두드러졌습니다.
Till ett annat språk
från källinnehåll
arxiv.org
Djupare frågor