מושגי ליבה
대규모 언어 모델 (LLM)에서 작은 모델로 지식을 효율적으로 전이하기 위해, 특히 롱테일 데이터 분포에서 발생하는 문제를 해결하기 위해 다단계 균형 증류 (BalDistill) 프레임워크를 제안합니다.
תקציר
롱테일 시퀀스 레벨 지식 증류에서 균형을 맞춘 다단계 증류: 효율적인 지식 전이를 위한 새로운 프레임워크
본 연구는 대규모 언어 모델 (LLM)에서 작은 모델로 지식을 효율적으로 전이하는 것을 목표로 합니다. 특히, 실제 데이터에서 흔히 나타나는 롱테일 데이터 분포에서 발생하는 문제를 해결하는 데 중점을 둡니다.
본 연구에서는 다단계 균형 증류 (BalDistill) 프레임워크를 제안합니다. 이 프레임워크는 제한된 예산 내에서 균형 잡힌 학습 데이터 세트를 생성하고, 선택된 데이터와 합성 데이터를 사용하여 학생 모델을 반복적으로 미세 조정합니다.
BalDistill 프레임워크의 주요 구성 요소는 다음과 같습니다.
균형 정책: 각 단계에서 학습 배치 내의 각 도메인에 적합한 데이터 분포를 결정합니다. 데이터 동등성 및 도메인 간 교육 효과 원칙을 기반으로 합니다.
교사 데이터 증강: 데이터 세트에서 충분히 표현되지 않은 도메인 (테일 도메인)의 경우, 교사 모델을 사용하여 합성 샘플과 해당 주석을 생성합니다.
학생 능동 학습: 데이터 세트에서 잘 표현된 도메인 (헤드 도메인)의 경우, 미세 조정된 학생 모델을 사용하여 풀에서 가장 유용한 예제를 식별하고 추출합니다.
추론 생성 및 미세 조정: 구성된 학습 배치의 샘플에 대한 추론 설명을 생성하도록 교사 모델을 프롬프트합니다. 그런 다음 주석이 달린 예제를 사용하여 학생 모델을 미세 조정합니다.