핵심 개념
본 논문에서는 사전 훈련된 대규모 언어 모델(LLM)에 구조화된 도메인 지식을 효율적으로 주입하기 위한 새로운 2단계 훈련 전략인 StructTuning을 제안합니다.
초록
대규모 언어 모델을 위한 구조 인식형 도메인 지식 주입: StructTuning
본 논문은 사전 훈련된 대규모 언어 모델(LLM)을 특정 도메인 전문가로 효율적으로 변환하는 StructTuning이라는 새로운 방법론을 제시하는 연구 논문입니다.
기존의 지식 주입 방식 대비 훈련 데이터 요구량을 크게 줄이면서도 효과적인 도메인 지식 주입을 가능하게 하는 LLM 훈련 전략을 제시합니다.
StructTuning은 인간의 학습 과정, 특히 교과서의 구조화된 지식을 습득하고 연습 문제를 통해 실제 문제에 적용하는 방식에서 영감을 받아 다음과 같은 두 단계 전략으로 구성됩니다.
구조 인식형 지속적 사전 훈련 (SCPT): 도메인 지식 분류 체계를 자동으로 추출하고 훈련 코퍼스를 재구성하여 LLM이 텍스트 세그먼트를 분류 체계 내의 대상 지식 포인트에 효과적으로 연결하도록 합니다.
구조 인식형 지도 학습 기반 미세 조정 (SSFT): 모델이 출력에서 기본 지식 구조를 명확히 설명하도록 명시적으로 유도하여 구조화된 도메인 통찰력을 활용하여 실제 문제를 해결하도록 합니다.