Główne pojęcia
엉뚱한 질문으로 구성된 데이터셋을 활용한 대규모 언어 모델 미세 조정은 특정 과제에서는 성능 향상을 보이지만, 전반적인 성능 개선 효과는 미미하며, 오히려 특정 과제에서는 성능 저하를 초래할 수 있다.
Streszczenie
대규모 언어 모델 미세 조정 데이터 증강 연구 논문 요약
참고문헌: Tingyuan Zhu*, Shudong Liu†, Yidong Wang‡, Derek F. Wong†, Han Yu§, Takahiro Shinozaki*, Jindong Wang¶. Learning from "Silly" Questions Improves Large Language Models, But Only Slightly.
본 연구는 중국 웹사이트 "Ruozhiba"에서 사용되는 "엉뚱한 질문"이 대규모 언어 모델(LLM)의 지도 미세 조정(SFT)에 미치는 영향을 분석하고, 이러한 질문의 효과를 다양한 과제에 걸쳐 평가하는 것을 목표로 한다.
규칙 추출: 교육, 심리학, 사회학, 인지 과학적 관점에서 GPT-4를 사용하여 Ruozhiba 데이터셋에서 8가지 규칙을 추출하였다.
데이터 증강: MMLU 학습 데이터셋에서 샘플링한 시드 데이터를 기반으로, 추출된 8가지 규칙을 적용하여 GPT-4를 통해 8개의 데이터셋을 생성하였다.
모델 미세 조정 및 평가: 생성된 데이터셋과 시드 데이터셋을 사용하여 LLM을 미세 조정하고, MMLU 테스트셋에서 성능 변화를 비교 분석하였다.