Core Concepts
그룹 채팅에서 대명사 참조를 제거하는 방법을 제시한다.
Abstract
이 논문은 그룹 채팅에서 대명사 참조 해결 문제를 다룹니다. 저자들은 58,000개의 실제 채팅 데이터를 전처리하고 2,300개의 질문을 수동으로 주석 처리했습니다. 이 주석의 신뢰성은 스케일링 법칙에 의해 확인되었습니다. 이후 0.5B에서 32B 매개변수 범위의 Qwen 모델에 대한 fine-tuning을 수행했습니다. 최적의 버전은 F1 점수를 29.07 향상시켰습니다. 이는 대규모 언어 모델(LLM)의 fine-tuning이 하위 자연어 처리(NLP) 작업에 효과적임을 확인합니다. 저자들의 기여는 다음과 같습니다: 1) alpaca 형식의 supervised fine-tuning(SFT) 학습 데이터와 low-rank adaptation(LoRA) 가중치 세트 생성, 2) 스케일링 법칙 원리를 활용하여 고품질 데이터를 획득하는 방법 개발. 관련 스크립트, 원시 데이터, 실험 결과는 Github, HuggingFace, WandB에 공개되었습니다. 데이터 사용에 대한 사용자 승인이 있었습니다.
Stats
그룹 채팅 데이터 58,000개 전처리
수동 주석 데이터 2,302개
Qwen 모델 F1 점수 향상:
Qwen1.5-0.5B-Chat: +8.17%
Qwen1.5-1.8B-Chat: +12.88%
Qwen1.5-14B-Chat: +12.50%
Qwen1.5-32B-Chat: +25.43%
Qwen1.5-MoE-2.7B-Chat: +29.07%
Quotes
"그룹 채팅에서 대명사 참조를 제거하는 방법은 무엇인가?"
"스케일링 법칙을 활용하여 고품질 데이터를 획득하는 방법을 개발했다."
"대규모 언어 모델의 fine-tuning이 하위 자연어 처리 작업에 효과적임을 확인했다."