이 연구는 일본어 금융 특화 대규모 언어 모델(LLM)을 구축하기 위해 지속적 사전 학습 방법을 사용하였다. 먼저 일본어 금융 데이터셋을 구축하였고, 이를 바탕으로 기존 일본어 LLM인 rinna/nekomata-14b 모델을 추가 학습하였다.
벤치마크 평가 결과, 추가 학습된 모델이 기존 모델보다 일본 금융 벤치마크에서 전반적으로 더 나은 성능을 보였다. 또한 출력 비교 결과, 추가 학습된 모델의 출력이 기존 모델에 비해 답변의 품질과 길이 면에서 우수한 것으로 나타났다.
이러한 결과는 도메인 특화 지속적 사전 학습이 LLM에도 효과적임을 보여준다. 추가 학습된 모델은 Hugging Face에 공개되어 있다.
翻译成其他语言
从原文生成
arxiv.org
更深入的查询