본 연구에서는 일본 금융 분야의 대규모 언어 모델(LLM)을 위한 교육 데이터셋인 JaFIn을 구축하였다. JaFIn은 일본 정부 웹사이트, 연금 기관, 위키피디아 등 다양한 데이터 소스에서 수집된 금융 관련 질문과 답변으로 구성되어 있다.
데이터 수집 및 정제 과정을 거쳐 1,490개의 교육 데이터를 구축하였다.
이 데이터셋을 활용하여 기존 LLM에 대한 교육 튜닝을 수행하였다. 실험 결과, 금융 전문 LLM이 원본 모델에 비해 금융 분야 벤치마크 과제에서 향상된 성능을 보였다. 또한 정성적 평가에서도 금융 지식 향상이 확인되었다.
이를 통해 교육 튜닝을 통한 도메인 적응이 효과적임을 입증하였다.
Іншою мовою
із вихідного контенту
arxiv.org
Ключові висновки, отримані з
by Kota Tanabe,... о arxiv.org 04-16-2024
https://arxiv.org/pdf/2404.09260.pdfГлибші Запити