이 논문은 대규모 언어 모델(LLM)의 수학 문제 해결 능력을 향상시키는 방법을 제안한다. 저자들은 MetaMath라는 새로운 LLM을 소개하는데, 이는 질문 부트스트래핑 기법을 통해 구축된 MetaMathQA 데이터셋으로 LLaMA-2 모델을 fine-tuning한 것이다.
질문 부트스트래핑은 원본 질문을 다양한 관점에서 재작성하여 새로운 질문을 생성하는 기법이다. 구체적으로 다음과 같은 방식으로 질문을 생성한다:
이렇게 생성된 MetaMathQA 데이터셋으로 LLaMA-2 모델을 fine-tuning하여 MetaMath 모델을 만들었다. 실험 결과, MetaMath 모델은 GSM8K와 MATH 벤치마크에서 기존 오픈소스 LLM 대비 큰 성능 향상을 보였다. 특히 MetaMath-7B는 GSM8K에서 66.5%, MATH에서 19.8%의 정확도를 달성했다.
이 연구는 데이터 증강이 LLM의 수학 문제 해결 능력 향상에 매우 중요하다는 점을 보여준다. 특히 질문 다양성이 핵심 요인이며, 역방향 추론 질문이 수학 지식 습득에 큰 도움이 된다는 것을 확인했다.
เป็นภาษาอื่น
จากเนื้อหาต้นฉบับ
arxiv.org
ข้อมูลเชิงลึกที่สำคัญจาก
by Longhui Yu,W... ที่ arxiv.org 05-06-2024
https://arxiv.org/pdf/2309.12284.pdfสอบถามเพิ่มเติม