이 논문은 언어 모델의 추론 능력 향상을 위한 새로운 방법인 "자기 동기화 학습"을 제안한다. 기존 데이터셋의 한계로 인해 추론 과정이 포함된 고품질 데이터가 부족한 문제를 해결하고자 한다.
실험 결과, 제안 방법을 통해 다양한 추론 과제에서 기존 모델 대비 성능이 크게 향상되었다. 특히 소규모 모델인 Llama2 7B가 일부 과제에서 대규모 모델인 text-davinci-002를 능가하는 성과를 보였다.
Іншою мовою
із вихідного контенту
arxiv.org
Ключові висновки, отримані з
by Yunlong Feng... о arxiv.org 04-11-2024
https://arxiv.org/pdf/2404.07017.pdfГлибші Запити