本研究は、大規模言語モデル(LLM)の数学問題解決能力を向上させるために、モデルが自身の間違いから学習する方法を提案している。
主な内容は以下の通り:
実験の結果、提案手法「LEMA」は、GSM8K、MATH、SVAMP、ASDivの数学推論タスクや、CSQAの常識推論タスクにおいて、CoTデータのみのファインチューニングに比べて性能が向上することが示された。また、修正重視の進化戦略がLEMAの性能向上に効果的であることも確認された。
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Shengnan An,... a las arxiv.org 04-01-2024
https://arxiv.org/pdf/2310.20689.pdfConsultas más profundas