本論文では、大規模言語モデルの多言語推論能力を強化する質問翻訳トレーニングアプローチの有効性を包括的に検証している。
まず、この手法を数学推論(自然言語の推論過程、プログラムコードによる推論)、常識推論といった多様な推論シナリオに適用し、その汎用性を実証した。特に、英語以外の言語での推論精度を大幅に向上させることができることを示した。
次に、極めて大規模な言語モデル(LLaMA2-70B、LLaMA3-70B、Mixtral-8×22B)にも適用し、効率的なプロキシチューニング手法を用いることで、これらの最強の公開モデルの多言語推論性能を新たな境界まで押し上げることができた。
さらに、モデルの内部表現空間の分析や推論過程の一貫性評価を通じて、質問翻訳トレーニングがモデルの多言語アライメントを強化し、英語の推論能力を効果的に他言語に転移させる仕組みを明らかにした。
また、質問翻訳データの量が多言語推論精度に与える影響についても分析し、特に低資源言語においてデータ量を増やすことの重要性を示した。
総じて、本研究は大規模言語モデルの多言語推論能力を飛躍的に高める質問翻訳トレーニングアプローチの有効性と汎用性を包括的に実証し、その内部メカニズムの解明にも成功した。
To Another Language
from source content
arxiv.org
Principais Insights Extraídos De
by Wenhao Zhu,S... às arxiv.org 05-03-2024
https://arxiv.org/pdf/2405.01345.pdfPerguntas Mais Profundas