本研究は、Llama-3 8Bと70Bのモデルに対して、中国語能力を強化するための事後学習(Continual Pre-Training)を行った。事後学習の際の重要なハイパーパラメータである追加言語混合比率(ALMR)と学習率(LR)の最適な相関関係を見出した。ALMRとLRの適切な選択により、中国語関連のベンチマークだけでなく、数学、プログラミング、感情知性などの特定ドメインでもモデルの性能が向上した。最終的に70Bモデルを産業用チャットボットに実装し、良好な結果を得た。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問