本研究は、Llama-3 8Bと70Bのモデルに対して、中国語能力を強化するための事後学習(Continual Pre-Training)を行った。事後学習の際の重要なハイパーパラメータである追加言語混合比率(ALMR)と学習率(LR)の最適な相関関係を見出した。ALMRとLRの適切な選択により、中国語関連のベンチマークだけでなく、数学、プログラミング、感情知性などの特定ドメインでもモデルの性能が向上した。最終的に70Bモデルを産業用チャットボットに実装し、良好な結果を得た。
לשפה אחרת
מתוכן המקור
arxiv.org
תובנות מפתח מזוקקות מ:
by Ningyuan Xi,... ב- arxiv.org 09-11-2024
https://arxiv.org/pdf/2409.06624.pdfשאלות מעמיקות