本稿では、以下の取り組みを行った:
Llama 2 7Bのボキャブラリーを27,241の伝統中国語トークンで拡張し、伝統中国語のエンコーディングと生成の効率を向上させた。
QLoRAを活用し、埋め込み層とLMヘッドにもLoRA層を追加することで、二次プリトレーニング時の必要パラメータ数を大幅に削減した。
新しい初期化手法であるzip-tie埋め込みを提案し、初期損失を下げ、学習ステップを削減することができた。
上記の手法を適用して得られたモデルをBailongと呼び、さらにQLoRAを用いて命令フォロー能力を強化したBailong-instruct 7Bを開発した。
伝統中国語と英語の命令フォロー能力を評価するためのベンチマークデータセットBailong-benchを構築した。
Bailong-instruct 7Bは、Bailong-benchや他のベンチマークデータセットにおいて、同等または大きなパラメータ数のオープンソースモデルと比較して優れたパフォーマンスを示した。
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Lung-Chuan C... at arxiv.org 04-02-2024
https://arxiv.org/pdf/2404.00862.pdfDeeper Inquiries