แนวคิดหลัก
大規模言語モデルの継続的な事前学習において、学習速度に基づいてドメインの重み付けを動的に調整する新しいフレームワーク「Velocitune」は、学習の進捗状況を均衡化することで、さまざまなタスクにおけるモデルの性能を向上させる。
บทคัดย่อ
Velocitune: 速度ベースの動的ドメイン重み付けを用いた継続的な事前学習手法
この研究論文は、大規模言語モデル(LLM)の継続的な事前学習における、ドメイン重み付けの動的な調整に関する新しいフレームワーク「Velocitune」を提案しています。
LLMは、ソースや内容の異なるテキストデータ(ドメイン)で学習させることで、多様なタスクに適応できるようになります。本研究では、継続的な事前学習において、各ドメインの学習速度に基づいてデータの比率を動的に調整することで、モデルの性能を向上させることを目的としています。
Velocituneは、各ドメインにおけるモデルの学習速度を評価し、学習速度の遅いドメインの重みを増やし、学習速度の速いドメインの重みを減らすことで、学習の進捗状況を均衡化します。学習速度を定量化するために、各ドメインの初期損失と目標損失を決定します。目標損失は、Chinchillaスケーリング則を用いて、サブサンプリングされたデータで学習させたモデルから予測されます。