事前学習言語モデルのファインチューニングは、効率的で堅牢な手法を必要とする。本研究では、トレーニングダイナミクスの転移を利用することで、ロバスト性を向上させつつ、トレーニングコストを最大で50%削減できることを示す。