低ランク適応(LoRA)などの効率的なファインチューニング手法を使用して、言語モデルのファインチューニングコストを大幅に削減できる。Fast Forwardは、定期的に最適なステップサイズを選択することで、この低ランク設定でさらに大幅な効率化を実現する。