大規模な言語モデル(LLM)トレーニングの指示調整フェーズにおけるスケーラビリティの課題を克服する新しい方法論であるLAB(Large-scale Alignment for chatBots)が、高品質な合成データ生成プロセスとマルチフェーズのチューニングフレームワークを活用して、高価な人間注釈やGPT-4などのプロプライエタリモデルへの依存を大幅に削減し、競争力のある性能を実現することができることを示しています。