大規模言語モデルの性能は、手動で設計されたタスク固有のプロンプトに大きく依存しており、これは非効率的で拡張性に乏しい。本研究では、2つの大規模言語モデルを用いた監督型プロンプト学習(SPT)を提案し、プロンプトの自動生成と継続的な改善を実現する。SPTでは、1つのモデル(ジェネレータ)がタスクを実行し、もう1つのモデル(コレクタ)がフィードバックを提供してプロンプトを改善する。この相互作用により、両者のプロンプトが徐々に最適化される。また、プロンプトの有効性を定量化する「インパクトスコア」を導入し、コレクタがより良いプロンプトを生成できるようにする。実験の結果、SPTはGPT-4のGSM8Kの精度を65.8%から94.1%まで大幅に向上させ、大規模言語モデルの性能向上と誤情報の低減に貢献することが示された。
大規模言語モデルの性能を最大限に引き出すためには、適切なプロンプトを選択することが重要である。本手法は、入力に応じて最適なプロンプトを自動的に選択することで、効率的かつ柔軟なプロンプティングを実現する。
大規模言語モデルのプロンプト最適化において、高品質な初期プロンプトの生成と経験に基づく最適化プロセスの改善により、短時間で満足のいく性能を得ることができる。