מושגי ליבה
大規模言語モデルのパフォーマンスは、プロンプトの構造と意味的な要素に大きく依存する。特に、繰り返しのある文章や意味的に関連した指示の追加が、モデルのパフォーマンスを大幅に向上させる。
תקציר
本研究では、大規模言語モデルのプロンプトの構造と意味的な要素の影響を調査した。10種類のデータセットと10種類のモデル(1.5Bから70Bパラメータ)を使用し、プロンプトの各要素(タスク説明、デモンストレーション入力、ラベル、インラインの指示)に対して構造的および意味的な改変を行った。
主な結果は以下の通り:
- プロンプトに繰り返しのある文章を含めると、モデルのパフォーマンスが大幅に向上する。
- タスクの説明とインラインの指示を追加すると、それらが意味的に無関係でも、モデルのパフォーマンスが向上する。
- 大規模モデル(≥30B)は、プロンプトの意味的な要素により敏感である。
- 大規模モデルは、関連性の高い要素により多くの注意を払う。
本研究の結果は、大規模言語モデルの理解と効果的なプロンプティング手法の開発に貢献する。
סטטיסטיקה
プロンプトに繰り返しのある文章を含めると、モデルのパフォーマンスが20-35%向上する。
意味的に無関係な指示を追加しても、モデルのパフォーマンスが1-12%向上する。
ラベルを無作為な単語に置き換えると、モデルのパフォーマンスがほぼ0になる。
ציטוטים
"プロンプトに繰り返しのある文章を含めると、モデルのパフォーマンスが大幅に向上する。"
"タスクの説明とインラインの指示を追加すると、それらが意味的に無関係でも、モデルのパフォーマンスが向上する。"
"大規模モデル(≥30B)は、プロンプトの意味的な要素により敏感である。"