Основні поняття
ロールプレイプロンプティングは、大規模言語モデルの推論能力を向上させる効果的な手法である。
Анотація
この研究では、戯曲的な役割演技を用いた新しいゼロショット推論手法を提案し、12種類の多様な推論ベンチマークでその性能を評価した。実験結果は、通常のゼロショット手法やZero-Shot-CoTに比べて、多くのデータセットで優れたパフォーマンスを示しており、これはロールプレイプロンプティングが効果的なCoTトリガーとして機能し、推論結果を向上させる可能性があることを示唆しています。
Abstract:
- 大規模言語モデル(LLMs)は役割演技によって人間キャラクターや非人間エンティティを体現する能力を持ち、これによりユーザーエンゲージメントが向上しました。
- 本研究では、戦略的に設計された役割演技促進方法論を導入し、12種類の多様な推論ベンチマークでそのパフォーマンスを評価しました。
- 実験結果は、役割演技促進が通常のゼロショットアプローチよりも優れていることを示しています。
Introduction:
- 近年、自然言語処理における大きな変革がありました。大規模言語モデル(LLMs)は広範囲のタスクに対応する能力を持ちます。
- 本研究では、LLMsの推論能力向上に焦点を当てており、「Chain-of-Thought Prompting」などの新しい手法も開発されています。
Role-Play Prompting:
- ロール設定プロンプトとサンプルされたフィードバックプロンプトが各推論タスク用に作成されました。
- ロール設定プロントでは、特定の役割が明確化されます。一方、フィードバックプロントはモデルへの追加情報提供や深化役割内へ導入する目的で使用されます。
Experiments on More LLMs:
- ChatGPT以外でもLlama 2-ChatやVicunaなど他のオープンソース会話型LLMでも実験が行われました。
- 結果からわかるように、「Role-Play Prompting」はオープンソース会話型LLMでも「Zero-Shot」基準を超えています。
Статистика
役割演技能力:53.5%から63.8%へ(AQuA)
最後尾文字連結:23.8%から84.2%へ(Last Letter)
Цитати
"大規模言語モデル(LLMs)は広範囲のタスクに対応する能力を持ちます。" - Abstract