Core Concepts
Monotonic paraphrasing improves LM generalization by refining prompts with lower perplexity, enhancing task performance and model robustness.
Abstract
Large language models (LLMs) may vary in performance with different prompts or instructions.
Lower prompt perplexity correlates with better task performance.
MONOPARA proposes an end-to-end decoding strategy to paraphrase prompts with lower perplexity without altering their meaning.
Greedy and search-based decoding schemes are explored in MONOPARA.
MONOPARA enhances LM generalization on various tasks and perturbed instructions.
Stats
大規模言語モデル(LLM)のパフォーマンスは、異なるプロンプトや指示によって変化する可能性がある。
低いプロンプトのパープレキシティは、タスクのパフォーマンスを向上させる傾向がある。
MONOPARAは、意味を変えずに低いパープレキシティのプロンプトを作成するためのエンドツーエンドのデコード戦略を提案している。
MONOPARAでは、貪欲なデコードと探索ベースのデコードスキームが探求されている。
MONOPARAは、さまざまなタスクや乱れた指示におけるLMの汎化性能を向上させている。