本文提出了一項新的任務AmbigNLG,旨在解決自然語言生成(NLG)任務中指令的歧義性。作者首先定義了任務歧義的概念,指的是指令不夠明確或詳細,導致大型語言模型(LLM)生成的輸出與用戶期望不一致。
為了解決這一問題,作者提出了一個歧義分類系統,將歧義分為6種類型:上下文、關鍵詞、長度、規劃、風格和主題。基於這個分類系統,作者提出了一種方法,通過在初始指令中添加更明確的補充指令來緩解歧義。
為了支持這一方法,作者構建了AmbigSNINLG數據集,包含2,500個標註了歧義類型和相應補充指令的實例。
通過對多個LLM模型的實驗,作者發現這種方法可以顯著提高生成文本與用戶期望的一致性,並減少輸出的多樣性。此外,一個涉及人機交互的案例研究也證實了這種方法在實際應用中的有效性,突出了解決任務歧義對充分發揮LLM能力的重要性。
翻译成其他语言
从原文生成
arxiv.org
更深入的查询