核心概念
提出一種新的任務AmbigNLG,旨在解決自然語言生成任務中指令的歧義性,並開發了一個分類系統來系統地識別和緩解不同類型的歧義,同時建立了AmbigSNINLG數據集來支持這一任務。實驗結果表明,這種方法可以顯著提高生成文本與用戶期望的一致性。
摘要
本文提出了一項新的任務AmbigNLG,旨在解決自然語言生成(NLG)任務中指令的歧義性。作者首先定義了任務歧義的概念,指的是指令不夠明確或詳細,導致大型語言模型(LLM)生成的輸出與用戶期望不一致。
為了解決這一問題,作者提出了一個歧義分類系統,將歧義分為6種類型:上下文、關鍵詞、長度、規劃、風格和主題。基於這個分類系統,作者提出了一種方法,通過在初始指令中添加更明確的補充指令來緩解歧義。
為了支持這一方法,作者構建了AmbigSNINLG數據集,包含2,500個標註了歧義類型和相應補充指令的實例。
通過對多個LLM模型的實驗,作者發現這種方法可以顯著提高生成文本與用戶期望的一致性,並減少輸出的多樣性。此外,一個涉及人機交互的案例研究也證實了這種方法在實際應用中的有效性,突出了解決任務歧義對充分發揮LLM能力的重要性。
統計資料
自然語言生成任務中,指令不夠明確或詳細,導致大型語言模型生成的輸出與用戶期望不一致。
在AmbigSNINLG數據集中,約75%的實例存在至少一種類型的任務歧義,35%的實例存在多種歧義。
使用我們提出的方法可以將ROUGE-L和BERTScore分別提高15.02和13.62個百分點。
引述
"我們提出了AmbigNLG,這是一項專門針對自然語言生成任務中指令歧義性的新任務。"
"我們開發了一個歧義分類系統,將歧義分為6種類型:上下文、關鍵詞、長度、規劃、風格和主題。"
"我們的方法可以顯著提高生成文本與用戶期望的一致性,並減少輸出的多樣性。"