本文首先分析了現有大型語言模型在推薦系統中使用原有解碼方法時所面臨的兩個關鍵問題:
放大偏差:標準長度歸一化會放大包含接近1生成概率的「幽靈」tokens的項目的得分。
同質性問題:模型會生成大量相似或重複的項目推薦。
為解決這些問題,本文提出了Debiasing-Diversifying Decoding (D3)方法:
禁用長度歸一化以緩解放大偏差。
引入一個無文本助理模型,鼓勵生成LLM較少關注的tokens,以抑制同質性。
實驗結果表明,D3方法能夠同時提高推薦的準確性和多樣性。此外,該方法也適用於非文本生成式推薦框架,展現了其廣泛的適用性。
Egy másik nyelvre
a forrásanyagból
arxiv.org
Mélyebb kérdések