核心概念
本文提出了一種名為Debiasing-Diversifying Decoding (D3)的新型解碼方法,以解決大型語言模型在推薦系統中面臨的放大偏差和同質性問題。
摘要
本文首先分析了現有大型語言模型在推薦系統中使用原有解碼方法時所面臨的兩個關鍵問題:
-
放大偏差:標準長度歸一化會放大包含接近1生成概率的「幽靈」tokens的項目的得分。
-
同質性問題:模型會生成大量相似或重複的項目推薦。
為解決這些問題,本文提出了Debiasing-Diversifying Decoding (D3)方法:
-
禁用長度歸一化以緩解放大偏差。
-
引入一個無文本助理模型,鼓勵生成LLM較少關注的tokens,以抑制同質性。
實驗結果表明,D3方法能夠同時提高推薦的準確性和多樣性。此外,該方法也適用於非文本生成式推薦框架,展現了其廣泛的適用性。
統計資料
在Instruments數據集上,D3方法的HR@10為0.1111,而原始方法為0.1062。
在CDs數據集上,D3方法的HR@10為0.1190,而原始方法為0.0956。
在Sports數據集上,D3方法的HR@10為0.1215,而原始方法為0.1171。
引述
"由於項目在語言空間中的分佈不均,某些項目可能包含在某些條件下生成概率接近1的「幽靈」tokens。現有的解碼方法往往會增強這些項目的得分。"
"為了解決同質性問題,關鍵是提高LLM低估的有意義但被忽視的tokens的得分,同時避免過度忽視LLM高得分tokens,以維持推薦性能。"