核心概念
本文提出了一種名為漸近概率解碼 (APD) 的新型解碼方法,透過利用多個不同規模語言模型的概率來推斷無限大假設語言模型的漸近概率,從而解決對比解碼 (CD) 的「顯而易見的盲點」問題,並顯著提高生成文本的真實性。
本文旨在探討和改進對比解碼 (CD) 技術,這是一種利用小型語言模型 (ALM) 來增強大型語言模型 (ELM) 輸出分佈的方法。儘管 CD 已被廣泛應用於各種語言模型和領域,但其工作原理、潛在缺陷以及改進方法仍不清楚。
本文首先從理論上證明,CD 可以被視為對巨大假設語言模型的詞彙對數機率進行線性外推。然而,這種線性外推可能導致 CD 無法輸出最顯而易見的答案,因為這些答案已經被 ALM 賦予了高概率。
為了解決 CD 的局限性,本文提出了一種新的無監督解碼方法,稱為漸近概率解碼 (APD)。APD 顯式地外推不同規模語言模型的概率曲線,以推斷無限大語言模型的漸近概率,而不會產生比 CD 更多的推理成本。
實驗結果表明,在開放式文本生成基準 FACTUALITYPROMPTS 中,使用 APD 採樣顯著提高了文本的真實性,優於 CD 採樣及其變體,並在 Pythia 6.9B 和 OPT 6.7B 上取得了最先進的結果。此外,在五個常識問答數據集中,APD 通常明顯優於 CD,並取得了與使用更大語言模型相似的效果。
為對比解碼 (CD) 提供了理論支持,並證明該理論可以解釋 Li 等人 (2023) 和 O'Brien 和 Lewis (2023) 的許多先前發現。
提出了一種新的分佈修改方法,即漸近概率解碼 (APD),它解決了 CD 的「顯而易見的盲點」問題。
進行了廣泛的實驗,結果表明 APD 可以顯著提高 CD 的生成真實性。