這篇擴展摘要探討了自然類型選擇 (NTS) 在後向自適應損失壓縮系統中的應用,特別是在探索與利用之間取得平衡以逼近速率失真函數 (RDF) 的能力。
不同於前向自適應壓縮(例如動態霍夫曼編碼或 CELP 語音編碼)在編碼數據之前先學習源統計數據並傳輸編碼參數,後向自適應壓縮(例如 Lempel-Ziv 或 ADPCM)則讓編碼器和解碼器從過去的重建樣本中學習參數。在無損壓縮中,這兩種模式基本相同,但在損失壓縮中,它們有著根本的不同:前向自適應從乾淨的源學習,而後向自適應從有噪聲的(量化的)版本學習。
隨著失真程度的增加,兩者之間的差異變得更加顯著。在高失真情況下,重建序列的類型 Q 幾乎不包含有關源分佈 P 本身的信息,因此無法直接從 Q 計算出最佳重建分佈 Q*。因此,只有當該類型的碼字與源字 d 匹配時,才能確定類型的優劣(用於壓縮)。這意味著在高失真情況下,後向自適應損失壓縮需要明確地探索類型以找到 Q*。
Blahut 算法在 N 次迭代後收斂到 RDF 的速度約為 O(1/N)。對於通過 Lloyd-Max 算法迭代設計 K 級量化器,也認為存在類似的下降。
NTS 的兩階段壓縮-學習機制可以看作是一個利用步驟(壓縮),然後是一個探索步驟(學習)。探索的數量由隨機碼本中非典型碼字的頻率決定。
NTS 中探索和利用之間的“自然”平衡是否是最優的?事實上,即使源是無記憶的,一個非獨立同分佈的碼本分佈也可以強調罕見類型,並加速向 Q* 的移動。一個簡單的例子是對所有類型類別進行均勻加權。更一般地說,為了獲得更豐富的碼本分佈,可以使用參數化分佈族的混合,就像在通用無損情況下所做的那樣,例如最小描述長度或上下文樹加權。
這種觀點表明了“廣度和深度”之間的權衡,即廣泛探索與狹窄探索:更豐富的通用混合意味著罕見類型的概率更高,而典型碼字的概率更低。當我們接近 Q* 時,這可能是不利的,因為編碼速率會產生固有的成本(尤其是在字長 L 適中的非漸近情況下)。因此,應該有一個最佳的時間表,以便在 NTS 接近 Q* 時縮小通用混合的豐富程度。
Vers une autre langue
à partir du contenu source
arxiv.org
Questions plus approfondies