本文提出了一個更一般化的資訊量度框架,可以應用於任意損失函數,而不僅限於訊息長度。作者從決策理論的角度出發,定義了一個量化不確定性的量度,稱為熵,它表示在完全知道和完全不知道隨機變量X時的最優損失之差。
作者進一步將這個量度分解為條件熵和互信息,類似於香農熵和互信息的分解。這樣的分解適用於任意損失函數,包括平方誤差、對數損失和Bregman損失等。
在連續情況下,作者發現熵和條件熵理論上是無限大的,因為損失函數可以被設計成任意大。但互信息和條件互信息仍然是有限的,因為它們表示從完全不知道到部分知道的不確定性減少,而不是從完全不知道到完全知道。
作者還討論了在損失函數存在最優行為(Bayes acts)時,資訊量度與適當評分規則(proper scoring rules)的發散之間的關係。這進一步推廣了香農互信息的編碼解釋。
總的來說,本文提出了一個更廣泛的資訊量度框架,涵蓋了熵、互信息以及其他資訊量度作為特殊情況,並揭示了它們之間的統一結構。這為資訊理論的應用提供了更靈活的工具。
翻譯成其他語言
從原文內容
arxiv.org
深入探究