核心概念
儘管證據深度學習(EDL)方法在下游任務中表現出色,但其不確定性量化能力存在缺陷,因為它們忽略了模型不確定性,導致對認知不確定性和偶然不確定性的量化不可靠。
摘要
證據深度學習的不確定性量化能力:深入探討
這篇研究論文深入探討了證據深度學習(EDL)方法在不確定性量化方面的能力和局限性。EDL 方法因其計算效率和在下游任務(如異常檢測)中的出色表現而備受關注。然而,該論文對 EDL 方法的有效性提出了質疑,認為其學習到的不確定性可能是一種錯覺。
EDL 方法的問題
儘管 EDL 方法在下游任務中取得了成功,但最近的研究表明,它們學習到的認知不確定性並不可靠。該論文通過以下幾個關鍵論點支持了這一觀點:
- **虛假的認知不確定性:**EDL 方法學習到的認知不確定性即使在訓練樣本無限多的情況下也不會消失,這與認知不確定性的基本定義相矛盾。認知不確定性應該隨著觀察數據的增加而減少,最終消失。
- **虛假的偶然不確定性:**EDL 方法量化的偶然不確定性取決於模型或算法的超參數,而不是捕捉由潛在標籤分佈引起的不可減少的不確定性。
- **EDL 方法本質上是基於能量模型的異常檢測器:**EDL 方法的學習機制與基於能量模型的異常檢測算法非常相似,這表明 EDL 方法更像是異常檢測器,而不是統計上有意義的不確定性量化器。
模型不確定性的重要性
該論文認為,EDL 方法的問題源於忽略了模型不確定性。為了準確量化不確定性,必須考慮模型不確定性。模型不確定性可以通過隨機算法引入,例如集成方法或 bootstrap 方法。
蒸餾學習方法的優勢
蒸餾學習方法提供了一種通過單個神經網絡來量化不確定性的方法,同時考慮了模型不確定性。這些方法通過訓練一個單一模型來模擬經典 UQ 方法(如集成方法)的行為。
主要發現
該論文通過理論分析和實驗驗證,得出了以下主要發現:
- EDL 方法學習到的不確定性並不可靠,因為它們忽略了模型不確定性。
- EDL 方法更像是異常檢測器,而不是統計上有意義的不確定性量化器。
- 蒸餾學習方法提供了一種更可靠的不確定性量化方法,但計算成本更高。
建議
對於希望使用 EDL 方法的從業者,該論文提出了以下建議:
- 應注意 EDL 方法在不確定性量化方面的局限性。
- 對於需要可靠不確定性估計的應用,應考慮使用蒸餾學習方法。
總之,該論文對 EDL 方法的不確定性量化能力提出了質疑,並強調了模型不確定性的重要性。該研究結果對於理解和應用 EDL 方法具有重要意義。
統計資料
EDL 方法在 CIFAR10 和 CIFAR100 數據集上的認知不確定性幾乎不隨樣本大小而變化。
EDL 方法的偶然不確定性隨著超參數 λ 的變化而變化。
使用較小的 λ 值通常可以提高 EDL 方法在異常檢測任務中的性能。
蒸餾學習方法(例如 EnD2 和 Bootstrap Distillation)在異常檢測和選擇性分類任務中表現優於其他 EDL 方法。
引述
"EDL methods typically learn a single neural network that maps input data to the parameters of a meta distribution, which is a distribution over the predictive distribution."
"This suggests that practitioners cannot rely on the learned distributional uncertainty to determine if the model is lacking knowledge."
"This simplification is often rationalized for the computational efficiency, but as we reveal, it renders the distributional uncertainty inherently ill-defined in this framework."
"This strongly suggests that it is inevitable to assume a stochastic procedure p(ψ|D) to properly define the distributional uncertainty p(π|x, D)."