本文提出了一種基於屬性測試和共形風險控制的模型校準方法,透過後處理預先訓練模型的預測結果,確保預測結果符合預期屬性,例如單調性。
深度神經網路的過度自信問題可以通過一種稱為「特徵裁剪」的新穎後校準方法來解決,該方法通過裁剪特徵值來提高高校準誤差樣本的熵,從而提高模型校準性能。
雖然 Platt 比例縮放在欠抽樣後經常被用於模型校準,但這種方法並非為此目的而設計,並且在某些情況下可能效果不佳。本文分析了 Platt 比例縮放的局限性,特別是在處理完美基礎模型和具有特定系統誤差的模型時,並提出了替代方法,例如使用 logit 轉換和邏輯廣義加性模型 (GAM) 來增強 Platt 比例縮放。
本文提出了一種稱為「焦點校準損失」(FCL)的新型損失函數,通過將傳統的焦點損失與校準損失項(適當損失)相結合,在處理困難樣本的同時提高了深度神經網路的機率校準能力。