核心概念
事前学習分類器の確率を一般化する新しい手法であるQUANTPROBを提案する。QUANTPROBは、事前学習分類器の予測に対して、歪みに頑健な確率を割り当てることができる。
摘要
本論文では、事前学習分類器fθ(x)が与えられた場合に、意味のある確率を割り当てる問題を扱う。ナイーブなアプローチは、ソフトマックス出力を確率として使うことだが、ソフトマックス確率は歪みに対して一般化できない。
そこで、著者らは、歪みに対して一定の較正誤差を持つ確率を割り当てる手法であるQUANTPROBを提案する。QUANTPROBは、量子化回帰の双対性を利用して、事前学習分類器fθ(x)の特性を保ったまま確率を割り当てることができる。
実験的に、QUANTPROBは、ソフトマックス確率に比べて、歪みに対してより頑健な較正誤差を示すことが確認された。一方、従来の較正手法であるPlatt Scalingは、歪みに対して頑健ではないことが示された。
QUANTPROBは、較正誤差の一般化に加えて、OOD検出などの応用にも有効であることが示された。
統計資料
事前学習分類器fθ(x)の予測確率は、歪みに対して頑健ではない。
QUANTPROBは、歪みに対して一定の較正誤差を持つ。
Platt Scalingなどの従来の較正手法は、歪みに対して頑健ではない。
引述
"事前学習分類器の確率を一般化する新しい手法であるQUANTPROBを提案する。"
"QUANTPROBは、事前学習分類器の予測に対して、歪みに頑健な確率を割り当てることができる。"
"QUANTPROBは、較正誤差の一般化に加えて、OOD検出などの応用にも有効である。"