Core Concepts
深層生成モデルは低レベルの特徴を学習しがちであり、その負対数尤度の下限は入力と出力の条件エントロピーによって決まる。本手法は、画像の一部を消去することで各データセットに固有の条件エントロピー分布を作り出し、これを利用して転移可能な分布外検知を実現する。
Abstract
本論文では、深層生成モデル(DGM)を用いた分布外検知手法を提案している。
まず、2つの仮説を立てている:
DGMは高レベルの意味情報ではなく低レベルの特徴を学習しがちである。
DGMの負対数尤度の下限は、入力と出力の条件エントロピーによって決まる。
これらの仮説に基づき、以下の手法を提案している:
画像の一部を消去する戦略を設計し、データセットごとに異なる条件エントロピー分布を作り出す。
消去された領域を再構成する「不確定性推定ネットワーク(UEN)」を設計し、条件エントロピー分布の違いを捉える。
UENをImageNetデータセットで事前学習し、新しいデータセットに適用する際の転移性を実現する。
提案手法は、既存の分布外検知手法と比較して、データセットの再学習を必要としないという大きな利点がある。実験結果から、提案手法は既存手法と同等の性能を達成できることが示された。
Stats
深層生成モデルは低レベルの特徴を学習しがちであり、複雑なデータセットを学習すると単純なデータセットの負対数尤度の下限に近づくことができる。
深層生成モデルの負対数尤度の下限は、入力と出力の条件エントロピーによって決まる。
Quotes
"DGMsは低レベルの特徴を学習しがちであり、高レベルの意味情報を学習するのは難しい。"
"DGMsの負対数尤度の下限は、入力と出力の条件エントロピーによって決まる。"