本研究では、監督学習および非監督学習の文脈において、効率的に分布外(Out-of-Distribution, OOD)サンプルを検出する問題を扱う。通常、機械学習モデルは学習時と検証時のデータ分布が同一であることを前提としているが、実際の状況ではこの仮定が成り立たないことが多い。したがって、展開時に分布の変化を正確に検出することは重要である。
本研究では、分布外検出問題を統計的検定の枠組みで捉え直す。具体的には、帰無仮説H0: Ptest = PDin vs 対立仮説H1: Ptest ≠ PDinとして定式化する。ここで、PDinは学習時の分布、Ptestは検証時の分布を表す。
次に、Wasserstein距離に基づくテストの理論的性質を分析する。まず、OOD分布Qmが学習時分布Pθから十分に離れている場合、Wasserstein距離テストの検出力が漸近的に最適になることを示す。一方、Qmがpθに近接する場合の上界も導出する。さらに、Qmがpθから一定の距離δだけ離れる中間的な場合の上界も導出する。
これらの理論的結果は、分布外検出問題の同定可能性を理解する上で重要な洞察を与える。また、Wasserstein距離ベースのテストが、エントロピーやk-NN距離ベースのテストに比べて優れている理由も説明する。
最後に、生成モデルと画像分類の簡単な実験を通じて、提案手法の有効性を示す。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問