Core Concepts
オンラインソースフリーユニバーサルドメインアダプテーションのための対照的な平均教師(COMET)は、既存のソースモデルを対象ドメインに適応させる。COMETは、既知クラスのサンプルが明確なクラスターを形成し、未知クラスのサンプルがそれらのクラスターから明確に分離されるように特徴空間を再構築する。また、エントロピーロスにより、既知クラスのサンプルは高い確信度で、未知クラスのサンプルは低い確信度で分類されるようにクラシファイアを最適化する。
Abstract
本論文は、オンラインソースフリーユニバーサルドメインアダプテーション(online SF-UniDA)という実用的だが従来研究の対象となっていなかった課題に取り組んでいる。
まず、オンラインSF-UniDAの課題設定を説明する。オンラインSF-UniDAでは、事前に学習したソースモデルを、ターゲットドメインのデータを使って、オンラインで適応させる必要がある。この際、ソースデータにアクセスできず、ドメインシフトだけでなくカテゴリシフトにも対応する必要がある。
次に、提案手法のContrastive Mean Teacher (COMET)を説明する。COMETは以下の3つの要素から構成される:
疑似ラベリング: 教師モデルの出力エントロピーに基づいて、既知クラスのサンプルと未知クラスのサンプルを判別する。これにより、適応プロセスで負の転移を防ぐ。
対照的損失: 既知クラスのサンプルは互いに近づけ、未知クラスのサンプルは既知クラスのサンプルから離れるように特徴空間を再構築する。
エントロピー損失: 既知クラスのサンプルは低エントロピー、未知クラスのサンプルは高エントロピーの出力を持つようクラシファイアを最適化する。これにより、エントロピーしきい値に基づいて未知クラスを拒否できる。
最後に、2つのデータセットDomainNetとVisDA-Cを用いた実験結果を示す。COMETは、部分集合、オープンセット、オープン部分集合の各カテゴリシフトシナリオにおいて、既存手法を大きく上回る性能を示した。特に、バッチサイズを小さくした場合でも頑健な性能を維持した。
Stats
既知クラスのサンプルは低エントロピー、未知クラスのサンプルは高エントロピーの出力を持つ
既知クラスのサンプルは互いに近接し、未知クラスのサンプルは既知クラスのサンプルから離れている
Quotes
"オンラインSF-UniDAでは、事前に学習したソースモデルを、ターゲットドメインのデータを使って、オンラインで適応させる必要がある。この際、ソースデータにアクセスできず、ドメインシフトだけでなくカテゴリシフトにも対応する必要がある。"
"COMETは以下の3つの要素から構成される: 1) 疑似ラベリング、2) 対照的損失、3) エントロピー損失"