Core Concepts
定常表現は、互換性の定義に従って最適に近似される。
Abstract
この論文では、定常表現が互換性の定義に従って最適に近似されることを示しています。
定常表現は、d-Simplexの固定分類器を使用して学習されます。
定常表現は、同じクラスのサンプル間の距離を最小化し、異なるクラスのサンプル間の距離を最大化するように学習されます。
これにより、モデルの更新時に、既存のギャラリー画像を再処理する必要がなく、パフォーマンスの向上も可能になります。
さらに、定常表現を学習する際に、交差エントロピー損失関数にInfoNCE損失関数を組み合わせることで、高次の依存関係をも捉えることができることを示しています。
実験結果では、提案手法が既存手法に比べて優れた性能を示すことを確認しています。
Stats
定常表現を学習する際の交差エントロピー損失関数は、クラスごとの確率を最大化する。
提案手法では、交差エントロピー損失関数とInfoNCE損失関数を組み合わせることで、高次の依存関係も捉えることができる。
Quotes
"定常表現は、互換性の定義に従って最適に近似される。"
"定常表現を学習する際に、交差エントロピー損失関数にInfoNCE損失関数を組み合わせることで、高次の依存関係をも捉えることができる。"