核心概念
本研究は、自己教師学習の主要な損失関数であるInfoNCEの不安定性の問題に取り組み、新しい損失関数CLOAを提案する。CLOAは、教師データの一部を利用して、埋め込みの集中を防ぐことで、分類精度を大幅に向上させる。
要約
本研究は、自己教師学習の主要な損失関数であるInfoNCEの不安定性の問題に取り組んでいる。
まず、理論的および実験的な分析を通じて、InfoNCEやその派生手法が、高い学習率の下で、埋め込みが単一の線形部分空間に収束してしまう問題を明らかにした。
この問題を解決するため、本研究では新しい損失関数CLOAを提案している。CLOAは、教師データの一部を利用して、各クラスに対応する直交ベクトルを目標とする回帰項を追加することで、埋め込みの集中を防ぐ。
実験の結果、CLOAを用いることで、教師データの10%しか使わずに、従来手法を大幅に上回る分類精度を達成できることが示された。このように、CLOAは限られたラベル情報でも高い性能を発揮し、自己教師学習の応用範囲を広げる可能性がある。
統計
単一の線形部分空間に埋め込みが収束すると、分類精度が10%程度にしか達しない
提案手法CLOAを用いると、教師データの10%でも従来手法を大幅に上回る分類精度を達成できる
引用
単一の線形部分空間に埋め込みが収束すると、分類精度が大幅に低下する
CLOAは教師データの10%しか使わずに、従来手法を大幅に上回る分類精度を達成できる