本研究は、自己教師学習の主要な損失関数であるInfoNCEの不安定性の問題に取り組んでいる。
まず、理論的および実験的な分析を通じて、InfoNCEやその派生手法が、高い学習率の下で、埋め込みが単一の線形部分空間に収束してしまう問題を明らかにした。
この問題を解決するため、本研究では新しい損失関数CLOAを提案している。CLOAは、教師データの一部を利用して、各クラスに対応する直交ベクトルを目標とする回帰項を追加することで、埋め込みの集中を防ぐ。
実験の結果、CLOAを用いることで、教師データの10%しか使わずに、従来手法を大幅に上回る分類精度を達成できることが示された。このように、CLOAは限られたラベル情報でも高い性能を発揮し、自己教師学習の応用範囲を広げる可能性がある。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問