Core Concepts
SCLを改善するために、DSCLとPBSDが提案されました。これらの手法は、長尾認識における性能を向上させるために、不均衡なデータセットへの影響を軽減します。
Abstract
この論文では、SCLの問題点を分析し、DSCLとPBSDで対処しています。DSCLは2種類のポジティブサンプルを分離し、不均衡なデータセットの影響を軽減することで最適化します。一方、PBSDはヘッドクラスからテールクラスへの表現学習を促進するためにパッチレベルの類似関係を探索します。実験結果は、提案手法の有望な性能を示しています。
Stats
ImageNet-LTデータセットで57.7%のトップ1精度を達成
iNaturaList 2018データセットで59.7%まで性能向上
Quotes
"Decoupled Supervised Contrastive Loss (DSCL) decouples two types of positives in SCL to optimize intra-category distance."
"Patch-based Self Distillation (PBSD) leverages head classes to facilitate representation learning in tail classes."