Belangrijkste concepten
長尾分布を持つデータにおいて、特徴表現の学習と分類器の学習を分離することで、オンラインでの継続学習の性能を大幅に向上させることができる。
Samenvatting
本研究では、長尾分布を持つデータにおけるオンラインでの継続学習(LTOCL)に取り組んでいる。LTOCLでは、データの分布が極端に偏っているため、既存の手法では十分な性能が得られない。
提案手法DELTAは、2段階の学習アプローチを採用している。
第1段階では、教師付きの対照学習を用いて、類似したサンプルを引き寄せ、異なるクラスのサンプルを遠ざけることで、効果的な特徴表現を学習する。
第2段階では、特徴表現の学習と分類器の学習を分離し、クラス間の不均衡を考慮したEqualization Lossを用いて、分類器の学習を行う。
これにより、長尾分布下でも頑健な性能を発揮し、既存手法を大幅に上回る結果を示している。
また、複数のエクスプレイヤーを組み合わせる手法を提案し、性能向上につなげている。
Statistieken
少数クラスのサンプル数は多数クラスの1/100以下である。
学習時のバッチサイズは16、テスト時のバッチサイズは128である。
Citaten
"長尾分布を持つデータにおいて、特徴表現の学習と分類器の学習を分離することで、オンラインでの継続学習の性能を大幅に向上させることができる。"
"提案手法DELTAは、2段階の学習アプローチを採用している。"