核心概念
本論文は、無監督歩容認識タスクにおいて、服装の変化や正面/背面視点の課題に対処するための選択的融合手法を提案する。
摘要
本論文は、無監督歩容認識(Unsupervised Gait Recognition: UGR)タスクに取り組んでいる。UGRでは、ラベル付けされていないデータセットを使って歩容認識モデルを訓練する必要がある。
まず、クラスタベースの手法とコントラスト学習を組み合わせたベースラインを提案する。しかし、この単純な手法には2つの課題がある。
- 同一人物の服装が変わると、その歩容シーケンスが別のクラスタに分類されてしまう。
- 正面/背面視点のシーケンスは、他の視点のシーケンスとうまくクラスタ化できない。
そこで、選択的融合(Selective Fusion)手法を提案する。これには2つの要素がある:
-
選択的クラスタ融合(Selective Cluster Fusion: SCF)
- 服装の異なるクラスタを融合するために、各クラスタの類似クラスタを見つけ、クラスタ中心を更新する。
-
選択的サンプル融合(Selective Sample Fusion: SSF)
- 正面/背面視点のサンプルを徐々に他の視点のサンプルと融合するために、カリキュラム学習を使う。
提案手法は、CASIA-BN、Outdoor-Gait、GREWデータセットで評価され、ベースラインと比較して大幅な精度向上を示した。特に、服装が変化する条件や正面/背面視点の条件で顕著な改善が見られた。
統計資料
服装が変化する条件では、GaitSetバックボーンでCL+9.7%、GaitGLバックボーンでCL+17.2%の精度向上が得られた。
正面/背面視点の条件でも、GaitSetバックボーンで0°/18°/162°/180°の精度が大幅に向上した。
引述
"Sequences of different subjects in different clothes tend to cluster separately due to the significant appearance changes."
"Sequences taken from 0◦ and 180◦views lack walking postures and do not cluster with sequences taken from other views."