Core Concepts
Proposing a novel motor attention mechanism and applying self-distillation to improve continuous sign language recognition.
Abstract
本論文では、新しいモーター注意メカニズムを提案し、連続的な手話認識を改善するために自己蒸留を適用します。モーター注意メカニズムは、フレーム間の動きの変化を研究し、手話表現時の局所運動領域の歪み変化を捉えることで、モデルが推論に貢献する動的意味知識により焦点を当てることができます。
Stats
本論文では、3つの大規模な公開データセット(RWTH、RWTH-T、CSL-Daily)で実験を行いました。
テストセットでのWER値は18.8%から19.5%まで変動しています。
Quotes
"A new motor attention mechanism is proposed to improve the model’s inference ability by paying more attention to the dynamic changes in consecutive frames of the video."
"The combination of the two constitutes our proposed holistic model of CSLR Based on motor attention mechanism and frame-level Self-Distillation (MAM-FSD), which improves the inference ability and robustness of the model."