本論文では、解釈可能な画像分類モデルINTR(Interpretable Transformer)を提案している。従来の画像分類モデルは、最終的な全結合層でクラス情報を取り入れるのに対し、INTRは各クラスが画像中の特徴を能動的に探索する新しいアプローチを取る。
具体的には、トランスフォーマーエンコーダ・デコーダアーキテクチャを応用し、デコーダの入力に各クラスに対応した学習可能なクエリを与える。これにより、デコーダの注意機構を通じて各クラスが画像中の特徴を探索し、クラス固有の特徴ベクトルを得ることができる。最終的な分類は、このクラス固有の特徴ベクトルと共有の特徴ベクトルの内積によって行う。
この設計により、INTRは各クラスが画像中のどの部分に注目しているかを可視化することができ、解釈可能な分類が可能となる。特に、注意機構の複数ヘッドを活用することで、クラスの属性(部位とその特徴)を識別できることを示している。
INTRは標準的なトランスフォーマーアーキテクチャを応用しており、エンドツーエンドで学習可能である。実験では、8つの細粒度画像分類データセットでINTRの有効性を示している。特に、視覚的に類似したクラス間の微細な違いを捉えられることを確認している。
Na inny język
z treści źródłowej
arxiv.org
Głębsze pytania