Die Studie befasst sich mit der Treue von Erklärungsmethoden für Vision-Transformer. Bisherige Methoden zur Bewertung der Erklärungen, wie die Ablation oder die Betrachtung der Änderung der Modellvorhersage, berücksichtigen nicht ausreichend, ob die zugewiesenen Relevanzwerte tatsächlich die Einflüsse der Eingabepixel auf die Vorhersagen widerspiegeln.
Um dies zu untersuchen, schlagen die Autoren eine neue Bewertungsmetrik namens "Salience-guided Faithfulness Coefficient" (SaCo) vor. SaCo vergleicht die Einflüsse von Pixelgruppen mit unterschiedlichen Relevanzwerten direkt miteinander und quantifiziert die Unterschiede, um zu bewerten, inwieweit die Erklärungsmethode den Kern der Annahme von Treue erfüllt.
Die Experimente zeigen, dass gängige Metriken die Treue nicht zuverlässig erfassen können und sogar fortschrittliche Erklärungsmethoden ähnlich wie eine rein zufällige Zuweisung von Relevanzwerten abschneiden. Im Gegensatz dazu kann SaCo die Treue besser beurteilen und identifiziert Faktoren wie den Einsatz von Gradientinformationen und die Aggregation über mehrere Schichten als wichtig für die Verbesserung der Treue von auf Aufmerksamkeit basierenden Erklärungen.
На другой язык
из исходного контента
arxiv.org
Дополнительные вопросы