Die Studie befasst sich mit dem Problem, eine Gruppe von Pixeln in einem Bild zu identifizieren, die einen großen und kollektiven Einfluss auf die Konfidenzwerte eines Bildklassifizierungsmodells haben. Die Autoren rechtfertigen einfache gierige Algorithmen aus einer spieltheoretischen Sicht unter Verwendung von Shapley-Werten und Interaktionen. Diese Analyse legt den Einsatz von selbstkontext- und vollkontext-Varianten von Shapley-Werten und Interaktionen nahe. Deren Berechnung erfordert nur eine quadratische Anzahl von Vorwärtsberechnungen, während frühere Studien Shapley-Werte und/oder Interaktionen mit einer exponentiellen Anzahl von Vorwärtsberechnungen oder einer aufwendigen stichprobenbasierten Approximation berechnen. Die experimentellen Ergebnisse zeigen, dass die vorgeschlagene Methode die wichtigen Bildpatches für Modelle genauer identifiziert als gängige Methoden.
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問