Core Concepts
Skalierung von Datensätzen und Modellgrößen führt nicht zu einer Verbesserung der mechanistischen Interpretierbarkeit von Bilderkennungsmodellen.
Abstract
Die Studie untersucht, ob die jüngsten Fortschritte im Bereich des maschinellen Sehens durch die Skalierung von Datensätzen und Modellgrößen auch zu einer Verbesserung des Verständnisses der internen Informationsverarbeitung neuronaler Netzwerke geführt haben. Dafür führen die Autoren ein großangelegtes psychophysisches Experiment durch, bei dem die Interpretierbarkeit von neun verschiedenen Bilderkennungsmodellen gemessen wird.
Die Ergebnisse zeigen, dass weder die Größe des Datensatzes noch die Größe des Modells oder andere Designentscheidungen einen praktisch relevanten Einfluss auf die mechanistische Interpretierbarkeit der einzelnen Einheiten haben. Selbst die neuesten Modellgenerationen sind nicht leichter zu interpretieren als ältere Architekturen wie GoogLeNet. Die Autoren schlussfolgern, dass neue Modelldesigns oder Trainingsziele explizit entwickelt werden müssen, um die mechanistische Interpretierbarkeit von Bilderkennungsmodellen zu verbessern.
Um die Forschung in diese Richtung zu fördern, veröffentlichen die Autoren den Datensatz mit den Ergebnissen des psychophysischen Experiments als Grundlage für die Entwicklung automatisierter Interpretierbarkeitsmaße.
Stats
"Skalierung von Modellen und Datensätzen führt nicht zu einer Verbesserung der mechanistischen Interpretierbarkeit."
"Selbst die neuesten Modellgenerationen sind nicht leichter zu interpretieren als ältere Architekturen wie GoogLeNet."
Quotes
"Skalierung allein verbessert nicht die mechanistische Interpretierbarkeit von Bilderkennungsmodellen."
"Neue Modelldesigns oder Trainingsziele müssen explizit entwickelt werden, um die mechanistische Interpretierbarkeit zu verbessern."