Centrala begrepp
Die Kernelisierte Stein-Diskrepanz (KSD) kann effizient genutzt werden, um die Trainingsbeispiele zu identifizieren, die eine starke Vorhersageunterstützung für einen Testpunkt bieten. Dies ermöglicht eine hochpräzise und datenzentrische Erklärung von Modellvorhersagen.
Sammanfattning
Die Arbeit präsentiert HD-Explain, eine Methode zur Erklärung von Vorhersagen neuronaler Klassifikatoren, die auf der Kernelisierten Stein-Diskrepanz (KSD) basiert.
KSD definiert eine modellabhängige Kernelfunktion, die die Korrelation zwischen Trainingsdaten in Bezug auf das trainierte Modell erfasst. HD-Explain nutzt diese Eigenschaft, um effizient die Trainingsbeispiele zu identifizieren, die die beste Vorhersageunterstützung für einen Testpunkt bieten.
Im Vergleich zu bestehenden Methoden zeigt HD-Explain folgende Vorteile:
- Präzision: HD-Explain liefert instanzspezifische, feingranulare Erklärungen im Gegensatz zu klassenbasierten Erklärungen.
- Konsistenz: HD-Explain produziert konsistente Erklärungen für ähnliche Testpunkte.
- Effizienz: Die Berechnung der KSD-Kernelfunktion ist skalierbar und kann mit großen Modellen umgehen.
Umfangreiche Experimente auf verschiedenen Klassifikationsaufgaben, einschließlich medizinischer Anwendungen, belegen die Überlegenheit von HD-Explain gegenüber etablierten Erklärungsmethoden.
Statistik
Die Kernelisierte Stein-Diskrepanz (KSD) zwischen dem trainierten Modell und dem Trainingsdatensatz ist definiert als:
KSD = E(x,x')∼q[κθ(x, x')],
wobei κθ(x, x') = ∇x∇x'k(x, x') + k(x, x')∇x log Pθ(x)∇x' log Pθ(x') + ∇xk(x, x')∇x' log Pθ(x') + ∇x'k(x, x')∇x log Pθ(x)
Citat
"Die Kernelisierte Stein-Diskrepanz (KSD) kann effizient genutzt werden, um die Trainingsbeispiele zu identifizieren, die eine starke Vorhersageunterstützung für einen Testpunkt bieten."
"HD-Explain liefert instanzspezifische, feingranulare Erklärungen im Gegensatz zu klassenbasierten Erklärungen."