Der Artikel befasst sich mit der Entwicklung einer Methode namens QUCE (Quantified Uncertainty Counterfactual Explanations), die darauf abzielt, die Unsicherheit bei der Erstellung von Gegenbeispielen zu minimieren und zu quantifizieren.
Tiefe neuronale Netze (DNNs) haben zwar an Leistungsfähigkeit gewonnen, aber ihre Komplexität führt zu einer verminderten Interpretierbarkeit. Als Reaktion darauf nutzen erklärbare Modelle wie Adversarial Gradient Integration (AGI) pfadbasierte Gradienten, um die Entscheidungen von DNNs zu erläutern. Allerdings kann die Leistung pfadbasierter Erklärer beeinträchtigt werden, wenn Gradienten bei der Überquerung von Out-of-Distribution-Pfaden Unregelmäßigkeiten aufweisen.
QUCE zielt darauf ab, die Out-of-Distribution-Überquerung durch Minimierung der Pfadunsicherheit abzumildern. QUCE quantifiziert nicht nur die Unsicherheit bei der Präsentation von Erklärungen, sondern erzeugt auch sicherere Gegenbeispiele. Die Leistung von QUCE wird durch den Vergleich mit konkurrierenden Methoden sowohl für pfadbasierte Erklärungen als auch für generative Gegenbeispiele demonstriert.
Na inny język
z treści źródłowej
arxiv.org
Głębsze pytania