Überprüfung der Erklärungsunsicherheit: Sanity Checks für Erklärungsmethoden mit Unsicherheitsschätzung
Erklärungen für Maschinenlernmodelle können schwer zu interpretieren oder falsch sein. Die Kombination einer Erklärungsmethode mit einer Unsicherheitsschätzungsmethode erzeugt Erklärungsunsicherheit. Die Bewertung der Erklärungsunsicherheit ist schwierig. In dieser Arbeit schlagen wir Sanity Checks für Unsicherheitserklärungsmethoden vor, bei denen Tests für Gewichts- und Datenrandomisierung für Erklärungen mit Unsicherheit definiert werden, die schnelle Tests für Kombinationen von Unsicherheits- und Erklärungsmethoden ermöglichen.