Durch das schrittweise Bereitstellen komplexer Erklärungen können die Vorteile mehrerer leichtgewichtiger Erklärungen genutzt werden, um eine höhere Genauigkeit zu erreichen.
Konzeptaktivierungsvektoren (CAVs) können inkonsistent zwischen Schichten sein, mit anderen Konzepten verwoben sein und räumlich abhängig sein. Diese Eigenschaften beeinflussen die Aussagekraft von CAV-basierten Erklärungen und müssen bei deren Verwendung berücksichtigt werden.
Traditionelle Methoden wie Shapley-Wert und LIME können sowohl eine hohe Treue als auch Plausibilität erreichen, anstatt eine Dimension auf Kosten der anderen zu optimieren.
Das Entfernen hochfrequenter Rauschsignale aus den Gradienten, die von weißen Boxen-Erklärungsmethoden verwendet werden, führt zu deutlich verbesserter Erklärbarkeit und Interpretierbarkeit der Modellentscheidungen.
Eine formale Rahmenkonzeption zur Bewertung verschiedener Arten von Erklärungen, die in der automatisierten Faktenüberprüfung verwendet werden, um deren Qualität systematisch zu beurteilen.
Die Erklärungen von neuronalen Netzen sind zunehmend wichtig für das Debugging, die Leistungsoptimierung und das Verständnis der Funktionsweise von Modellen. Es ist daher unerlässlich, die mit diesen Erklärungen verbundene Unsicherheit zu messen.