Der Artikel befasst sich mit der Verbesserung der Unsicherheitskalibrierung von tiefen neuronalen Netzen. Dafür werden zunächst bestehende Kalibrierungsfehler in einer Taxonomie eingeordnet und deren Schwächen aufgezeigt. Insbesondere zeigt der Artikel, dass die meisten gängigen Kalibrierungsfehler lediglich untere Schranken eines "richtigen Kalibrierungsfehlers" sind und somit nicht zuverlässig angeben, ob ein Modell kalibriert ist.
Um diese Problematik zu adressieren, führt der Artikel das Konzept der "richtigen Kalibrierungsfehler" ein. Diese Fehler sind genau dann Null, wenn das Modell kalibriert ist. Da diese Fehler im Allgemeinen nicht direkt schätzbar sind, werden obere Schranken dafür eingeführt. Diese oberen Schranken ermöglichen eine zuverlässige Quantifizierung der Verbesserung durch injektive Rekalibrierungsmethoden, im Gegensatz zu den gängigen Schätzern, die sich als sehr instabil erweisen.
Der Artikel demonstriert die Überlegenheit des vorgeschlagenen Ansatzes sowohl theoretisch als auch empirisch. Dabei wird gezeigt, dass die gängigen Schätzer stark von der Testdatengröße abhängen und die Verbesserung durch Rekalibrierung systematisch über- oder unterschätzen können. Im Gegensatz dazu liefert die obere Schranke stabile Ergebnisse.
Abschließend wird gezeigt, wie der Ansatz auch auf Varianzregression angewendet werden kann, um die Unsicherheitsschätzung zu verbessern.
Na inny język
z treści źródłowej
arxiv.org
Głębsze pytania