Der Artikel behandelt die Problematik der zuverlässigen Quantifizierung der Auswirkungen von Rekalibrierungsmethoden auf die Unsicherheitskalibierung von tiefen neuronalen Netzen.
Zunächst wird eine Taxonomie existierender Kalibrierungsfehler erstellt. Es zeigt sich, dass die meisten Fehler lediglich untere Schranken eines "richtigen Kalibrierungsfehlers" sind und daher nicht zuverlässig beurteilen können, ob ein Modell kalibriert ist.
Daraufhin wird das Konzept der "richtigen Kalibrierungsfehler" eingeführt, das eine allgemeine Klasse von Fehlern für beliebige probabilistische Vorhersagen definiert. Da diese Fehler im Allgemeinen nicht geschätzt werden können, werden obere Schranken eingeführt, die die Kalibrierungsverbesserung durch injektive Transformationen direkt messen können.
Es wird theoretisch und empirisch gezeigt, dass gängige Schätzer für Kalibrierungsfehler die Verbesserung durch Rekalibrierung stark verzerren können. Im Gegensatz dazu ist die vorgeschlagene obere Schranke robust gegenüber Änderungen der Datengröße und schätzt die Verbesserung durch injektive Rekalibrierung zuverlässig.
Zusätzliche Experimente zeigen, dass der Ansatz auch erfolgreich auf Varianzregression angewendet werden kann.
Para outro idioma
do conteúdo fonte
arxiv.org
Principais Insights Extraídos De
by Sebastian G.... às arxiv.org 03-14-2024
https://arxiv.org/pdf/2203.07835.pdfPerguntas Mais Profundas