核心概念
Die Autoren führen neue Familien von Ersatzverlustfunktionen für die Abstentionsverlustfunktion ein, die sowohl den Stand der Technik bei einstrufigen Einstellungen als auch eine neue Familie von Verlustfunktionen bei zweistufigen Einstellungen umfassen. Sie beweisen starke nichtasymptotische und hypothesensatzspezifische Konsistenzgarantien für diese Ersatzverluste, die den Schätzfehler der Abstentionsverlustfunktion in Bezug auf den Schätzfehler des Ersatzverlusts nach oben beschränken.
要約
Die Autoren analysieren die punktbasierte Formulierung des Lernens mit Abstention im Multi-Klassen-Klassifizierungskontext. Sie führen neue Familien von Ersatzverlustfunktionen für die Abstentionsverlustfunktion ein, die sowohl den Stand der Technik bei einstrufigen Einstellungen als auch eine neue Familie von Verlustfunktionen bei zweistufigen Einstellungen umfassen.
Die Autoren beweisen starke nichtasymptotische und hypothesensatzspezifische Konsistenzgarantien für diese Ersatzverluste. Diese Garantien beschränken den Schätzfehler der Abstentionsverlustfunktion nach oben in Bezug auf den Schätzfehler des Ersatzverlusts. Die Autoren zeigen, dass diese Garantien verwendet werden können, um verschiedene punktbasierte Ersatzverluste zu vergleichen und den Entwurf neuartiger Abstentionsalgorithmen durch Minimierung der vorgeschlagenen Ersatzverluste zu leiten.
Die Autoren evaluieren ihre neuen Algorithmen empirisch auf den CIFAR-10-, CIFAR-100- und SVHN-Datensätzen und zeigen die praktische Bedeutung ihrer neuen Ersatzverluste und zweistufigen Abstentionsalgorithmen. Die Ergebnisse zeigen auch, dass die relative Leistung der state-of-the-art punktbasierten Ersatzverluste je nach Datensatz variieren kann.
統計
Die Abstentionsverlustfunktion kann als 1h(x)≠y −1h(x)=n+1 + c1h(x)=n+1 dargestellt werden, wobei c den Abstentionskosten entspricht.
Die Ersatzverlustfunktion Lµ kann als ℓµ(h,x,y) + (1 −c)ℓµ(h,x,n + 1) dargestellt werden, wobei ℓµ die verallgemeinerte Kreuzentropieverlustfunktion ist.
Für die zweistufige Ersatzverlustfunktion wird im ersten Schritt die logistische Verlustfunktion und im zweiten Schritt die exponentielle Verlustfunktion verwendet.
引用
"Learning with abstention is a key scenario where the learner can abstain from making a prediction at some cost."
"We prove strong non-asymptotic and hypothesis set-specific consistency guarantees for these surrogate losses, which upper-bound the estimation error of the abstention loss function in terms of the estimation error of the surrogate loss."
"Our results also show that the relative performance of the state-of-the-art score-based surrogate losses can vary across datasets."