מושגי ליבה
Die vorgeschlagene Methode zielt darauf ab, die Zuverlässigkeit der Überwachung durch das Lehrermodell zu verbessern, indem sie die falschen Vorhersagen des Lehrers durch Überarbeitung der Etiketten und Auswahl geeigneter Trainingsdaten korrigiert.
תקציר
Die Studie befasst sich mit der Verbesserung der Wissensübertragung (Knowledge Distillation, KD) durch zwei Hauptaspekte: Etikettenüberarbeitung (Label Revision, LR) und Datenauswahl (Data Selection, DS).
LR:
Das Ziel ist es, die unzuverlässigen Vorhersagen des Lehrermodells durch Verwendung der Grundwahrheit zu korrigieren.
Die Wahrscheinlichkeiten des Lehrers werden mit den Einsen-Etiketten der Grundwahrheit kombiniert, um die falschen Vorhersagen zu korrigieren, während die relativen Informationen zwischen den Klassen erhalten bleiben.
DS:
Nicht alle Trainingsdaten müssen vom Lehrer überwacht werden, da mehr Anleitung auch mehr falsche Vorhersagen bedeuten kann.
Es wird eine Datenauswahlmethode eingeführt, um geeignete Trainingsproben für die Übertragung vom Lehrer zum Schüler auszuwählen, um den Einfluss der falschen Überwachung zu verringern.
Die Ergebnisse zeigen, dass die vorgeschlagene Methode die Leistung des Schülermodells im Vergleich zur herkömmlichen KD-Methode verbessern kann. Darüber hinaus kann die Methode auch mit anderen Distillationsansätzen kombiniert werden, um deren Leistung zu verbessern.
סטטיסטיקה
Die Wahrscheinlichkeit der vorhergesagten Klasse (pt
max) und der Zielklasse (pt
tar) in den Vorhersagen des Lehrers können verwendet werden, um den Koeffizienten η zu berechnen.
ציטוטים
"Supervision von fehlerhaften Vorhersagen kann die Ausbildung des Schülermodells irreführen."
"Je mehr Anleitung vom Lehrer bereitgestellt wird, desto größer ist die Wahrscheinlichkeit, dass falsche Vorhersagen enthalten sind."