Diese Arbeit stellt einen neuartigen Ansatz namens Balanced and Entropy-based Mix (BEM) vor, um das langschwänzige semi-überwachte Lernen durch Neuausgewogenheit des Trainingsprozesses zu verbessern. BEM gleicht die Datenmengen über eine klassenausgewogene Mischbank aus und gleicht die klassenweise Unsicherheit durch einen entropiebasierten Lernansatz aus.
Um das Problem des langschwänzigen semi-überwachten Lernens (LTSSL) zu lösen, bei dem die Verteilung der markierten Daten unausgewogen ist und die Verteilung der unmarkierten Daten unbekannt ist, schlagen wir eine neuartige Methode namens ComPlementary Experts (CPE) vor. CPE trainiert mehrere Experten, um verschiedene Klassenverteilungen zu modellieren, wobei jeder Experte hochwertige Pseudo-Labels für eine bestimmte Form der Klassenverteilung erzeugt. Darüber hinaus führen wir eine klassenweise Batch-Normalisierung für CPE ein, um eine Leistungsminderung aufgrund von Fehlverteilungen zwischen Kopf- und Nicht-Kopf-Klassen zu vermeiden.