Core Concepts
Durch Einführung einer Klassen-Zentralisierungs-Restriktion und einer Kovarianz-Abgleichs-Restriktion können die Klassendiskriminierung und die Genauigkeit der Merkmalsverteilungsanpassung zwischen realen und synthetischen Datensätzen deutlich verbessert werden, was zu erheblichen Leistungssteigerungen bei der Datensatz-Destillation führt.
Abstract
Der Artikel befasst sich mit der Datensatz-Destillation, einem vielversprechenden Ansatz im Deep Learning, der es ermöglicht, effizient mit kleinen synthetischen Datensätzen zu trainieren, die aus größeren realen Datensätzen abgeleitet werden. Insbesondere die auf Verteilungsanpassung basierenden Destillationsmethoden erfreuen sich aufgrund ihrer Effektivität und geringen Rechenkosten großer Aufmerksamkeit.
Allerdings haben diese Methoden zwei Haupteinschränkungen: die verstreute Merkmalsverteilung innerhalb derselben Klasse in synthetischen Datensätzen, was die Klassendiskriminierung reduziert, und eine ausschließliche Konzentration auf die Konsistenz der Mittelwerte, was an Präzision und Umfassendheit mangelt.
Um diese Herausforderungen anzugehen, führen die Autoren zwei neuartige Restriktionen ein: eine Klassen-Zentralisierungs-Restriktion und eine Kovarianz-Abgleichs-Restriktion.
Die Klassen-Zentralisierungs-Restriktion zielt darauf ab, die Klassendiskriminierung durch ein engeres Clustern der Stichproben innerhalb der Klassen zu verbessern. Die Kovarianz-Abgleichs-Restriktion soll eine genauere Anpassung der Merkmalsverteilung zwischen realen und synthetischen Datensätzen durch lokale Kovarianzmatrizen erreichen, was insbesondere dann von Vorteil ist, wenn die Stichprobengröße deutlich kleiner ist als die Merkmalsanzahl.
Die Experimente zeigen bemerkenswerte Verbesserungen mit diesen Restriktionen, die zu Leistungssteigerungen von bis zu 6,6% auf CIFAR10, 2,9% auf SVHN, 2,5% auf CIFAR100 und 2,5% auf TinyImageNet im Vergleich zu den aktuellsten relevanten Methoden führen. Darüber hinaus zeigt unsere Methode eine robuste Leistung in Kreuzarchitektur-Szenarien, mit einem maximalen Leistungsrückgang von 1,7% auf vier Architekturen.
Stats
Die Stichprobengröße ist deutlich kleiner als die Merkmalsanzahl.
Quotes
"Durch Einführung einer Klassen-Zentralisierungs-Restriktion und einer Kovarianz-Abgleichs-Restriktion können die Klassendiskriminierung und die Genauigkeit der Merkmalsverteilungsanpassung zwischen realen und synthetischen Datensätzen deutlich verbessert werden, was zu erheblichen Leistungssteigerungen bei der Datensatz-Destillation führt."
"Unsere Experimente zeigen bemerkenswerte Verbesserungen mit diesen Restriktionen, die zu Leistungssteigerungen von bis zu 6,6% auf CIFAR10, 2,9% auf SVHN, 2,5% auf CIFAR100 und 2,5% auf TinyImageNet im Vergleich zu den aktuellsten relevanten Methoden führen."