Die Studie stellt eine neuartige Trainingsstrategie namens "phasenweise Datenerweiterung" vor, die speziell für ein wahrscheinlichkeitsbasiertes generatives Modell (PC-VQ2) mit begrenzten Datensätzen entwickelt wurde.
Generative Modelle sind zwar in der Lage, realistische Bilder zu erstellen, hängen aber stark von umfangreichen Trainingsdatensätzen ab. Dies stellt eine große Herausforderung dar, insbesondere in Bereichen, in denen die Datenerfassung kostspielig oder schwierig ist. Bisherige dateneffiziente Methoden konzentrieren sich hauptsächlich auf GAN-Architekturen, lassen aber andere Arten generativer Modelle außer Acht.
Die phasenweise Datenerweiterung optimiert das Training, indem die Intensität der Datenerweiterung im Laufe der Lernphasen schrittweise reduziert wird. Anfangs wird die effektive Größe des Datensatzes erhöht, um dem Modell das Erfassen allgemeiner Muster zu erleichtern. Im Laufe des Trainings werden die Augmentationsparameter dann sukzessive eingeschränkt, damit sich das Modell auf die wesentlichen Merkmale des ursprünglichen Trainingsdatensatzes konzentrieren kann.
Die Experimente zeigen, dass der Ansatz der phasenweisen Datenerweiterung in quantitativen und qualitativen Bewertungen über verschiedene Datensätze hinweg deutlich bessere Ergebnisse liefert als die herkömmliche Datenerweiterung. Dies unterstreicht das Potenzial der Methode als effektive Strategie für das Training wahrscheinlichkeitsbasierter Modelle mit begrenzten Datensätzen.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Yuta Mimura at arxiv.org 03-19-2024
https://arxiv.org/pdf/2305.12681.pdfDeeper Inquiries