Die Studie stellt eine neuartige Trainingsstrategie namens "phasenweise Datenerweiterung" vor, die speziell für ein wahrscheinlichkeitsbasiertes generatives Modell (PC-VQ2) mit begrenzten Datensätzen entwickelt wurde.
Generative Modelle sind zwar in der Lage, realistische Bilder zu erstellen, hängen aber stark von umfangreichen Trainingsdatensätzen ab. Dies stellt eine große Herausforderung dar, insbesondere in Bereichen, in denen die Datenerfassung kostspielig oder schwierig ist. Bisherige dateneffiziente Methoden konzentrieren sich hauptsächlich auf GAN-Architekturen, lassen aber andere Arten generativer Modelle außer Acht.
Die phasenweise Datenerweiterung optimiert das Training, indem die Intensität der Datenerweiterung im Laufe der Lernphasen schrittweise reduziert wird. Anfangs wird die effektive Größe des Datensatzes erhöht, um dem Modell das Erfassen allgemeiner Muster zu erleichtern. Im Laufe des Trainings werden die Augmentationsparameter dann sukzessive eingeschränkt, damit sich das Modell auf die wesentlichen Merkmale des ursprünglichen Trainingsdatensatzes konzentrieren kann.
Die Experimente zeigen, dass der Ansatz der phasenweisen Datenerweiterung in quantitativen und qualitativen Bewertungen über verschiedene Datensätze hinweg deutlich bessere Ergebnisse liefert als die herkömmliche Datenerweiterung. Dies unterstreicht das Potenzial der Methode als effektive Strategie für das Training wahrscheinlichkeitsbasierter Modelle mit begrenzten Datensätzen.
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Yuta Mimura lúc arxiv.org 03-19-2024
https://arxiv.org/pdf/2305.12681.pdfYêu cầu sâu hơn