Der Artikel untersucht, wie selbstkorrigierende Funktionen, die synthetisch erzeugte Datenpunkte automatisch so korrigieren, dass sie wahrscheinlicher unter der wahren Datenverteilung sind, das Training selbstverbrauchender generativer Modelle stabilisieren können.
Die theoretischen Ergebnisse zeigen, dass die Selbstkorrektur zu einer exponentiell stabileren Modellausbildung und einer geringeren Varianz führt, was anhand eines Gauß'schen Spielbeispiels illustriert wird.
Anschließend wird demonstriert, wie Physik-Simulatoren als Selbstkorrektur-Funktion für die anspruchsvolle Aufgabe der Synthese menschlicher Bewegungen dienen können. Modelle, die mit den selbstkorrigierenden selbstverbrauchenden Schleifen trainiert werden, erzeugen hochwertigere Bewegungen und vermeiden einen Kollaps selbst bei einem hohen Verhältnis von synthetischen zu realen Daten.
Zukünftige Arbeiten umfassen die Erkundung von Selbstkorrektur-Funktionen für vielfältigere Anwendungen wie Text-zu-Bild und Text-zu-Video-Generierung sowie die Untersuchung, wann selbstverbrauchendes Training insgesamt zu besseren generativen Modellen führen kann.
To Another Language
from source content
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Nate Gillman... lúc arxiv.org 04-08-2024
https://arxiv.org/pdf/2402.07087.pdfYêu cầu sâu hơn