Die Studie führt eine innovative datenfrei Methode namens Score identity Distillation (SiD) ein, die die generativen Fähigkeiten von vortrainierten Diffusionsmodellen in einen Einstufengenerator destilliert. SiD ermöglicht nicht nur eine exponentiell schnelle Reduzierung der Fréchet Inception Distanz (FID) während der Destillation, sondern erreicht auch die FID-Leistung der ursprünglichen Lehrerdiffusionsmodelle oder übertrifft sie sogar.
Durch die Umformulierung von Vorwärtsdiffusionsprozessen als semi-implizite Verteilungen nutzt SiD drei Score-bezogene Identitäten, um einen innovativen Verlustmechanismus zu schaffen. Dieser Mechanismus erreicht eine schnelle FID-Reduzierung, indem der Generator mit seinen eigenen synthetisierten Bildern trainiert wird, ohne dass echte Daten oder auf Rückwärtsdiffusion basierende Generierung erforderlich sind, und das alles in deutlich verkürzter Generierungszeit.
Bei der Bewertung auf vier Benchmark-Datensätzen zeigt der SiD-Algorithmus eine hohe Iterationseffizienz während der Destillation und übertrifft konkurrierende Destillationsansätze, unabhängig davon, ob es sich um Einstufigen- oder Mehrstufengeneratoren, datenfreie oder datenabhängige Ansätze handelt, in Bezug auf die Generierungsqualität. Diese Leistung definiert nicht nur die Benchmarks für Effizienz und Effektivität in der Diffusionsdestillation neu, sondern auch in der breiteren Diffusionsbasierten Generierung.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문