Die Studie bietet eine theoretische Analyse, die die trainingsfreie Diffusionssteuerung aus der Optimierungsperspektive unterstützt und sie von der klassifikatorbasierten (oder klassifikatorfreien) Steuerung unterscheidet. Sie zeigt theoretisch, dass trainingsfreie Methoden anfälliger für adversarische Gradienten sind und langsamere Konvergenzraten aufweisen als die Klassifikatorsteuerung. Darüber hinaus werden Techniken eingeführt, um diese Einschränkungen zu überwinden, die theoretisch und empirisch validiert werden.
Eine neuartige Trainingsstrategie namens "phasenweise Datenerweiterung" ermöglicht ein effizientes Training eines wahrscheinlichkeitsbasierten generativen Modells (PC-VQ2) mit begrenzten Datensätzen. Die Methode übertrifft die herkömmliche Datenerweiterung deutlich in Bezug auf quantitative und qualitative Leistungsbewertungen.
Eine neuartige Trainingsstrategie namens "phasenweise Datenerweiterung" ermöglicht ein effizientes Training eines wahrscheinlichkeitsbasierten generativen Modells (PC-VQ2) mit begrenzten Datensätzen. Die Methode übertrifft die herkömmliche Datenerweiterung deutlich in Bezug auf quantitative und qualitative Leistungsbewertungen.
Generative Diffusionsmodelle können mithilfe der Werkzeuge der Gleichgewichtsstatistischen Physik verstanden und analysiert werden. Sie durchlaufen Phasenübergänge zweiter Ordnung, die mit Symmetriebrechungsphänomenen einhergehen. Diese Phasenübergänge sind immer in einer Mean-Field-Universalitätsklasse, da sie das Ergebnis einer Selbstkonsistenzbedingung in der generativen Dynamik sind. Die kritische Instabilität, die aus den Phasenübergängen resultiert, liegt dem Kern ihrer generativen Fähigkeiten zugrunde, die durch eine Reihe von Mean-Field-Kritikalexponenten gekennzeichnet sind.