Core Concepts
Eine neue Metrik zur quantitativen Bewertung von Bildverkleinerungsalgorithmen, die auf der Raten-Verzerrungs-Theorie basiert und die Verzerrung beim Hochskalieren misst.
Abstract
In diesem Artikel wird eine neue Metrik zur quantitativen Bewertung von Bildverkleinerungsalgorithmen vorgestellt, die auf der Raten-Verzerrungs-Theorie basiert. Die Hauptidee ist, dass ein überlegener Bildverkleinerungsalgorithmus versucht, so viel Information wie möglich in den niedrigauflösenden (LR) Bildern zu erhalten, wodurch die Verzerrung beim Hochskalieren (Super-Auflösung) reduziert wird.
Um dies zu messen, benötigt man einen Hochskalierungsalgorithmus, der zwei Anforderungen erfüllt: Blindheit (er muss auf alle Arten von Verkleinerungsalgorithmen anwendbar sein) und Stochastizität (er muss eine Mannigfaltigkeit von Hochauflösungsbildern (HR) erzeugen können, die die bedingte Verteilung des Super-Auflösungsprozesses erfasst). Die Autoren zeigen, dass diese Anforderungen durch den Einsatz von Deep-Generative-Modellen erfüllt werden können.
Umfangreiche Experimente mit synthetischen und realen Bildverkleinerungsalgorithmen zeigen die Effektivität der vorgeschlagenen IDA-RD-Metrik.
Stats
Die Verzerrung sollte zunehmen, je schlechter der Bildverkleinerungsalgorithmus ist.
Je größer der Skalierungsfaktor, desto mehr Informationsverlust und desto höher die IDA-RD-Metrik.
Quotes
Keine relevanten Zitate gefunden.