Der Artikel untersucht eine neue Form der Urheberrechtsverletzung durch Latente Diffusionsmodelle (LDM), bei der die Trainingsdaten so manipuliert werden, dass sie visuell stark von den urheberrechtlich geschützten Inhalten abweichen, aber ähnliche latente Informationen enthalten.
Zunächst wird erläutert, wie LDMs funktionieren und wie ihre Architektur mit einem festen Encoder ausgenutzt werden kann, um solche "getarnten" Trainingsdaten zu generieren. Es wird ein Algorithmus vorgestellt, der aus einem urheberrechtlich geschützten Bild und einem Basisbild ein visuell stark abweichendes, aber ähnliche latente Informationen enthaltendes "Tarndatensatz" erstellt.
Anschließend wird gezeigt, wie diese Tarndaten durch Textual Inversion, DreamBooth und gemischtes Training mit LDMs verwendet werden können, um die urheberrechtlich geschützten Inhalte zu reproduzieren, ohne dass dies durch eine einfache Sichtprüfung des Trainingsdatensatzes erkannt werden kann.
Abschließend wird ein zweistufiges Verfahren zur Erkennung solcher Tarndaten vorgestellt, das über eine reine Sichtprüfung hinausgeht. Dabei wird zunächst eine Ähnlichkeitssuche im Merkmalsraum durchgeführt, um Verdachtsfälle zu identifizieren, die dann durch eine Encoder-Decoder-Untersuchung bestätigt werden.
To Another Language
from source content
arxiv.org
Дополнительные вопросы