In dieser Arbeit schlagen die Autoren vor, dass Nutzer persönliche Passphrasen, sogenannte "Ghost Sentences", in ihre öffentlichen Dokumente wie Tweets, Blogs oder GitHub-Repositories einfügen können. Diese Passphrasen dienen als versteckte Markierungen, die von Großsprachmodellen während des Trainings oder der Feinabstimmung möglicherweise übernommen werden. Wenn Nutzer diese Passphrasen in den Ausgaben der Modelle wiederfinden, können sie sicher sein, dass ihre Daten ohne Erlaubnis verwendet wurden.
Die Autoren definieren eine Aufgabe zur Identifizierung von Nutzerdaten mithilfe von "Ghost Sentences" und erstellen mehrere Datensätze unterschiedlicher Größe, die sie mit Großsprachmodellen verschiedener Größen testen. Sie führen umfangreiche Experimente durch, um die Effektivität und Anwendung dieser Methode zu untersuchen. Dabei zeigen sie, dass die durchschnittliche Wiederholungsrate der "Ghost Sentences" entscheidender ist als die Anzahl der Nutzer mit solchen Sätzen. Größere Modelle und höhere Lernraten erhöhen ebenfalls die Wahrscheinlichkeit, dass die Modelle die "Ghost Sentences" memorieren.
Die Ergebnisse zeigen, dass diese Methode eine praktikable Möglichkeit für Nutzer darstellt, ihre Daten vor der unbefugten Verwendung durch Großsprachmodelle zu schützen.
Til et annet språk
fra kildeinnhold
arxiv.org
Viktige innsikter hentet fra
by Shuai Zhao,L... klokken arxiv.org 03-26-2024
https://arxiv.org/pdf/2403.15740.pdfDypere Spørsmål