Ein kleines Leck kann ein großes Schiff versenken: Transparenzanalyse für große Sprachmodelle von Anfang bis Ende
Selbst kleine Mengen an durchgesickerten Daten in den Trainingsdaten von Sprachmodellen können deren Ausgabe stark beeinflussen, was das Vertrauen der Menschen in KI untergraben kann. Eine Methode zur Selbsterkennung von Datenlecks in Sprachmodellen zeigt bessere Leistung als bisherige Methoden.