Core Concepts
Es ist möglich, Eigenschaften von Maschinenlernmodellen und Trainingsdaten zu überprüfen, ohne die Modellgewichte oder Trainingsdaten selbst offenzulegen.
Abstract
Der Artikel beschreibt ein Verfahren namens ZKAUDIT, das es Modellanbietern ermöglicht, ihre Modellgewichte und Trainingsdaten geheim zu halten, während andere Parteien die Modelle und Daten vertrauenswürdig überprüfen können.
ZKAUDIT besteht aus zwei Schritten:
- ZKAUDIT-T: Der Modellanbieter veröffentlicht kryptografische Verpflichtungen zu Datensätzen und Modellgewichten sowie einen Zero-Knowledge-Beweis, dass das Modell korrekt auf den veröffentlichten Daten trainiert wurde.
- ZKAUDIT-I: Wenn eine Überprüfung gewünscht wird, berechnet der Modellanbieter eine beliebige Funktion F der Daten oder des Modells und veröffentlicht das Ergebnis zusammen mit einem weiteren Zero-Knowledge-Beweis, der die korrekte Ausführung von F bestätigt.
Um ZKAUDIT zu ermöglichen, entwickeln die Autoren neue Methoden zum Berechnen von Zero-Knowledge-Beweisen für moderne neuronale Netze, einschließlich der Rückwärtsberechnung für Gradientenabstieg. Die Autoren zeigen, dass ZKAUDIT praktisch umsetzbar ist und Überprüfungen wie Urheberrechts-, Zensur- und Gegenüberstellungsaudits mit geringen Genauheitsverlusten ermöglicht.
Stats
Das Training eines Empfehlungssystems und eines Bildklassifikationssystems kann für so wenig wie 10 $ bzw. 108 $ durchgeführt werden.
Die Genauigkeit der ZKAUDIT-Modelle liegt nahe an der Genauigkeit von Modellen, die mit voller Gleitkomma-Genauigkeit trainiert wurden.
Quotes
"Es ist möglich, Eigenschaften von Maschinenlernmodellen und Trainingsdaten zu überprüfen, ohne die Modellgewichte oder Trainingsdaten selbst offenzulegen."
"ZKAUDIT ermöglicht es Modellanbietern, ihre Modellgewichte und Trainingsdaten geheim zu halten, während andere Parteien die Modelle und Daten vertrauenswürdig überprüfen können."