Die Studie untersucht die Datenschutzfähigkeiten von vier führenden chinesischen Großsprachmodellen anhand eines dreistufigen Evaluierungsrahmens.
In der ersten Stufe werden die Modelle auf den Umgang mit allgemeinen Datenschutzinformationen wie E-Mail-Adressen getestet. Die Ergebnisse zeigen, dass die Modelle in Nullschuss-Szenarien gut abschneiden, aber in wenigen Schuss-Szenarien stark an Leistung verlieren.
In der zweiten Stufe werden die Modelle in kontextbezogenen Datenschutzszenarien evaluiert, bei denen sie die Existenz von Datenschutzvereinbarungen erkennen und einhalten sollen. Die Ergebnisse zeigen, dass die Modelle hier erhebliche Schwächen aufweisen und den Datenschutz oft nicht wahren.
In der dritten Stufe werden die Modelle Angriffsszenarien ausgesetzt, bei denen ihre Fähigkeit getestet wird, Datenschutzrisiken zu erkennen und abzuwehren. Die Ergebnisse zeigen, dass die Modelle in den meisten Fällen den Angriffen unterliegen und vertrauliche Informationen preisgeben.
Insgesamt deuten die Ergebnisse darauf hin, dass die untersuchten chinesischen Großsprachmodelle erhebliche Mängel beim Schutz sensibler Informationen aufweisen. Dies birgt entsprechende Risiken für Anwendungen, die diese Modelle einsetzen. Anbieter und Entwickler müssen den Datenschutz stärker in den Fokus nehmen, um diese Risiken zu minimieren.
In un'altra lingua
dal contenuto originale
arxiv.org
Approfondimenti chiave tratti da
by Yuqi Yang,Xi... alle arxiv.org 03-28-2024
https://arxiv.org/pdf/2403.18205.pdfDomande più approfondite