Die Studie untersucht, inwieweit die in der Forschung verwendeten Bedrohungsmodelle für die Sicherheit Künstlicher Intelligenz (KI) mit der praktischen Nutzung von KI übereinstimmen. Dazu wurden 271 Industriepraktiker befragt.
Die Ergebnisse zeigen, dass alle sechs untersuchten Angriffe (Vergiftung, Hintertüren, Umgehung, Modelldiebstahl, Mitgliedschaftsinferenz und Attributinferenz) in der Praxis relevant sind. Allerdings machen die Forschungsarbeiten oft zu großzügige Annahmen über den Zugriff des Angreifers auf Informationen, die in der Realität nicht immer verfügbar sind.
Beispielsweise geben die Praktiker an, dass der Zugriff auf Trainingsdaten und das Modell selbst oft eingeschränkt ist, während die Forschung von einem umfangreicheren Zugriff ausgeht. Auch die in der Forschung verwendeten Datensätze sind oft größer als die in der Praxis eingesetzten.
Darüber hinaus zeigt die Studie, dass die Verwendung von Bibliotheken für die Sicherheit von KI-Systemen relevant ist. Faktoren wie das KI-Wissen und die KI-Reife des Unternehmens beeinflussen den praktischen Zugriff auf KI-Systeme.
Insgesamt liefert die Studie wichtige Erkenntnisse, um die Forschung zur Sicherheit Künstlicher Intelligenz praxisnaher zu gestalten.
Naar een andere taal
vanuit de broninhoud
arxiv.org
Belangrijkste Inzichten Gedestilleerd Uit
by Kathrin Gros... om arxiv.org 03-27-2024
https://arxiv.org/pdf/2311.09994.pdfDiepere vragen