Die Studie untersucht, inwieweit die in der Forschung verwendeten Bedrohungsmodelle für die Sicherheit Künstlicher Intelligenz (KI) mit der praktischen Nutzung von KI übereinstimmen. Dazu wurden 271 Industriepraktiker befragt.
Die Ergebnisse zeigen, dass alle sechs untersuchten Angriffe (Vergiftung, Hintertüren, Umgehung, Modelldiebstahl, Mitgliedschaftsinferenz und Attributinferenz) in der Praxis relevant sind. Allerdings machen die Forschungsarbeiten oft zu großzügige Annahmen über den Zugriff des Angreifers auf Informationen, die in der Realität nicht immer verfügbar sind.
Beispielsweise geben die Praktiker an, dass der Zugriff auf Trainingsdaten und das Modell selbst oft eingeschränkt ist, während die Forschung von einem umfangreicheren Zugriff ausgeht. Auch die in der Forschung verwendeten Datensätze sind oft größer als die in der Praxis eingesetzten.
Darüber hinaus zeigt die Studie, dass die Verwendung von Bibliotheken für die Sicherheit von KI-Systemen relevant ist. Faktoren wie das KI-Wissen und die KI-Reife des Unternehmens beeinflussen den praktischen Zugriff auf KI-Systeme.
Insgesamt liefert die Studie wichtige Erkenntnisse, um die Forschung zur Sicherheit Künstlicher Intelligenz praxisnaher zu gestalten.
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Kathrin Gros... a las arxiv.org 03-27-2024
https://arxiv.org/pdf/2311.09994.pdfConsultas más profundas