Praxisnahe Bedrohungsmodelle für die Sicherheit Künstlicher Intelligenz
Bestehende akademische Bedrohungsmodelle für die Sicherheit Künstlicher Intelligenz stimmen nicht immer mit der praktischen Nutzung und den Sicherheitsrisiken von KI überein. Obwohl alle sechs untersuchten Angriffe in der Praxis relevant sind, machen die Forschungsarbeiten oft zu großzügige Annahmen über den Zugriff des Angreifers auf Informationen, die in der Realität nicht immer verfügbar sind.