Grunnleggende konsepter
Künstlich-intelligente Code-Generatoren sind anfällig für Datenvergiftungsangriffe, die zu unsicherem Code führen können.
Statistikk
"Angriffe auf Deep-Learning-Modelle, die Quellcode verarbeiten, sind möglich."
"Ein vergiftetes AI-Modell kann unsicheren Code generieren."
"Der Angriff ist erfolgreich, wenn das vergiftete Modell verwundbaren Code generiert."
Sitater
"Ein vergiftetes AI-Modell kann unsicheren Code generieren."
"Ersetzung sicherer Code-Snippets durch verwundbare Implementierungen."