核心概念
Adversarial Examples bedrohen Sprecheridentifikationssysteme, erfordern Gegenmaßnahmen zur Erkennung und Klassifizierung.
统计
Wir erreichen eine AUC von 0,982 für die Angriffserkennung, mit einer Genauigkeit von 86,48% bei der Angriffsklassifizierung.
引用
"Adversarial examples have proven to threaten speaker identification systems."
"Our work represents a significant step towards building more resilient and trustworthy machine learning systems."