Core Concepts
Ein neuartiges Modell zur Privatsphäre-schützenden Sprachverständnissystemen, das die Trennung der versteckten Schicht und adversarisches Training kombiniert, um sowohl die Spracherkennungs- als auch die Identitätserkennung-Angriffe zu verhindern, während die Leistung des Sprachverständnissystems weitgehend unbeeinträchtigt bleibt.
Abstract
Die Studie präsentiert ein neuartiges Modell zur Privatsphäre-schützenden Sprachverständnissystemen (SLU), das die Trennung der versteckten Schicht und adversarisches Training kombiniert.
Das Modell teilt die versteckte Schicht in mehrere Teile auf, wobei der SLU-Teil nur einen spezifischen Teil der versteckten Schicht verwendet, während die anderen Teile für die Spracherkennung (ASR) und Identitätserkennung (IR) reserviert sind. Dadurch wird verhindert, dass sensible Informationen aus dem SLU-Teil der versteckten Schicht abgeleitet werden können.
Um die Privatsphäre-Schutzfähigkeit weiter zu verbessern, wird zusätzlich adversarisches Training eingesetzt. Dadurch wird erreicht, dass der SLU-Teil der versteckten Schicht nur noch wenig Informationen für ASR und IR enthält.
Die Experimente zeigen, dass das vorgeschlagene Modell die Genauigkeit des SLU-Systems weitgehend beibehält, während es die Erfolgsquote von ASR- und IR-Angriffen auf das Niveau eines Zufallsratenangriffs senkt. Es bietet damit einen besseren Schutz der Privatsphäre als bisherige Methoden.
Stats
Die Spracherkennungsgenauigkeit (WER) kann auf bis zu 92% gesteigert werden, was einer Zufallsrate entspricht.
Die Identitätserkennungsgenauigkeit (ACC-IR) kann auf bis zu 60% gesenkt werden, was ebenfalls einer Zufallsrate entspricht.
Quotes
"Unser Modell kann nicht nur die Genauigkeit des SLU-Systems weitgehend beibehalten, sondern auch die Erfolgsquote von Angreifern auf das Niveau eines Zufallsratenangriffs senken."
"Die Kombination von Trennung der versteckten Schicht und adversarischem Training verbessert den Schutz der Privatsphäre im Vergleich zu bisherigen Methoden."