Die Studie zeigt, dass quantengestützte Klassifikatoren auf Basis von Kernel-Methoden und Support-Vektor-Maschinen (QSVM) anfällig für Adversarial-Angriffe sind, bei denen kleine, absichtlich erzeugte Störungen der Eingabedaten den Klassifikator dazu bringen können, das falsche Ergebnis vorherzusagen.
Die Autoren entwickeln eine einfache Verteidigungsstrategie auf der Grundlage von Daten-Augmentierung, bei der einige wenige sorgfältig konstruierte Störungen verwendet werden, um den Klassifikator gegen neue Angriffe robust zu machen. Die Ergebnisse zeigen, dass diese Strategie effektiv ist und die Vorhersagegenauigkeit des QSVM-Klassifikators auf dem Testdatensatz deutlich verbessert.
Darüber hinaus führen die Autoren einen Proof-of-Concept-Experiment auf einem realen Quantencomputer durch, um die Kernel-Werte zu schätzen, die für die Vorhersage eines Adversarial-Beispiels erforderlich sind. Dieses Experiment zeigt, dass die Adversarial-Trainings-Technik nicht nur die Robustheit gegen Eingabe-Perturbationen, sondern auch gegen Hardware-Rauschen verbessern kann.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Giuseppe Mon... at arxiv.org 04-10-2024
https://arxiv.org/pdf/2404.05824.pdfDeeper Inquiries