核心概念
LCANets++ sind konvolutional neuronale Netze, die in mehreren Schichten Sparse-Coding über den Locally Competitive Algorithm (LCA) durchführen. Sie sind robuster als Standard-CNNs und LCANets gegen Störungen und Angriffsversuche.
摘要
Die Studie präsentiert LCANets++, eine Erweiterung der zuvor entwickelten LCANets für Bildklassifizierung, auf Audio-Klassifizierungsaufgaben. LCANets++ sind CNN-Modelle, die Sparse-Coding in mehreren Schichten über den LCA-Algorithmus durchführen.
Die Autoren zeigen, dass LCANets++ robuster sind als Standard-CNNs und LCANets gegen verschiedene Arten von Störungen, wie Hintergrundrauschen, sowie gegen weiße und schwarze Kasten-Angriffe wie FGSM und PGD-Angriffe. Der Vorteil von LCANets++ wird darauf zurückgeführt, dass die unsupervidierten LCA-Schichten die relevantesten Merkmale extrahieren und diese weniger anfällig für Störungen sind.
Die Experimente wurden auf dem Google Speech Commands v2-Datensatz durchgeführt. Neben regulären CNN-Modellen wurden auch größere SOTA-Modelle wie ResNet18 mit LCA-Schichten erweitert, was ebenfalls zu Verbesserungen der Robustheit führte, wenn auch in geringerem Maße als bei den einfacheren CNN-Modellen.
統計資料
Die Genauigkeit der regulären CNN-Modelle geht bei zunehmendem Hintergrundrauschen (SNR = 15 dB) auf 69,2% zurück, während LCANets++ bei 76,8% bleiben.
Bei Gaussian-Rauschen auf den MFCC-Merkmalen (ϵ = 0,05) fällt die Genauigkeit der CNN-Modelle auf 85,6%, während LCANets++ bei 90,0% bleiben.
Gegen den weißen Kasten-FGSM-Angriff (ϵ = 0,03) sinkt die Genauigkeit der CNN-Modelle auf 1,7%, während LCANets++ bei 41,4% bleiben.
Gegen den weißen Kasten-PGD-Angriff (ϵ = 0,03) sinkt die Genauigkeit der CNN-Modelle auf 2,5%, während LCANets++ bei 56,7% bleiben.
引述
"LCANets++ sind konvolutional neuronale Netze, die in mehreren Schichten Sparse-Coding über den Locally Competitive Algorithm (LCA) durchführen."
"LCANets++ sind robuster als Standard-CNNs und LCANets gegen Störungen und Angriffsversuche."