核心概念
Neuronale Netzwerke sind anfällig für imperzeptible Störungen, was die Robustheit von ML-basierten EDA-Tools in Frage stellt.
要約
In dieser Arbeit wird die Anfälligkeit von ML-basierten Stauvorhersagen für imperzeptible Störungen untersucht. Es wird gezeigt, dass kleine, sorgfältig gewählte Störungen die Vorhersagen von Staus beeinflussen können. Die Autoren schlagen eine Methode vor, um Layout-Störungen zu generieren, die die globale Routenführung nicht verändern. Durch adversiales Training können die Vorhersagen robuster gemacht werden. Die Ergebnisse legen nahe, dass bei der Integration von ML-basierten CAD-Systemen in EDA-Pipelines Vorsicht geboten ist.
ABSTRACT
- Interesse an ML-basierten Techniken im CAD-Bereich
- Neuronale Netzwerke anfällig für kleine Störungen
- Untersuchung der Robustheit von ML-basierten EDA-Tools
EINLEITUNG
- EDA-Flows beinhalten Optimierungs- und Verifizierungsherausforderungen
- Einsatz von ML-Techniken in CAD-Problemlösungen
- Anfälligkeit von neuronalen Netzwerken für Störungen
BEITRÄGE
- ML-basierte EDA-Tools sind anfällig für gültige Störungen
- Vorstellung von Methoden zur Erzeugung von Störungen
- Adversiales Training zur Verbesserung der Robustheit
EXPERIMENTE
- Umfassende Experimente mit CircuitNet-Datensatz
- Evaluierung der Auswirkungen von Störungen auf Vorhersagen
- Training von Modellen mit PGD zur Verbesserung der Robustheit
SCHLUSSFOLGERUNG UND ZUKÜNFTIGE ARBEIT
- Neuronale Netzwerke sind anfällig für Störungen
- Vorschlag zur Verbesserung der Robustheit durch adversiales Training
- Notwendigkeit sorgfältiger Evaluierung von ML-basierten EDA-Tools
統計
In diesem Werk wird gezeigt, dass Vorhersagen von Staus durch kleine, sorgfältig gewählte Störungen beeinflusst werden können.
Die Autoren schlagen eine Methode vor, um Layout-Störungen zu generieren, die die globale Routenführung nicht verändern.
Durch adversiales Training können die Vorhersagen robuster gemacht werden.
引用
"Neuronale Netzwerke sind anfällig für kleine, sorgfältig gewählte Störungen."