Dieser Artikel stellt acht neue Datensätze vor, die für Herausforderungen im Bereich Neural Architecture Search (NAS) entwickelt wurden. Die Datensätze wurden in zwei Kategorien eingeteilt:
Type-1 Datensätze: Probleme, die ein Experte selbst lösen oder ein Programm erstellen könnte, das besser abschneidet als ein naiver Deep Learning-Ansatz auf den Rohdaten.
Beispiel: AddNIST - Bilder mit drei Kanälen, wobei jeder Kanal ein MNIST-Bild ist und die Klassenlabels die Summe der drei Ziffern sind.
Type-2 Datensätze: Probleme, die für Menschen fast unlösbar wären.
Beispiel: Language - Bilder, die Wörter aus 10 Sprachen codieren, bei denen das Modell die korrekte Sprache identifizieren muss.
Die Motivation hinter den Datensätzen ist es, die Generalisierungsfähigkeit von NAS-Methoden zu testen, die bisher hauptsächlich auf bekannten Benchmark-Datensätzen wie CIFAR-10 und ImageNet evaluiert wurden. Die neuen Datensätze sollen NAS-Methoden dazu bringen, Architekturen zu finden, die auf unbekannten Problemen gut abschneiden, anstatt nur auf spezifische Datensätze optimiert zu sein.
Baseline-Experimente mit gängigen CNN-Architekturen und NAS-Methoden wie PC-DARTS, DrNAS und Bonsai-Net zeigen, dass die NAS-Methoden in den meisten Fällen die besten Ergebnisse erzielen, was die Stärke dieser Ansätze bei der Suche nach guten Modellen für verschiedene Datensätze unterstreicht.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Rob Geada,Da... at arxiv.org 04-04-2024
https://arxiv.org/pdf/2404.02189.pdfDeeper Inquiries