핵심 개념
Durch die zunehmende Anzahl neuer neuronaler Architekturentwürfe und bestehender neuronaler Architekturen wird es für Forscher schwierig, ihre Beiträge im Vergleich zu bestehenden neuronalen Architekturen einzuordnen oder Verbindungen zwischen ihren Entwürfen und anderen relevanten herzustellen. Um ähnliche neuronale Architekturen auf effiziente und automatische Weise zu entdecken, definieren wir ein neues Problem, das "Retrieval von neuronalen Architekturen", das eine Reihe bestehender neuronaler Architekturen abruft, die ähnliche Entwürfe wie die Abfragearchitektur aufweisen.
초록
Der Artikel befasst sich mit dem Problem des Retrievals von neuronalen Architekturen, bei dem für eine gegebene Abfragearchitektur ähnliche bestehende neuronale Architekturen effizient und automatisch abgerufen werden sollen.
Bestehende Strategien zum Vortrainieren von Graphen können die Berechnungsgraphen in neuronalen Architekturen aufgrund der Graphgröße und Motive nicht adäquat behandeln. Um dieses Potenzial zu erfüllen, schlagen wir vor, den Graphen in Motive aufzuteilen, die verwendet werden, um den Makrographen wieder aufzubauen, um diese Probleme anzugehen, und führen ein mehrschichtiges kontrastives Lernen ein, um ein genaues Graphenrepräsentationslernen zu erreichen.
Umfangreiche Evaluierungen sowohl auf manuell entworfenen als auch auf synthetisierten neuronalen Architekturen zeigen die Überlegenheit unseres Algorithmus. Außerdem haben wir einen neuen Datensatz mit 12.000 verschiedenen gesammelten Architekturen und deren Einbettung für das Retrieval von neuronalen Architekturen erstellt, der der Gemeinschaft der neuronalen Architekturentwürfe zugute kommt.
통계
Die Größe der Berechnungsgraphen in neuronalen Architekturen variiert stark, von LeNet-5 bis ViT-L.
Neuronale Architekturen enthalten Motive wie ResNet-Blöcke und Transformer-Selbstaufmerksamkeitsmodule.
인용구
"Mit der zunehmenden Anzahl neuer neuronaler Architekturentwürfe und bestehender neuronaler Architekturen wird es für Forscher schwierig, ihre Beiträge im Vergleich zu bestehenden neuronalen Architekturen einzuordnen oder Verbindungen zwischen ihren Entwürfen und anderen relevanten herzustellen."
"Bestehende Strategien zum Vortrainieren von Graphen können die Berechnungsgraphen in neuronalen Architekturen aufgrund der Graphgröße und Motive nicht adäquat behandeln."