Der Artikel untersucht den Einfluss der Architektur von Quantenchips auf die Effizienz von Quantenneuronalen Netzwerken. Variationsquantenalgorithmen (VQAs) sind eine prominente Strategie zum Aufbau von Quantenmaschinenlernmodellen, die sowohl aus einem Quanten- als auch einem klassischen Teil bestehen.
Die Quantenkomponente wird durch eine Parametrisierung U charakterisiert, die aus der Komposition verschiedener Quantengatter besteht. Die klassische Komponente ist ein Optimierer, der die Parameter von U anpasst, um eine Kostenfunktion C zu minimieren.
Die Autoren zeigen theoretisch, dass der Durchschnittswert der Kostenfunktion C durch die Varianz von f(x, U) beschränkt ist, wobei f die Vorhersage des Modells ist. Außerdem zeigen sie, dass diese Varianz umso geringer ist, je näher die Parametrisierung U an einem t-Design liegt.
Die numerischen Simulationen bestätigen diese Ergebnisse. Sie zeigen, dass die Beschränkung der Parametrisierung U auf Gatter, die nur zwischen direkt verbundenen Qubits angewendet werden können, die Effizienz des Modells nicht signifikant beeinträchtigt. Dies ermöglicht es, die Tiefe der Parametrisierung zu reduzieren und so die mit Rauschen verbundenen Fehler zu minimieren.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Lucas Friedr... at arxiv.org 04-01-2024
https://arxiv.org/pdf/2212.14426.pdfDeeper Inquiries