本論文では、量子ニューラルネットワークモデルの効率がチップアーキテクチャにどのように影響されるかを分析している。
まず、コスト関数の平均値は、パラメータ化がt-designに近づくほど、パラメータ化の選択に依存しなくなることを理論的に示した。これは、コスト関数の分散が減少するためである。
次に、数値シミュレーションを行い、この理論的予測を検証した。ランダムに生成したパラメータ化を使った場合、システムサイズが大きくなるほど、コスト関数の振る舞いが平均値に収束することを確認した。
さらに、固定されたパラメータ化を使い、チップアーキテクチャの制限の有無を比較した。その結果、制限を設けた場合でも、コスト関数の振る舞いに大きな違いはないことがわかった。
これらの結果から、量子ニューラルネットワークモデルを構築する際、チップアーキテクチャに合わせてパラメータ化を制限しても、効率を大きく損なわないことが示された。これにより、SWAP ゲートの使用を削減でき、モデルの深さを浅くできるため、ノイズの影響を軽減できる。
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Lucas Friedr... at arxiv.org 04-01-2024
https://arxiv.org/pdf/2212.14426.pdfDeeper Inquiries