Core Concepts
量子畳み込み層を訓練可能にすることで、量子畳み込みニューラルネットワーク(QuNNs)の性能を大幅に向上させることができる。また、複数の量子畳み込み層を同時に訓練する際の課題を解決するためのResidual Quantum Convolutional Neural Networks (ResQuNNs)を提案する。
Abstract
本論文では、量子畳み込み層を訓練可能にすることで、QuNNsの適応性と特徴抽出能力を高める新しい取り組みを紹介している。
複数の量子畳み込み層を訓練可能にする際の課題として、勾配が最後の層にしか到達しないという問題を指摘している。
この問題を解決するため、ResQuNNsと呼ばれる新しいアーキテクチャを提案している。ResQuNNsでは、量子畳み込み層の間にresidual blockを挿入することで、勾配が全ての層に到達できるようにしている。
さらに、ResQuNNsにおけるresidual blockの最適な配置場所を実験的に検討し、全ての量子畳み込み層の勾配を活用できる最適な設定を見出している。
これらの取り組みにより、QuNNsの訓練性能を大幅に向上させることができ、量子深層学習の発展に大きな一歩を踏み出している。
Stats
訓練データとして、MNIST データセットから各クラスから200枚ずつ合計2000枚のランダムに選択したサブセットを使用した。
訓練データと検証データは80:20の割合で分割した。
損失関数にはクロスエントロピー損失を使用した。
Quotes
"量子畳み込み層を訓練可能にすることで、QuNNsの全体的な学習効率を約36%向上させることができる。"
"複数の量子畳み込み層を同時に訓練する際の課題は、勾配が最後の層にしか到達しないことである。"
"ResQuNNsでは、量子畳み込み層の間にresidual blockを挿入することで、勾配が全ての層に到達できるようにしている。"