핵심 개념
本研究では、故障耐性のある量子コンピューティングアーキテクチャに統合するための活性化関数の量子回路の開発に焦点を当てており、特にT深度の最小化に重点を置いている。具体的には、定数T深度4のReLUと定数T深度8のLeaky ReLUの新しい実装を提示している。また、量子ルックアップテーブルを活用して、シグモイド関数などの他の活性化関数の探索も行っている。この手法により、精度とT深度のトレードオフを調整できるため、様々な応用シナリオに適応可能となる。
초록
本論文は、量子機械学習の実用性と応用を高めるための重要な進歩を示している。
主な内容は以下の通り:
- ReLU関数の量子回路実装:
- 定数T深度4の量子回路を提案
- 2Dグリッド上の制約下でもT深度が変わらない
- 回路深さはO(logn)、回路サイズはO(n)
- Leaky ReLU関数の量子回路実装:
- 定数T深度8の量子回路を提案
- 回路深さはO(logn)、回路サイズはO(n)
- その他の活性化関数(シグモイド、ソフトマックス、タンジェント、Swish、ELU、GELU)の量子ルックアップテーブルを用いた実装:
- 入出力ビット数とアンシラ数のトレードオフを考慮
- T深度を削減するためアンシラ数を増加
これらの結果は、故障耐性のある量子コンピューティングアーキテクチャにおける量子機械学習の実用性を大きく高めるものである。
통계
ReLU関数の量子回路のT深度は4である。
Leaky ReLU関数の量子回路のT深度は8である。