Core Concepts
量子カーネル法は敵対的攻撃に対して脆弱であるが、データ拡張による簡単な防御戦略によって堅牢性を高められる。
Abstract
本論文では、量子カーネル法に基づく量子分類器が敵対的攻撃に対して脆弱であることを示した。具体的には、入力データに小さな人工的な摂動を加えることで、分類器を誤った結果を予測させることができる。
しかし、わずかな人工的な摂動を使ったデータ拡張によって、新しい攻撃に対して堅牢な分類器を構築できることも示した。
これらの結果は、安全性が重要な学習問題や量子ノイズの影響を軽減するために応用できる。
まず、量子カーネル法と敵対的機械学習の基礎を説明した。量子カーネル法は、量子状態を特徴ベクトルにマッピングし、その内積をカーネルとして用いる手法である。一方、敵対的機械学習では、入力データに意図的な摂動を加えて分類器を誤動作させる攻撃手法が研究されている。
次に、量子カーネル法に対する敵対的攻撃の手法を提案した。攻撃の目的は、分類器の決定境界を横切るように入力データを摂動することである。この手法は、分類器の決定関数の勾配を利用して、徐々に入力を攻撃サンプルに変換していく。
最後に、医療画像分類タスクを用いた数値実験を行った。実験の結果、提案した攻撃手法によって、事前に訓練した量子カーネル分類器を容易に欺くことができることを示した。一方で、わずかな攻撃サンプルを訓練データに加えることで、新しい攻撃に対しても堅牢な分類器を構築できることも確認した。さらに、実際の量子デバイス上で攻撃サンプルの予測実験を行い、提案手法の有効性を実証した。
Stats
訓練データセットには手と乳房の画像が各245枚と255枚、合計500枚含まれている。
テストデータセットには手と乳房の画像が各45枚と55枚、合計100枚含まれている。