本研究では、グラフニューラルネットワーク(GNN)の裏口攻撃に対する脆弱性と、その検知の重要性について述べている。
まず、GNNの分類タスクにおいて、攻撃者が一部の学習グラフに予め定義された「裏口トリガー」を埋め込み、その学習グラフのラベルを攻撃者の目的のラベルに変更することで、GNNモデルを操作できることが示されている。
従来の説明手法であるGNNExplainerやPGExplainerを用いても、裏口トリガーを一貫して検知することは困難であることが明らかになった。そこで本研究では、説明過程から得られる7つの新しい指標を提案した。これらの指標は、単独では不十分であるが、組み合わせることで、より効果的に裏口グラフを検知できることが示された。
具体的な指標は以下の通り:
これらの指標を組み合わせた検知手法を提案し、複数のデータセットと攻撃モデルに対して評価した結果、ランダムな裏口攻撃に対して最大F1スコア0.906、適応的な裏口攻撃に対して0.842を達成した。これは、GNNの裏口攻撃に対する重要な防御策となる。
Para outro idioma
do conteúdo fonte
arxiv.org
Principais Insights Extraídos De
by Jane Downer,... às arxiv.org 03-28-2024
https://arxiv.org/pdf/2403.18136.pdfPerguntas Mais Profundas